cha

ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图1)

  人工智能

  需要人工

  人工智能的成功,不只归功于金字塔尖的天才。

  AI 不会识别物体,需要大量数据学会分辨五官和交通灯。

  AI 对信息来者不拒,仰仗人工帮它剔除数据库有害的那部分。

  当 AI 最终出现在镁光灯下,数据标注员们完成了单调而重要的职责,然后又隐入黑暗。

  火爆全球的 ChatGPT,大概也是一个「一将功成万骨枯」的故事。

  ChatGPT 的「幕后英雄」

  ChatGPT 有多厉害不必多言,它和你用自然语言交谈,编写代码、撰写论文、通过考试、创作诗歌都不在话下。

  比起之前的「人工智障」,ChatGPT 的前身 GPT-3 也是一大进步,但它存在一个问题,容易脱口而出暴力、性别歧视和种族主义言论,所以无法真正普及开来。

  有了前车之鉴,为了保证 ChatGPT 的温和无害,OpenAI 建立了一个额外的安全机制。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图2)

  它基于涉及暴力、仇恨和性虐等内容的例子,训练出能够检测有害内容的 AI,再把这个 AI 作为检测器,内置到 ChatGPT 之中,在内容到达用户之前,起到检测和过滤的作用。

  以上例子需要经过数据标注(Data labelling),这是一项浩如烟海的人力劳动,由肯尼亚的工人们负责,为有害内容打上标签。

  从 2021 年 11 月起,OpenAI 向外包公司 Sama 发送了数万个文本片段,其中大部分体现着互联网最黑暗的角落,涉及性虐、自杀、酷刑等内容。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图3)

  一位数据标注员在阅读无法接受的有害内容后,开始反复出现幻觉。

  工作的重负,并没有换来待遇的优越。

  《时代周刊》调查发现,为 OpenAI 工作的 Sama 数据标注员,工资约为每小时 1.32 美元至 2 美元。他们每 9 小时轮班,阅读和标注 150 至 250 段文字,每段从 100 个单词到 1000 多个单词不等。

  但是 Sama 回应,工人每 9 小时轮班标注 70 段文字,而不是最多 250 段,税后每小时的收入在 1.46 美元到 3.74 美元之间。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图4)

  Sama 还自称是一家「有道德的 AI 公司」,帮助 5 万多人摆脱了贫困。

  如果有道德是指帮助脱贫,那或许没有错,毕竟这些生活困苦的工人没有更多的选择。

  但是「副作用」如影随形,身心折磨成了必要的代价。

  因为 Sama 对员工工作效率要求极高,公司很少组织心理辅导活动,更何况这些活动本身也没有什么用处。有员工曾提出想要一对一的咨询,但被 Sama 管理层一再拒绝。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图5)

  OpenAI 也回复了外媒 Quartz,他们支付的费用几乎是东非其他内容审核公司的两倍,并给员工提供福利和养老金。

  尽管各方说法不一,但是基本的事实没有出入。

  为了让 AI 更安全,为了让 OpenAI 的通用 AI 造福人类,海量工人付出了巨大的精力,甚至遭受了创伤。但是当 OpenAI 估值近 300 亿美元,他们始终籍籍无名。

  末端的毛细血管

  数据标注员并不是一个新鲜的工种。

  早在 2007 年,计算机视觉专家李飞飞雇佣了一群普林斯顿的本科生,以 10 美元/小时的价格让他们试验做数据标注。

  如今,数据标注早已发展成产业,但待遇明显下降,主角也不再是大学生。

  2019 年前后,有媒体报道过国内的数据标注员,他们散落在河南、山东、河北等地的四五线小城。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图6)

  类似地,Sama 的总部位于旧金山,在肯尼亚、乌干达和印度雇佣员工。除了 OpenAI,它还为 Google、Meta 和微软等硅谷客户标注数据。

  然而在近两年,Sama 打定主意「金盆洗手」。

  2022 年 2 月,Sama 决定结束与 OpenAI 的合作,员工不再需要忍受痛苦,但生计也难以维持,「对我们来说,这是养家糊口的一种方式」。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图7)

  今年 1 月,Sama 的态度更加决绝,打算退出所有自然语言处理和内容审核工作,只做计算机视觉数据标注,与所有涉及敏感内容的业务分道扬镳,包括终止与 Meta 在东非的合同。

  为 Meta 工作的 Sama 员工在非洲内罗毕办事处,专注审核本地生产的内容,斩首、虐待儿童等内容超出了他们的接受程度。一位员工将审核图片内容描述为「生活在恐怖电影中」。

  有需求就有市场,从来不缺这样的外包公司。

  总部位于卢森堡的外包公司 Majorel,在非洲负责 TikTok 的审核服务,有报道称将由它接手 Meta 的工作。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图8)

  这家公司也曾为人诟病。2022 年 8 月,Insider 调查了摩洛哥 Majorel 的状况,发现工人们经常轮班工作超过 12 小时,标注涉及虐待动物、性暴力等的短视频,休息时间少于美国同行,公司的「健康顾问」又帮不上什么忙。

  作为科技产业链末端的毛细血管,数据标注还出现在更多的地方。

  2022 年 11 月,The Verge 报道,亚马逊在印度和哥斯达黎加聘请了工人,他们负责观看仓库摄像机数以千计的视频,从而改进亚马逊的计算机视觉系统。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图9)

  但是因为至少八小时的目不转睛,他们出现了头痛、眼痛和视力下降。

  自动驾驶汽车同样需要数据标注,才能学习怎么识别路牌、车辆、行人、树木和垃圾桶,它对标注的准确性要求还要更高,因为这可能直接决定了人的生死。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图10)

  《麻省理工科技评论》2022 年 4 月的一项调查发现,包括特斯拉在内的自动驾驶公司,让委内瑞拉工人标注自动驾驶数据,工资仅有平均每小时 90 美分多一点。

  至少目前,数据库依然需要人类净化,AI 识图仍然需要人类拉框。而问题在于,和付出的精力相比,工人们的待遇和心理健康并不那么理想。

  那些越来越边缘的人

  自 ChatGPT 横空出世,不少人担心起了自己的饭碗,这可能是一种非常具体的危机感。

  与此同时,AI 和人类的关系,也在另一个维度发生了微妙的变化——它改变了人类的工作方式,以及存在的工作类型,让海量的劳动力隐居幕后。

  比如数据标注员,他们的工作门槛并不高,往往没有硬性的学历要求,经过几天培训就能上岗。知道要标注的是什么、标在哪里,基本就算入门了,剩下的时间留给熟能生巧。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图11)

  他们往往也不是正式员工,而是外包形式,就像为 OpenAI 服务的肯尼亚工人。

  这意味着,他们身处一个更加不稳定的世界,待遇更低,地位更加边缘,职场发言权也更少,只是亦步亦趋而已。AI 的进展究竟如何,他们或许并不知道。

  2018 年,GQ 报道在《那些给人工智能打工的人》提到:「我们没有研发能力,纯粹也就是一个(代工的)富士康。」

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图12)

  卢德运动.

  相似的情形曾在历史上演。在 19 世纪初的英国,自动化纺织机普及开来,工厂更希望雇佣廉价的无技术劳动力操作机器,导致许多技术娴熟的手工工人失业。

  时代的车轮在继续前行,为 AI 服务的数据标注员,也在被 AI 慢慢替代。

  2022 年 6 月,特斯拉计划解雇 200 名美国员工,他们负责标注视频,帮助改进驾驶员辅助系统。原因可能在于,近年来特斯拉的自动化数据标注有了进展,可以代替人力完成部分工作。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图13)

  特斯拉 Autopilot 软件总监曾在 AI Day 上表示,公司能在一周内收集并自动标注 1 万个 45 到 60 秒的视频片段。相比之下,「人工标记每个片段可能需要几个月的时间」。

  2020 年,世界经济论坛预言,到 2025 年,8500 万个工作岗位将被机器取代,9700 万个新工作岗位又将诞生。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图14)

  被他们看好的职位,基本都是人工智能和机器学习专家、数字化转型专家、信息安全分析师这类技术人才。

  与之相对的低收入、低技术职业,则在一步步地退出舞台,最终可能消失在机器的阴影之中。

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图15)

  ChatGPT 爆火背后,那些帮它「洗白」的人|工人|数据|计算机视觉(图16)

  特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。


您可能还会对下面的文章感兴趣:

登录 注册 退出