据《时代周刊》报道,Sama的一名发言人在一份声明中称,公司对工人的要求是在9小时的工作中标注70段文字,而非200段。此外,工人们的税后时薪是1.46美元~3.74美元,不过这位发言人拒绝透露哪类岗位会达到其所述时薪区间的上限。 OpenAI的一位发言人则在另一份声明中称,该公司没有发布任何的业绩目标,且外包员工的工资和心理健康由Sama的管理层负责。 2022年2月,Sama开始为OpenAI的另一个项目进行试点工作,但工作内容根据美国的法律是非法的。尽管这项试点工作似乎与ChatGPT无关,但仅仅在几周之内,Sama便叫停了与OpenAI的所有项目,比合同中约定的时间提前了8个月。 Sama当时在一份声明中称,其为OpenAI收集的图像协议中不包括任何涉及非法的内容,直到相关工作开始后,OpenAI才发来“附加指示”,提到了“一些非法的类别”,随后肯尼亚团队的高管立即提出了担忧并结束了该项目。 OpenAI外包服务商Sama曾向多家硅谷大厂提供类似服务 训练ChatGPT对OpenAI来说至关重要。 ChatGPT的前身GPT-3已经展示了非常强大的语句串联的能力。然而,当时的GPT-3却存在很多弊端,例如内容容易出现暴力、性别歧视等言论。之所以会出现这样的不足之处,是因为AI工具从互联网抓取了数千亿个单词来训练,这也是一把双刃剑——由于互联网的词汇有不少带有偏见及负面的词汇,因此单纯凭借学习能力无法来清除这些训练数据。 《时代周刊》的报道显示,即使是一个由数百人组成的团体,也需要几十年的时间才能手动搜索庞大的数据库。OpenAI只能通过建立一个额外的、AI驱动的安全机制,才能控制上述弊端,创造出适合人们日常使用的聊天机器人。
《时代周刊》报道截图 据报道,为了建立这个安全系统,OpenAI借鉴了Facebook(现Meta)等社交媒体公司的做法。此前,Facebook已经证明其可以构建能够检测仇恨言论等的AI工具,并将这些内容从其平台上移除。这项工作也很简单:给AI提供标有暴力、仇恨语言等标签,AI工具就可以学会检测这些内容。目前类似的工具已经内置到ChatGPT当中,以检测它是否与训练数据的内容相呼应,并在它触及到用户之前将不良内容过滤掉。 《时代周刊》报道称,为了获得这些有害内容的标签,OpenAI从2021年11月开始便向一家外包公司发送了数万条文本片段。其中大部分文字似乎都是从互联网“最黑暗的角落”挖掘出来的。 据报道,OpenAI发言人曾在一份声明中证实,Sama在肯尼亚的员工为该公司正在开发的监测有害内容的工具作出了贡献,该工具最终被内置到ChatGPT中。 除了OpenAI,Sama还为谷歌、Mate和微软等硅谷科技巨头标注数据。此外,Sama还标榜其是一家“有道德的人工智能公司”,并称其已经帮助5万多人脱贫。 人工智能组织联盟Partnership on AI表示,“尽管这些丰富数据的专业人士发挥了基础作用,但越来越多的研究表明,这些工人都面临着不稳定的工作条件。这可能是庆祝技术效率提升的同时,试图掩盖人工智能对庞大劳动力依赖的结果。” |