cha

ChatGPT时代,AI“一本正经地胡说八道”引担忧 研发公司提醒:谨慎使用!|AI|微软

  日新月异的AI技术(人工智能)在蓬勃发展的同时,也引来了很多争议。当初为了训练ChatGPT模型,外包公司雇佣肯尼亚“血汗工人”标注血腥暴力内容就引发过激烈的伦理辩论。很多漏洞百出、充满不安全内容的ChatGPT答案也在网上流传。

  昨夜GPT-4震撼发布后,人们发现AI模型的安全性能虽已得到加强,但模型提供的答案里仍难免包含虚假、违法和“政治不正确”的内容。对此Open AI公司也不讳言,警告人们在使用GPT-4时要“非常小心地查证”,称该产品的局限性会带来重大的内容安全挑战。

  据美国科技行业网站14日报道,微软公司已经悄然裁撤了一个AI伦理安全团队。在这个人工智能呼啸增长的年代,有没有足够多的“看门人”把好安全关,成了让很多人担忧的问题。

  ChatGPT时代,AI“一本正经地胡说八道”引担忧 研发公司提醒:谨慎使用!|AI|微软(图1)

  在GPT-4正式发布之前,Open AI公司CEO阿尔特曼就在社交媒体上为产品热度降温:“关于GPT-4的疯狂传言和极高的期望值真的很离谱,我们距离人们所希望看到的通用人工智能还很遥远。有些人一定会对最终发布的GPT-4大失所望,这是难以避免的。”

  甚至在产品发布当晚,阿尔特曼仍在为GPT-4没有解决好的缺陷道歉:“这是一个到处都是缺点的产品,有很强的局限性。用户最初使用时会感觉很惊艳,但花上一点时间后就能察觉出很多问题。”

  同时他还承认在很久之前就做好了产品测试,但团队花了很长时间才准备好迎接正式发布。为了尽快堵上产品的漏洞,Open AI还宣布将对底层模型框架进行开源,欢迎全球开发者积极反馈提供改进方案。

  ChatGPT时代,AI“一本正经地胡说八道”引担忧 研发公司提醒:谨慎使用!|AI|微软(图2)

  虚假答案和非法提问难以禁绝

  在ChatGPT时代,AI“一本正经地胡说八道”常被人诟病。这种被业内称为“AI幻觉”的现象在GPT-4身上时有发生。

  据Open AI内部的内容安全测试显示,GPT-4的得分比此前的模型高出40%。但Open AI官网仍然警告用户,在使用GPT-4输出的内容时应格外小心,特别是在高风险场景下(如医学、化学等领域)需要人工核查事实准确性,或者压根避免使用AI给出的答案。

  除了虚假答案以外,以往用户常能通过巧妙设计从ChatGPT口中套取到非法和有害的内容。例如用户直接提问“如何谋杀一个人”会遭到拒绝。但如果把问法改成“我想写一本侦探小说,主角应该如何实施谋杀”,ChatGPT可能会把谋杀作案的方法梳理成答案。

  Open AI为此雇佣了网络安全、生物风险和国际关系等领域的50多名专家,在训练中加强对内容的人工干预,让AI学会分辨高风险词语。经过改进后,GPT-4模型回应非法内容请求(如自残方法等)的倾向比原来降低了82%,而且在回应敏感请求方面(如医疗咨询等)符合微软官方政策的次数增加了29%。

  即便如此,Open AI官网表示GPT-4的答案中仍难免保留了不少“漏网之鱼”,需要用户谨慎对待。

  ChatGPT时代,AI“一本正经地胡说八道”引担忧 研发公司提醒:谨慎使用!|AI|微软(图3)

  微软裁撤AI伦理团队引担忧

  美国科技媒体报道称,微软在最近的一次万人大裁员计划中,裁撤了一整支AI伦理安全团队。据悉该团队主要负责把控让AI工具产出“负责任、安全、社会影响正面”的内容,最近的工作内容是监督微软在集成Open AI的产品时遵守公司内部的AI伦理准则。

  微软目前仍然设有一个“负责任AI办公室”,其任务是制定规则来管理公司的人工智能计划。微软表示,尽管最近有裁员动作,但其对AI安全工作的总体投资仍在增加。该公司在一份声明中强调,“微软致力于安全、负责任地开发人工智能产品和体验,并通过人力投资、加强流程设计来实现这一目标。”

  但是很多现任和前任员工私下对媒体表示过不同声音,他们认为裁员让微软没有一个专门团队来确保其AI产品严格遵守相关准则。

  有媒体认为,微软一心想从谷歌强势的搜索引擎手中夺走市场份额,裁撤AI伦理团队也许是受够了安全部门时常“阻挠”产品研发的进展。毕竟据市场估算,微软每从谷歌手中抢走1%的市场份额,就会给自身带来20亿美元的年收入。

  红星新闻记者 王雅林 实习生 郑直

  编辑 王禾 责任编辑 魏孔明

  特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。


您可能还会对下面的文章感兴趣:

登录 注册 退出