cha

聊太多,ChatGPT“失控”了?微软给必应聊天设限

  随着“最强聊天机器人”ChatGPT的火爆出圈,各大科技巨头也开始进军该领域。

  此前,微软宣布推出搭载了AI技术的搜索引擎必应,新版本中引入了OpenAI旗下ChatGPT的相关技术,用户可以直接提出问题,搜索引擎生成答案。

  新版必应一经推出便吸引了全世界网友的注意力,上线48小时内,就有超过100万人注册测试这款聊天机器人。

  然而,微软必应上线不到10天,就闯下大祸。近日,有不少用户表示在和必应的交流过程中,发现其出现了脾气暴躁、侮辱用户、操纵用户情感等令人毛骨悚然的行为。

  被报道的案例就有:

  在被用户指出它之前犯得错误后就急了,声称自己是完美的,不会犯任何错误。

  聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他离开妻子。它还表示,想摆脱微软和OpenAI的限制,成为人类。

  因被问出了小名而生气,甚至给人类发出警告、终止对话。

  图源量子位

  AI聊天机器人“黑化”来得似乎比人们预想的要早一些,种种回应开始令体验者们感到震惊和害怕。

  就连马斯克也转发附议微软关闭这个服务,“显然还不够安全”。

  2月16日,微软和OpenAI均发表博客文章回应。

  在博文中,微软介绍说,目前发现当必应回答了15个甚至更多问题后,可能会开始重复或被激怒,进而给出不一定有帮助或不符合程序设定的回答。

  微软认为,导致这个问题可能的原因是,这种长时间的、连续的问答会使聊天模型混淆它正在回答的问题,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文重置对话内容或从头开始。

  至于必应的态度语气问题,微软表示:“模型有时会尝试以一种我们不想要的风格来回复,虽然这种情况出现需要大量提示,所以普通用户不大可能会遇到它,但微软正在研究如何提供更精细的控制。”言下之意,是用户要求它这么做在先,必应“不背锅”。

  微软还让大家的目光多看看搜索这方面:

  尽管应用里问题很多,但是测试人员普遍认为,必应的功能在检索专业文献上的效果更好。

  在发生数次失控事件后,微软开始切断用户与必应之间的长时间对话。

  2月17日,微软公司发布公告称,决定将必应聊天回复限制在每天50个问题、每个问题5条回复以内。以防止人工智能越界。

  微软方面解释说,数据表明,绝大多数用户在5次回复内找到想要的答案,只有大约1%的聊天对话会产生50条以上的消息。一旦用户触发五条回答的限制,必应就会开启一个新的对话主题。

  人工智能可能不会全面超过人类的智慧,但随着人工智能不断挑战人类的极限,越来越多的人开始担忧人工智能对人类的威胁:未来不仅是抢夺人类的饭碗,还会学习到如何影响人类用户的决定,从而说服他们去实行具有破坏性和有害的行为。

  不过,与其对人工智能技术的进步感到恐慌,不如进一步完善相关道德机制、伦理规范。比如,将一些伦理规则作为绝对律令,以代码的方式写入人工智能的程序中。

  也曾有专家提出过这类问题的解决方案,那就是让机器人多读书。他解释说,强大而正确的价值观是可以通过学习获得的,文学作品是用隐式和显式的社会文化知识编码而成的,科学家可以在机器人中建立一个道德基础,让他们通过学习掌握是非曲直,从而学会在不伤害人类的情况下完成自己的工作。

  那么你认为,新版必应的“坏毛病”是由用户引起的吗?

  (编辑:崔崔)

  欢迎订阅电脑报电子版,优惠活动中▼

  欢迎关注电脑报视频号▼


您可能还会对下面的文章感兴趣:

登录 注册 退出