cha

泄露用户聊天记录标题,ChatGPT突遭禁用!关闭一天后“残缺版”重新上线

  泄露用户聊天记录标题,ChatGPT突遭禁用!关闭一天后“残缺版”重新上线(图1)

  ↑GPT-4

  泄露用户聊天记录标题

  ChatGPT关闭一天后“残缺版”上线

  据报道,当地时间周一上午,OpenAI暂时关闭ChatGPT服务,理由是公司收到了一个错误报告,称ChatGPT允许一些用户看到其他用户聊天记录的标题。

  OpenAI的一位发言人告诉外媒记者,用户聊天记录的标题通常出现在ChatGPT网页左侧。虽然泄露了标题,但用户具体的对话内容是不可见的。该发言人说,公司发现这一错误后,ChatGPT被暂时禁用。“一个未命名开源软件的一个错误导致了这个问题。公司仍在调查确切的原因。”

  周一晚间,ChatGPT重新上线,但用户的聊天记录仍然丢失。“历史记录暂时不可用。我们正在努力尽快恢复这一功能。”聊天页面显示。在周一晚间的声明中,发言人也说,“ChatGPT现在已经恢复在线,我们正在努力恢复聊天记录。”

  此次意外出现后,许多人不禁开始担忧,如何防止有人对人工智能进行恶意破坏或者入侵?一个小小的安慰是,OpenAI和其他大公司都意识到,这些人工智能可能被人利用,用于发送垃圾邮件、传播错误信息、创建恶意软件、进行有针对性的骚扰。OpenAI首席执行官萨姆·奥特曼此前就曾警告称,他担心政府行动不够迅速,无法围绕人工智能推出限制性政策。

  实际上,ChatGPT推出后,谷歌、苹果、Meta、百度和亚马逊等公司也不甘落后,希望自家的人工智能可以尽快进入市场,并且插入到每一个可能的应用和设备上。例如,ChatGPT已经插入在了Bing搜索引擎中,而且很快就会出现在其他地方,比如车里、手机里、电视上。也许在激烈的市场竞争下,各大公司会将更多注意力放在制定预防性措施上。

  大型语言模型生产成本越来越低

  斯坦福大学不到600美元“复制”了GPT-3.5

  目前看来,ChatGPT等大型语言模型的生产成本会越来越低。斯坦福大学近日的Alpaca模型就是一个很好的例子。在许多任务上,Alpaca的表现与ChatGPT十分相似。据悉,Alpaca建立在一个开源的语言模型上,训练成本不到600美元。

  斯坦福大学的一个研究小组从Meta的开源LLaMA 7B语言模型开始。该小组使用GPT-3.5给LLaMA 7B提供了一套关于如何完成其工作的指令。接下来,他们对产生的Alpaca模型进行了测试,并且将它与ChatGPT在各种领域(包括电子邮件写作、社交媒体和生产力工具)的表现进行对比。在这些测试中,Alpaca赢得了90项,ChatGPT赢得了89项。

  “鉴于模型规模小,数据量不大,我们对这一结果相当惊讶。”该团队写道,“除了利用静态评估集,我们还对Alpaca模型进行了交互式测试,发现Alpaca在不同的输入集上往往表现得与GPT-3.5类似。我们承认,我们的评估在规模和多样性方面可能是有限的。”

  该团队指出,他们还没有对模型进行微调,不能保证其安全无害。“如果我们继续寻求优化的话,可能会更便宜。”

  红星新闻记者 徐缓 实习记者 梁宏

  编辑?郭庄 责任编辑 魏孔明


您可能还会对下面的文章感兴趣:

登录 注册 退出