cha

被英国情报机构警告了!ChatGPT 或是一个新的安全威胁

  被英国情报机构警告了!ChatGPT 或是一个新的安全威胁(图1)财联社 3 月 14 日讯(编辑 周子意)英国情报机构——英国政府通讯总部(GCHQ)周二(14 日)警告称,ChatGPT 和其他人工智能聊天机器人将是一个新的安全威胁。

  GCHQ 是一个国家安全机关,负责通讯侦察、邮件检查的情报机构,它与英国著名的军情五处(MI5)和六处(MI6)统称为英国情报机构的 " 三叉戟 "。

  初创公司 OpenAI 于去年年底推出 ChatGPT,此后,其投资商微软于今年 2 月推出了基于 ChatGPT 技术开发的聊天机器人 " 必应聊天(Bing Chat)"。由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。

  GCHQ 的网络安全部门指出,提供(AI 聊天机器人)的公司可以看到用户输入的查询内容,就 ChatGPT 而言,其开发商 OpenAI 就能够看到这些。

  此外,英国国家网络安全中心(NCSC)在周二发布的一份咨询报告中也写道,OpenAI、微软等公司 " 能够读取 " 用户在人工智能聊天机器人中输入的查询内容。

  NCSC 警告,办公室职员在尝试新颖的聊天机器人技术时,很可能会通过他们的搜索查询泄露出敏感的信息。

  需要监控使用

  GCHQ 的网络安全专家在谈到人工智能聊天机器人背后的大型语言模型(LLM)技术时表示," 用户的这些查询内容将会被存储起来,并且几乎肯定会在未来某个时候被用于开发 LLM 服务或模型。"

  这就意味着,LLM 提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。

  微软今年 2 月披露,其员工正在阅读用户与必应聊天的对话,监控对话以发现 " 不当行为 "。

  网络安全公司 Sectigo 的高级安全经理 Immanuel Chavoya 表示," 尽管 LLM 运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。"

  " 因此,企业需要确保他们有严格的政策,提供技术性支持,来监控 LLM 的使用,以最大限度地降低数据暴露的风险。"

  公司警惕心加重

  世界各地的公司对聊天机器人技术越来越警惕。

  伦敦金融城律师事务所 Mishcon de Reya 禁止其律师将客户数据输入 ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。

  国际咨询公司埃森哲警告其全球 70 万名员工,出于类似的原因,不要使用 ChatGPT,因为担心客户的机密数据最终会落入他人之手。

  英国电脑芯片公司 Arm 的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入 " 公司人员的身份信息或机密数据 "。


您可能还会对下面的文章感兴趣:

登录 注册 退出