cha

数据安全有隐患?摩根大通限制员工使用ChatGPT|人工智能|摩根大通|数据安全

  数据安全有隐患?摩根大通限制员工使用ChatGPT

  【数据安全有隐患?#摩根大通限制员工使用ChatGPT# 】自从去年ChatGPT系统问世以来,得益于其强大的功能和高度智能化的表现迅速成为了年度热议话题。甚至微软的创始人比尔?盖茨也多次在接受媒体采访时称:聊天机器人ChatGPT的重要性不亚于互联网的发明。如今已有越来越多的金融机构开始将人工智能系统引入业务运营中,以期优化运营模式、降低成本、提高效率。然而,这种趋势也引发了业界的担忧,因为现阶段的人工智能系统还存在着滥用的风险。近期,就有华尔街知情人士透露,著名金融机构摩根大通集团已经开始限制公司所有员工使用ChatGPT聊天机器人。该知情人士透露,摩根大通目前没有明确指出限制使用的具体原因,但根据现有形势分析,这可能和金融数据的保密有关。有业内人士曾指出,现阶段的人工智能产品还处于初级发展阶段,它可以用于许多服务场景,比如客服、和普通数据处理等,但对于一些专业性偏强的领域,其安全性系数普遍不足。具体而言,现有的人工智能系统比较容易被不法分子用于金融犯罪,例如通过模拟账户的行为,快速搜集大量敏感数据、散布不实信息、制造市场恐慌信息等,对金融机构造成巨大损失。与大型银行和金融机构合作监控内部安全风险的技术公司Behavox的发言人表示:“在过去一个月里,客户针对ChatGPT的使用提出的担忧呈上升趋势,特别是在涉及使用私人或专有数据时。”除了对敏感数据泄露的担忧外,错误信息也是一大风险。ChatGPT并不完美,距离成熟还需要一段时间,经常会给出不准确的答案。另一方面,为了训练AI系统,很多开发者会利用大量的媒体内容对其进行“灌输”,这就导致了一些媒体的独家新闻在未得到授权的情况下被录入AI系统,可能涉及到版权和知识产权等法律问题。最近,一位《华尔街日报》记者向ChatGPT索取了一份新闻来源清单,结果回复中出现了多达20家主流媒体,其中包括《华尔街日报》等较为知名的金融媒体。而不少被收录的信息在媒体端是明确标注了“不得转载使用”的。更有一些证券机构向媒体表示:公司发现有内部分析数据通过不为人知的途径被收录到了一些金融类的人工智能平台,并通过互联网对外界出售。这些违法行为不仅有可能导致个别企业机构遭受损失,更有可能造成整个行业结构出现动摇。对此,已有多家机构表示将追究相关开发者的法律责任,业内人士也纷纷呼吁,应该采取更加严格的管理措施,以防止人工智能系统被滥用。对于金融机构而言,应该更加注重数据安全,加强内部管理,防范不法分子的攻击。只有全社会的共同努力,才能让人工智能技术更好地服务于人类社会,发挥其真正的价值。

  特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。


您可能还会对下面的文章感兴趣:

登录 注册 退出