苹果成为最新一家禁止ChatGPT内部使用的公司
2023-05-24 17:18:07行业资讯

apple-inc-g3d273475b_1280.jpg

具有讽刺意味的是,苹果成为最新一家禁止内部使用ChatGPT和类似产品的公司,就像OpenAI聊天机器人以移动应用的形式进入iOS一样。

据苹果内部文件,苹果的担忧与其他公司的担忧一致,这些公司也禁止在内部使用ChatGPT,即人工智能可能会泄露与其共享的敏感内部信息。

据报道,苹果也禁止了GitHub的自动编码工具Copilot。关于苹果人工智能计划的传言已经流传了一段时间,该公司可能正在开发自己的LLM,以与ChatGPT和Google Bard竞争。

苹果并不是唯一一家决定禁止使用微软支持的聊天机器人的公司:它加入了亚马逊等越来越多的公司和摩根大通、美国银行、花旗集团、德意志银行等多家银行的行列。

苹果的竞争对手三星也因事故两次禁止ChatGPT在内部使用。三星在3月份解除了员工使用ChatGPT的禁令,但在不到一个月的时间里,韩国媒体披露,三星员工曾请求ChatGPT帮助解决源代码错误,修复用于收集测量和产出数据的软件,并将会议记录转换为会议纪要。

本月早些时候,三星重新实施了ChatGPT禁令,以防止类似事件再次发生。

ChatGPT、Google Bard和LLM机器人的问题在于,输入它们的数据往往被用来进一步训练这些机器人,英国间谍机构GCHQ警告称,如果其他人提出类似的问题,这很容易导致机密商业信息被返还。

像OpenAI和谷歌这样的机器人提供商也可以看到查询,他们自己可能会审查提供给他们的语言模型的内容,进一步冒着被严密保护的企业机密曝光的风险。


有随时泄露公司重要信息的风险


除了机器人在试图帮助他人时分享机密信息的风险之外,还有一种可能性,即像OpenAI这样的公司根本没有编写最好的软件。

今年3月,OpenAI承认,开源库redis-py中的一个漏洞导致其他用户可以看到人们在ChatGPT上的一些小片段。卡巴斯基Vlad Tushkanov首席数据分析师告诉我们,这个漏洞应该提醒我们,LLM聊天机器人不会为用户提供任何真正的隐私。

ChatGPT在登录时警告说,‘对话可能会被我们的人工智能培训师’…审查,所以从一开始,用户在使用ChatGPT网络演示时就应该对隐私没有任何期望。

OpenAI上个月为ChatGPT用户添加了禁用聊天历史的功能,这不仅可以在ChatGPT界面的侧边栏中隐藏聊天,还可以防止禁用历史的聊天被用来训练OpenAI的模型。

OpenAI表示,当历史记录被禁用时,它仍将保留30天的对话,并将有能力在需要时对其进行审查,以监控滥用情况,然后永久删除。

在同一份声明中,OpenAI还表示将很快推出ChatGPT的商业版本,为企业提供更多对数据使用的控制。

OpenAI表示,这意味着ChatGPT商业对话将不会用于培训其LLM。