具有讽刺意味的是,苹果成为最新一家禁止内部使用ChatGPT和类似产品的公司,就像OpenAI聊天机器人以移动应用的形式进入iOS一样。
据苹果内部文件,苹果的担忧与其他公司的担忧一致,这些公司也禁止在内部使用ChatGPT,即人工智能可能会泄露与其共享的敏感内部信息。
据报道,苹果也禁止了GitHub的自动编码工具Copilot。关于苹果人工智能计划的传言已经流传了一段时间,该公司可能正在开发自己的LLM,以与ChatGPT和Google Bard竞争。
苹果并不是唯一一家决定禁止使用微软支持的聊天机器人的公司:它加入了亚马逊等越来越多的公司和摩根大通、美国银行、花旗集团、德意志银行等多家银行的行列。
苹果的竞争对手三星也因事故两次禁止ChatGPT在内部使用。三星在3月份解除了员工使用ChatGPT的禁令,但在不到一个月的时间里,韩国媒体披露,三星员工曾请求ChatGPT帮助解决源代码错误,修复用于收集测量和产出数据的软件,并将会议记录转换为会议纪要。
本月早些时候,三星重新实施了ChatGPT禁令,以防止类似事件再次发生。
ChatGPT、Google Bard和LLM机器人的问题在于,输入它们的数据往往被用来进一步训练这些机器人,英国间谍机构GCHQ警告称,如果其他人提出类似的问题,这很容易导致机密商业信息被返还。
像OpenAI和谷歌这样的机器人提供商也可以看到查询,他们自己可能会审查提供给他们的语言模型的内容,进一步冒着被严密保护的企业机密曝光的风险。
有随时泄露公司重要信息的风险
除了机器人在试图帮助他人时分享机密信息的风险之外,还有一种可能性,即像OpenAI这样的公司根本没有编写最好的软件。
今年3月,OpenAI承认,开源库redis-py中的一个漏洞导致其他用户可以看到人们在ChatGPT上的一些小片段。卡巴斯基Vlad Tushkanov首席数据分析师告诉我们,这个漏洞应该提醒我们,LLM聊天机器人不会为用户提供任何真正的隐私。
ChatGPT在登录时警告说,‘对话可能会被我们的人工智能培训师’…审查,所以从一开始,用户在使用ChatGPT网络演示时就应该对隐私没有任何期望。
OpenAI上个月为ChatGPT用户添加了禁用聊天历史的功能,这不仅可以在ChatGPT界面的侧边栏中隐藏聊天,还可以防止禁用历史的聊天被用来训练OpenAI的模型。
OpenAI表示,当历史记录被禁用时,它仍将保留30天的对话,并将有能力在需要时对其进行审查,以监控滥用情况,然后永久删除。
在同一份声明中,OpenAI还表示将很快推出ChatGPT的商业版本,为企业提供更多对数据使用的控制。
OpenAI表示,这意味着ChatGPT商业对话将不会用于培训其LLM。
- 首部AI编剧浪漫喜剧《AI Love You》将于今年夏天上映 04-17
- 特斯拉裁员 10%:电动汽车巨头的战略调整 04-15
- 苹果调整维修政策,但不包括这些零部件 04-15
- OpenAI震撼发布 GPT-4 Turbo 强势赋能 ChatGPT,革新智能对话新纪元 04-15
- ChatGPT AI聊天机器人零门槛体验:无需账号即可畅聊 04-11
- Copilot 正在逐步将更多人工智能功能融入您的 Teams 通话和聊天中 04-11
- OpenAI 仅需其人工智能 15 秒的音频即可克隆一个声音 04-11
- 苹果打造ReALM语言模型挑战ChatGPT,有望大幅提升Siri智能水平 04-11