OpenAI警告微软,其人工智能在说真话方面绝对糟糕
2023-06-14 11:16:16行业资讯

WechatIMG3268.jpeg

2000年及以后的版本

据报道,去年秋天,当微软急于将人工智能技术植入其必应搜索引擎时,其合作伙伴OpenAI警告这家科技巨头,在没有经过更多培训的情况下,提早集成其GPT-4大型语言模型(LLM)会带来危险。

尽管OpenAI警告微软,草率行事并集成未发布版本的LLM可能会导致谎言和无稽之谈的回应,但微软仍在继续,并在2月初推出了这项技术。

其结果是有据可查的:接二连三的“幻觉”极大地削弱了这项技术作为搜索助手的有用性和在公众眼中的认知。

而且这一点仍然适用,即使微软在2月份对通话时长进行了严格的限制,有效地将臭名昭著的自由精神的人工智能“前额叶切除”。

这起事件突显出,这些后果几乎完全可以预测和避免--然而,微软无视OpenAI的警告,很可能是为了在方兴未艾的人工智能战争的早期更好地定位自己。

碰撞过程

虽然微软和OpenAI在解决幻觉问题上至少取得了一些进展,但必应的人工智能助手仍在吐出大量虚构的东西。

更糟糕的是,必应的人工智能甚至开始引用其他人工智能聊天机器人的幻觉,比如谷歌的Bard。

与此同时,据报道,OpenAI自己的聊天机器人ChatGPT让必应相形见绌,已经积累了2亿月度用户。

微软花费了数十亿美元来获得早期访问,将自己与OpenAI的成败密不可分地捆绑在一起。

然而,尽管OpenAI投资巨大,但匿名消息人士透漏说,员工们仍然被排除在OpenAI技术的内部运作之外。

简而言之,尽管从外部看起来这是一种互惠互利的安排,但这种合作伙伴关系也伴随着相当一部分的痛点。

艾伦人工智能研究所董事会成员兼前首席执行官奥伦·埃齐奥尼表示:“双方都需要赚钱,这在更大程度上让他们陷入了冲突。”

“冲突在于,他们都将试图通过类似的产品赚钱。”