科学家为目前没有可靠的方法来检测人工智能生成的文本而叹息
2023-03-22 13:54:46行业资讯
由OpenAI的ChatGPT、Google的Bard和Meta的LLaMa等大型语言模型(LLM)准备的单词沙拉的流行促使学者们寻找检测机器生成文本的方法。
可悲的是,现有的检测方案可能并不比抛硬币好多少,这增加了我们注定要摄入统计组成的副本作为在线内容消费的结果的可能性。
研究人员认为,这些模型现在正被整合到主要科技公司广泛使用的应用程序中——有可能导致不良后果,如复杂的垃圾邮件、操纵性假新闻、不准确的文件摘要和剽窃。
研究人员提出:“我认为我们需要学会接受这样一个事实,即我们可能永远无法可靠地说出一篇文章是由人类还是人工智能写的。相反,我们可能可以通过其他信息验证文本的‘来源’。例如,许多社交平台开始广泛验证账户。这可能会使人工智能产生的虚假信息更难传播。”
相关资讯
- OpenAI 推出语音模型全家桶 03-22
- 目前国际上有哪些好用的AI代码编辑器? 03-20
- 教育部部署加强中小学人工智能教育 12-09
- 比特币的价格已突破10万美元 12-07
- 美国当选总统唐纳德·特朗普提名前参议员戴维·珀杜出任美国驻华大使 12-06
- 恭喜中国春节申遗成功 12-05
- Sam Altman表示,明年他最兴奋的事情是实现AGI 11-12
- 借助 AI 之力:不懂编程也能制作游戏 11-12