科学家为目前没有可靠的方法来检测人工智能生成的文本而叹息
2023-03-22 13:54:46行业资讯
由OpenAI的ChatGPT、Google的Bard和Meta的LLaMa等大型语言模型(LLM)准备的单词沙拉的流行促使学者们寻找检测机器生成文本的方法。
可悲的是,现有的检测方案可能并不比抛硬币好多少,这增加了我们注定要摄入统计组成的副本作为在线内容消费的结果的可能性。
研究人员认为,这些模型现在正被整合到主要科技公司广泛使用的应用程序中——有可能导致不良后果,如复杂的垃圾邮件、操纵性假新闻、不准确的文件摘要和剽窃。
研究人员提出:“我认为我们需要学会接受这样一个事实,即我们可能永远无法可靠地说出一篇文章是由人类还是人工智能写的。相反,我们可能可以通过其他信息验证文本的‘来源’。例如,许多社交平台开始广泛验证账户。这可能会使人工智能产生的虚假信息更难传播。”
相关资讯
- 搜索引擎并不总是帮助聊天机器人生成准确的答案 06-08
- “憨豆先生”因讨厌电动汽车而受到抨击 06-08
- 富士康欣喜若狂,你们都在疯狂地追逐人工智能服务器 06-01
- 詹姆斯·卡梅隆受实际人工智能崛起的启发,正在拍摄新的《终结者》剧本 05-31
- 福特的L3级驾驶员辅助功能在短期内不能处理繁忙的城市街道 05-31
- 比尔·盖茨称人工智能将摧毁搜索引擎和亚马逊 05-24
- 人工智能擅长一件事:推动下一波裁员 05-24
- 苹果成为最新一家禁止ChatGPT内部使用的公司 05-24