顶级AI会议禁止使用ChatGPT和AI语言工具写学术论文
2023-01-06 15:36:36行业资讯


WechatIMG2831.jpeg

全球最负盛名的机器学习会议之一禁止作者使用ChatGPT等人工智能工具撰写科学论文,引发了关于人工智能生成文本在学术界作用的争论。

国际机器学习会议(ICML)本周早些时候宣布了这项政策,指出:"包含从ChatGPT等大规模语言模型(LLM)生成的文本的论文是被禁止的,除非生成的文本是作为论文实验分析的一部分呈现的。"这一消息引发了广泛讨论在社交媒体上,人工智能学者和研究人员都在为这一政策辩护和批评。

AI写作工具只是助手还是其他什么?

国际机器学习会议会议组织者表示,他们并不禁止使用ChatGPT等工具“编辑或润色作者撰写的文本”,并指出许多作者已经为此使用了语法校正软件Grammarly等“半自动编辑工具”。

“可以肯定的是,随着时间的推移,这些问题以及更多的问题将得到回答,因为这些大规模的生成模型将得到更广泛的采用。然而,我们还没有任何明确的答案,因此,ICML表示,明年将重新评估其对人工智能生成文本的禁令。

人工智能语言模型是自动完成的工具,没有内在的真实感

在当前情况下,对于人工智能生成文本的有害影响都有不同的担忧。最常见的一个问题是这些系统的输出根本不可靠。这些人工智能工具是庞大的自动补全系统,经过训练可以预测任何给定句子中下一个单词后面的单词。因此,他们没有硬编码的“事实”数据库可供借鉴-- 只有写听起来似是而非的陈述的能力。这意味着他们倾向于把错误的信息当作真理来呈现,因为一个给定的句子听起来是否可信并不能保证它的真实性。

就ICML对人工智能生成文本的禁令而言,另一个潜在挑战是区分仅由人工智能“润色”或“编辑”的文字和完全由这些工具“生成”的文字。在什么情况下,一些小的人工智能引导的修改构成了一个更大的重写?如果用户要求人工智能工具用简洁的摘要来总结他们的论文会怎么样?这算不算新生成的文本(因为文本是新的)或仅仅是润色(因为它是作者写的单词的摘要)?

在ICML明确其政策范围之前,许多研究人员担心,对人工智能生成文本的潜在禁令也可能对那些不把英语作为第一语言的人有害。以色列巴尔伊兰大学的约夫·戈德堡教授告诉《边缘》杂志,全面禁止使用人工智能写作工具将是对这些社区的一种把关行为。

戈德堡说:“在同行评议中,人们在评价论文时有一种明显的无意识偏见,倾向于更流畅的论文,而这对以英语为母语的人有利。”“通过使用ChatGPT这样的工具来帮助表达他们的想法,似乎许多非母语人士相信他们可以围绕这些问题”公平竞争“。”戈德堡说,这样的工具可能有助于研究人员保存时间,以及更好地与同行沟通。

但人工智能写作工具也与Grammarly这样的简单软件有着质的不同。Mozilla基金会人工智能研究员Deb Raji告诉The Verge,ICML引入专门针对这些系统的政策是有意义的。和戈德堡一样,她说她从非英语母语的人那里听说,这些工具对起草论文“非常有用”,并补充说语言模型有可能对文本进行更剧烈的修改。

Raji说:“我认为法学硕士与自动纠错或语法学完全不同,后者是纠错和教育工具。”尽管LLM可以用于此目的,但它并没有明确设计为调整已编写文本的结构和语言--它还具有其他更有问题的功能,如生成新文本和垃圾邮件。

撰写论文与整个职业生涯都息息相关

戈德堡说,虽然他认为学术界完全使用人工智能来撰写论文肯定是可能的,但“他们实际上几乎没有动力这样做,即使假论文以某种方式通过了同行评议,任何不正确的表述都会与作者联系在一起,与他们的整个职业生涯都息息相关。”

这一点特别重要,因为没有完全可靠的方法来检测人工智能生成的文本。甚至ICML也指出,万无一失的检测是特别困难的,会议不会通过检测器软件运行提交来主动执行其禁令。相反,它只会调查那些被其他学者标记为可疑的提交材料。

换句话说:为了应对颠覆性和新技术的兴起,组织者正在依靠传统的社会机制来执行学术规范。人工智能可以用来润色、编辑或书写文本,但它的价值仍将由人类来评估。


着陆云关注技术与创新,为企业提供建站相关服务,业务咨询请联系4006310887。[zhuoluyun.com]