ChatGPT 非常擅长伪造人造创意内容,尽管真正的专业人士发现聊天机器人作为作家非常多余。然而,在科学写作方面,聊天机器人可以从简单的滋扰或学校作弊工具转变为对科学和适当研究实践的实际威胁。
堪萨斯大学科学家新发表的研究为基于人工智能的抄袭问题提出了一个潜在的解决方案,拥有非常出色的能力,可以将实际的人造科学写作与ChatGPT输出区分开来,“准确率超过99%。结果显然是通过人工智能算法和专门训练的语言模型实现的。
化学教授希瑟·德赛尔(Heather Desaire)及其同事正在用人工智能对抗人工智能,他们似乎在这方面取得了非常好的结果:研究人员将精力集中在“观点”文章上,这是一种发表在科学杂志上的特定风格的文章,以提供特定研究主题的概述。
科学家们选择了64篇观点文章,主题从生物学到物理学,然后他们要求ChatGPT在同一项研究上生成新的段落,将128篇“假”文章放在一起。人工智能吐出1,276个段落,然后用于训练研究人员选择的语言模型,以尝试对AI制作的文本进行分类。
另外两个数据集,一个包含 30 篇真实观点文章,另一个包含 ChatGPT 生成的 60 篇论文,以测试新训练的算法。该算法似乎通过了研究人员准备的测试:人工智能分类器能够在 100% 的时间内检测 ChatGPT 文章,而检测单个虚假段落的准确率降至 92%。
科学家们说,聊天机器人通过使用特定的“写作”风格来破坏文本内容,因此,它们的“手”可以以一种非常有效的方式被识别。人类科学家往往拥有更丰富的词汇量,并写出包含更多样化单词和标点符号的较长段落。此外,ChatGPT并不以其精度水平而闻名,它倾向于避免提供具体数字或引用其他科学家的名字。
堪萨斯州的研究人员将他们反对人工智能抄袭的方法定义为“概念验证”研究,尽管它已被证明在识别虚假观点文章方面非常有效。需要进一步的(人造)研究来确定相同的方法是否可以应用于其他类型的科学论文或一般人工智能制作的文本输出。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.