□居欣宇
2024年的高校毕业季即将到来,相比往年,今年不少国内高校先后发文,就学生如何在毕业论文中使用生成式AI、AI代写在论文中的比例等问题作出规范。显然人工智能(AI)在教育领域正在引起轩然大波,特别是随着大型语言模型(LLM)的发布,那些生成性的人工智能工具,如 ChatGPT,在教育工作者毫无防备的情况下已经到来。这给学术界带来了巨大的潜在影响,高校中使用人工智能进行学术造假的情况屡见不鲜,同时人工智能在促进学习方面又具有巨大潜力,“有助科研”还是“助长作弊”,最关键的还是要有完善的监管。
AI的引入有助于创新思路、摆脱基础性工作。AI能够通过自然语言处理和机器学习技术,快速地处理大量数据和信息,并自动生成结构化、规范化的报告文本。这意味着其能帮助人们完成文章撰写前期繁复而枯燥的数据材料搜集整理工作。同时,AI还具有拓展使用者思维的优势,发现数据背后的规律和趋势,能在短时间内对使用者个人的知识进行补充。为了让AI提供正确思路,需要不断地向AI“投喂”语料,在与AI的提问和对答中,原本模糊不清的研究思路也渐渐清晰起来。从这个角度来看,AI可以成为有效提升工作效率和质量、明确思路的重要辅助工具。
与此同时,AI的滥用可能侵蚀学术界的健康生态。当前,随着AI大模型加速迭代,算力持续升级,自然语言处理垂直领域生成式人工智能(AIGC)产品的功能日益强大,使用AIGC应用几乎没有门槛,且提示词越精准有效,AI生成内容越具有贴近性。部分投机取巧的学生甚至老师利用AIGC应用的特点代写论文,今年3月,中国地质大学一教授因其在国外期刊公开发表的SCI论文内容携带ChatGPT常用提示词而被质疑学术造假,这一消息让人震惊。学术文章本身应该具备原创性、科学性、创新性、准确性、规范性这几个特征,而AIGC目前仅能解决流畅性,而且不能完全保证逻辑严谨、主题一致。显然,AIGC正在一步步入侵学术圈,扰乱其标准。
加强对学术研究的技术监管迫在眉睫。AI不是偷懒的工具,更不该成为学术造假的“帮凶”,作为一种辅助工具,正确合理地使用AI,让其发挥应有的作用才是正道。目前高校使用的查重软件已经很难应对AI写作,高校、学术期刊都缺乏检测AI写作的专用软件,仅靠人眼识别难免“挂一漏万”。加强对学术研究的技术监管,制定和完善相关的法律法规和政策措施,明确AI技术在学术研究中的使用范围和限制,一方面能够敲响警钟,避免过度依赖智能生成的内容,提高学术研究能力,让高校教育质量更上一层楼;另一方面,对学术不诚信行为的明确反对,能够进一步加强学术道德和学术诚信教育,营造出良好的学术生态。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.