数百篇论文因隐瞒AI代笔痕迹被揭露,学界诚信面临挑战
AI代笔痕迹在学术圈被广泛发现,影响了数百篇论文的可信度。研究者Glynn和法国图卢兹大学计算科学家Guillaume Cabanac通过调查发现,一些出版商在其已发表论文中隐藏了AI“指正”的信息,未经正式声明或纠正记录直接进行了在线修改,删除了一些涉及学术诚信问题的短语。这种情况被称为“隐性修正”(stealth corrections)。 例如,一篇发表在《毒理学》期刊上的论文中出现了“regenerate response”(重新生成回复)这种提示性的短语,但没有任何公开说明来解释这一情况。Glynn和Cabanac追踪到超过100篇经历了这类“隐蔽”发表后修改的文章,其中部分修改与未公开的AI使用有关。这些修改通常涉及移除或标注AI生成的文本,但并未按要求在正文中标明AI使用的具体位置。 尽管存在明确的政策指导要求对AI使用进行公开声明,但许多研究者未能遵守这些规定。在11篇进行了正式更正的论文中,只有一篇最终符合相关科学期刊关于AI使用的政策。这些期刊包括Nature、Science、The Lancet、JAMA等全球顶尖学术出版物。Cabanac表示:“这种方式削弱了科研成果的公信力和透明度,严重损害了科学精神。” 目前,学术界已经形成了两个基本共识:其一,AI不能被列为作者。这是所有主流科学期刊和出版组织(如国际医学期刊编辑委员会ICMJE、出版伦理委员会COPE等)共同认可的原则。AI无法承担作为作者所必需的责任,不能保证研究成果的原创性、准确性以及完整性。其二,使用AI必须进行明确声明。大多数期刊要求,如果研究者或作者在研究或写作过程中使用了AI工具(尤其是用于文稿生成、图像或代码生成),必须在稿件的特定部分(如方法、致谢或投稿信中)明确说明,指出使用了何种工具及具体用途。 虽然各大期刊已制定相关政策,但在实际执行层面仍存在差异。《Nature》杂志要求使用者在“方法”部分详细说明AI的使用情况,并限制AI生成图像的使用(只有极少数例外)。《Science》杂志允许在说明后,正当地使用AI生成插图和撰写论文内容,但AI不能作为作者或合作者出现。《Cell》杂志也禁止AI作为作者列名,并要求研究者在投稿信和声明部分注明AI使用的情况,确保研究结果的准确性和原创性不受损害。 业内专家认为,AI在科学研究中的应用虽不可避免,但透明度和诚信仍是科研的基本原则。科学共同体需要共同努力,确保技术的合理使用不会破坏学术诚信的基础。同时,随着AI技术的迅猛发展,科研机构和期刊编辑部必须不断更新政策,以适应新的挑战。 背景信息:Glynn和Cabanac的研究团队长期以来致力于科学诚信和技术伦理的研究,他们的发现引发了学术界的广泛关注。随着AI技术越来越普及,如何规范其在科研领域的应用成为了一个重要议题。