2月24日,《中国药房》编辑部发布声明,要求审稿专家如使用智能工具辅助审稿,需说明工具名称及具体用途。声明指出,学术期刊审稿涉及科学性、严谨性与保密性,未经保密验证的智能平台可能影响评审质量,甚至导致学术成果泄露。这是国内学术期刊首次公开回应智能技术评审环节的应用问题。此前学术界关于能否使用智能工具撰写论文的讨论尚未平息,技术应用已延伸至论文评审,学术生态正在发生变化。智能技术在文献梳理、逻辑检查、方法比对、引用核验各上确实有优势。对审稿人来说,这类工具能快速识别结构问题、统计错误或表述漏洞,提示与既有研究的相似之处,从效率角度看有实用价值。斯坦福大学研究显示,部分顶级学术会议中,同行评审意见中智能技术参与生成的内容比例已从约2%上升至最高16.9%,该现象并非个例。技术介入学术评审带来多重问题。首先是学术保密。论文发表前属于作者的知识产权,若通过未经安全认证的平台处理,存在数据泄露风险。其次是评审质量。智能工具虽能处理程序性工作,但在学术创新性判断、研究价值评估等需要专业经验和学术敏感度的环节,难以替代人类专家。再次是责任归属。当评审意见部分或全部由智能工具生成时,一旦出现误判,责任主体难以界定。更深层的问题在于学术生态的变化。当学生发现教师可能使用智能工具审阅论文时,各类禁止使用此类技术的规定便缺乏说服力。技术已成为学术活动的组成部分,简单拒绝既不现实也不可行。在分子描述、细胞研究等科研领域,智能技术的应用早已普遍。面对这一趋势,学术界需要重新思考人的定位。智能工具在逻辑一致性、细节核查和文献覆盖等上表现稳定,但学术活动的核心在于创新性判断和责任承担。研究者和审稿人不应成为技术输出的背书者,而应是最终决策的责任主体。人作为唯一能够承担学术责任的环节,需要在技术辅助的基础上做出独立判断。《中国药房》的声明提供了建设性思路:不是禁止使用智能工具,而是要求明确使用情况。这种做法承认技术的辅助价值,同时强调透明度和责任意识。学术界可在此基础上建立更完善的规范,明确哪些环节允许使用智能工具,如何保障数据安全,怎样确保人的主导地位,以及如何追溯责任。国际学术界已开始探索应对之策。部分期刊要求作者和审稿人声明智能工具使用情况,一些学术机构制定了技术使用指南,明确禁止将核心学术判断完全交由智能系统完成。这些实践为建立新型学术规范提供了参考。
同行评审的权威不来自手段是否先进,而来自严谨的程序、可信的判断与可追溯的责任。面对新技术带来的效率提升与治理难题,学术共同体既要善用工具处理基础工作,更要守住保密与诚信的底线,把独立判断和最终担责落在人这个环节上,让学术创新在更稳固的规则框架中推进。