(淮阴师范学院的)徐菁提出了一个问题:审稿专家把AI当作了自己的“替身”,这给学术圈的信誉还能剩下多少?2月24日,药学领域的《中国药房》编辑部不得不出来说话了。最近他们发现有些审稿意见里到处都是可疑的AI生成痕迹,这既伤害了大家对这份工作的信任,也让人担心知识产权和数据安全会不会出事。 现在生成式AI已经把科研全流程都给渗透了,不少专家干脆用算法来代替自己的判断。这种做法不光碰了规矩的底线,更是动摇了同行评审最基本的信任。学术期刊的审稿机制说白了就是一场信任游戏,专家手里握着决定论文生死的大权。这种信任是靠大家多年积累起来的专业素养和职业操守撑起来的。 可AI代审一旦出现,那道防火墙就露了马脚:未经核实的平台会泄露原创成果,算法幻觉会让结论出错,那种模板化的评价还可能压制真正的创新。论文越来越多让人工评审根本忙不过来,AI的高效性成了救命稻草。但为了追求效率就把责任甩给机器是不行的。 审稿可不是看个格式、查个重复那么简单,里面包含了对研究价值的判断、逻辑漏洞的挖掘这些复杂过程。AI能找文献、改病句确实快,但它不懂什么是真正的创新思维,也搞不懂跨学科研究的深层逻辑。一旦专家变成AI意见的搬运工,学术评价就变成了算法主导的流水线作业。 光禁止或放任不管都不是好办法。《中国药房》呼吁大家公开用了AI的情况,这跟国际上的做法很像。这种透明化要求既认可了AI的辅助作用,又划出了人机协作的边界——它可以当助手、秘书,但不能当主角。 更重要的是这给学术责任定了调子:不管用没用AI,专家都要对结论负责。这也符合教育部《高等学校预防与处理学术不端行为办法》的规定。学术的命根子在于求真,同行评审的价值在于人类智慧的碰撞和坚守。 技术是把双刃剑能带来效率革命,但诚信的底线绝对不能丢。审稿专家要珍惜这份信任,期刊要抓紧建规矩。学术界得形成一个共识:AI可以是创新的助推器,但绝不能变成学术信任的守护者。只有守住初心才能让评价回归本质。