中国工程院和中国科学技术协会的学者们指出,若把AI视为提升效率的工具,教育界和社会就应严防“认知外包”的陷阱。清华大学电子工程系的陆建华教授强调,学生若写论文全靠AI拼凑、职场人不动脑直接用AI代笔,甚至做简单决定都要先问AI,这种依赖心理就如同孩子玩手机上瘾。数据显示,美国麻省理工学院2025年的一项研究证明,在写作任务中,使用大模型辅助组的人对内容回忆失败率高达83.3%,比纯自主写作组的人高出约11.1%。美国哥伦比亚大学针对16791名大学生的调研还发现,用AI容易让“强者愈强、弱者愈弱”的认知鸿沟加剧。因此,国家自然科学基金委员会信息学部组织专家给出建议:要重点研究人类在人机协同过程中的适应性变化与演化规律,构建协同理论模型;还要探索“认知友好型”的育人新模式,减少负面效应。 面对AI带来的严峻挑战,全国政协委员黄卫呼吁教育部门不要盲目拒绝它。他认为AI是未来教育改革的核心引擎,关键是要平衡好工具价值与认知风险。陆建华表示美国名校从“鼓励用AI”到“禁止用AI”的转变走了极端。因为禁止AI剥夺了学生提升效率和学习人机协作的机会,不利于培养核心竞争力。陆建华说警惕AI“上瘾”是教师的失职,更是历史的“罪过”。若全社会陷入依赖思维泥潭,就会影响人才质量和未来发展。 为了守住独立思考的底线,专家建议实施全民认知素养提升行动计划。应将认知健康素养纳入国民教育体系和终身学习框架,在基础教育阶段加强元认知训练与数字健康教育。专家还建议建立AI产品认知影响评估与认证制度,研究制定评估指南并对智能产品进行分级分类认证。此外还要加快构建全社会共同参与的认知健康促进网络。 美国和中国工程院、中国科学院都有知名学者参与了这场讨论。2025年的那项研究显示了使用大模型辅助带来的严重后果;而16791名大学生的调研也证实了认知鸿沟的存在。陆建华认为必须引起高度重视;只有守住底线才能培养出有创新力和判断力的新时代人才。