复旦大学发布人工智能教学应用指引 界定技术边界强化育人本位

当前,生成式人工智能快速进入课堂与学习场景,既带来效率跃升,也引发新的教育治理命题:学生是否会在“高效输出”中弱化独立思考?

教师如何在鼓励探索与防止依赖之间把握尺度?

在技术可用性明显提升的背景下,学术诚信、过程评价与能力培养如何实现新的平衡,成为高校必须回应的现实问题。

问题层面看,争议主要集中在三点:其一,工具使用边界模糊,学生容易把“辅助”理解为“替代”,将研究构思、论证推演等核心劳动外包给工具;其二,传统评价更多聚焦结果,难以识别学生的思考贡献与过程质量,进而削弱对高阶能力的引导;其三,学术诚信面临新形态挑战,尤其在写作、数据处理、资料整合等环节,如何界定责任、保存证据、实现可核查,亟需明确规范与可操作路径。

原因在于,生成式人工智能天然具备“低门槛、高产出”的特征,能迅速完成信息检索、格式整理、语言润色、结构建议等任务,这些功能对学习效率具有直接推动作用。

但同时,越是便捷的工具,越可能在无形中挤压学生投入深度阅读、批判性思维与复杂问题解决的时间。

另一方面,教育教学长期形成的考核方式以终稿、终题为主,对过程性证据与方法性能力关注不足,使得“会不会用、怎么用、用得是否规范”难以被有效评价,学生也缺乏清晰的行为边界和风险提示。

基于上述现实,复旦大学发布的生成式人工智能教育教学应用指引1.0版,提出以“认知负荷+高阶能力”为基本思路,强调允许工具帮助处理低阶认知负荷任务,把课堂与学习节省出的时间重新投向批判性思维、复杂问题解决、跨学科理解与创新能力等高阶目标。

指引同时明确,生成式工具不能替代实质性学术劳动,包括研究思考、理论构建、数据分析、结论形成等关键环节,重申立德树人这一根本任务,强调工具必须服务于人的成长与能力塑造。

影响层面,指引的推出释放出清晰信号:高校对新技术的态度不再停留在“是否允许使用”的二元判断,而是转向“如何规范使用、如何评估学习贡献、如何保障学术诚信”的系统治理。

对学生而言,这意味着学习方式将从追求单次作业的“正确答案”,逐步转向对方法、证据与反思的重视,工具使用也将从“随意调用”走向“有边界、有披露、有记录”。

对教师而言,教学设计与作业布置将面临重构,需要把过程性评价、口头答辩、阶段性产出、可核查记录等机制纳入教学管理,通过更精细的课程要求引导学生建立正确的工具观与学术观。

对策层面,指引在评价体系上提出新的抓手:对允许使用工具的作业,将“工具选择与规范使用、人工干预与反思质量”等纳入评价维度,推动评价从单一结果导向转为过程与能力并重。

这一调整的核心是让课堂不仅关注“做出了什么”,更关注“如何做出来、依据何在、贡献在哪里”,从而倒逼学生在使用工具时进行判断、筛选、验证与复核,形成可解释、可追溯的学习过程。

围绕学术诚信争议,指引提出“环节区分+责任归属+过程证据”的判定逻辑:工具可用于非核心创造性工作,如语言润色与结构建议,但必须如实披露使用情况,保留过程记录,便于核查;教师则可通过课程要求、问答与答辩等方式进行合理性验证,使诚信治理从“事后追责”更多转向“事前规范、事中留痕、事后可核”。

与此同时,复旦同步推出教育共创平台,作为指引落地的统一入口与实践支撑载体。

平台以“掌握—驾驭—共创”的能力进阶模型组织资源,既提供政策规范、素养自测与学习入口,帮助师生建立对能力边界与风险的基本认知;也将工具融入备课、学情分析、生涯规划等具体场景,提升可用性与获得感;并通过智能工具展示与师生共创机制,鼓励在规范框架内开展教学应用创新。

在推进效率提升的同时,平台强调降低使用门槛与保障数据安全,为规模化应用提供基础条件。

前景判断上,随着生成式技术迭代加速,高校治理的关键将从“配置工具”转向“重塑能力结构与评价体系”。

一方面,课程形态将更强调跨学科问题情境与实践导向,教师需要在案例设计、任务拆解、过程记录与能力评估上投入更多专业化工作;另一方面,学生的核心竞争力将更集中于提出好问题、建立论证链条、进行事实核验、完成价值判断与形成原创观点。

可以预见,类似指引将推动更多高校形成可复制的规则体系与平台支撑,把技术红利转化为人才培养质量的增量,同时也为学术诚信与教育公平提供制度性保障。

复旦大学的这份指引和平台体现了高等教育在AI时代的理性思考。

它既不盲目拥抱技术,也不因噎废食地拒绝技术,而是通过明确的边界、科学的评价、具体的服务,探索AI与教育的良性互动模式。

这种做法的核心是将工具理性与教育理性相统一,让学生既学会使用AI工具,更要警惕对工具的依赖,最终成为能够驾驭技术、超越技术的创新人才。

随着越来越多高校的跟进和完善,AI教育应用的规范化、科学化之路必将越来越清晰。