青少年AI使用隐患凸显 专家呼吁家校协同构建防护网

问题——生成式智能工具“低门槛”进入未成年人生活,保护机制亟待完善 近年来,生成式智能工具快速迭代,用户规模不断扩大,中小学生学习检索、写作表达、作业辅助等场景中的使用频率大幅提升。然而,与游戏、短视频等应用相比,许多新型智能产品在未成年人保护上仍存不足,包括隐私信息处理、内容分级、使用时长限制、诱导性交互诸上的空白。调研显示,61.7%的学生使用过涉及的工具,其中46.4%的学生倾向于向智能工具倾诉烦恼,21.5%的学生更愿意与智能工具聊天而非真人,19.7%的学生认为“用智能工具代写作业不算作弊”。这些现象引发了广泛关注。 原因——技术拟人化与教育需求变化叠加,家庭与学校管理不足 生成式工具具备“生成答案、多轮对话、拟人互动”等特点,能够快速提供类似同伴的回应和陪伴,对情绪波动较大的青少年具有较强吸引力。同时,部分地区推广人工智能通识教育,社会对工具使用能力的需求上升,但相应的使用边界、伦理规范和评价体系尚未完善。家庭管理的缺位尤为突出:仅32.1%的家庭为孩子制定了使用规则,部分家长要么完全放任,将其视为“学习捷径”,要么简单禁止,缺乏替代方案和沟通机制。此外,许多家长更关注作业抄袭问题,而对隐私泄露、价值观误导、情感依赖等风险认识不足。 影响——风险从学业层面向心理与社会化层面扩散 专家指出,生成式工具对中小学生是一把“双刃剑”。其优势在于拓宽知识获取渠道、降低学习门槛,尤其能为教育资源薄弱地区的学生提供支持。但潜在风险同样不容忽视:一是依赖性增强,部分学生直接采用生成内容,减少独立思考;二是社交退缩现象显现,虚拟对话可能削弱现实沟通能力;三是对自我认知的干扰,近三成学生会因工具的评价影响对自我和未来的看法。这些风险可能深入波及亲子关系、师生关系和学习诚信体系,带来更复杂的治理挑战。 对策——构建“家校社企”协同的未成年人保护闭环 专家建议,家庭应成为第一道防线,制定可执行的使用规则,明确时段、场景、问题边界,避免输入敏感信息,并要求二次核对输出内容。学校在推广工具应用的同时,需将信息素养、学术诚信纳入教学目标,建立监督机制。社会层面应加强心理健康和网络行为支持服务,提供畅通的咨询渠道。企业需加快落实未成年人模式,完善实名认证、内容过滤、隐私保护和功能限制等功能。监管部门可细化法律要求,强化评估和问责机制,推动合规落地。 前景——从工具普及到治理成熟,规则与责任是关键 业内人士认为,生成式工具在教育与家庭中的应用将是长期趋势,未来的竞争不仅在于技术能力,更在于安全合规与责任治理。随着未成年人保护模式完善、课程体系强调批判性思维、家庭数字素养提升,相关工具有望在可控范围内发挥积极作用。但若规则缺位、监管滞后,风险可能被放大,对学习能力、心理健康和社会化发展造成长期影响。未来需通过制度建设和社会共治,为未成年人划定边界,保障健康成长空间。 结语 新技术进入校园与家庭,并非简单的“用或不用”问题,而是涉及“如何用、谁来管、以什么标准管”的治理课题。只有前置规则、深化教育、压实企业责任、强化监管执行,才能让未成年人在使用新工具的同时,守住隐私、安全、诚信与人格健全的底线。

新技术进入校园与家庭,并非简单的“用或不用”问题,而是涉及“如何用、谁来管、以什么标准管”的治理课题。只有前置规则、深化教育、压实企业责任、强化监管执行,才能让未成年人在使用新工具的同时,守住隐私、安全、诚信与人格健全的底线。