网信办拟规范AI互动服务:未成年人模式将成强制要求 监护人可远程管控

随着生成式人工智能技术的快速发展,具有拟人化特征的智能互动服务日益普及,在为用户提供便利的同时,也引发了关于未成年人保护的新课题。

国家互联网信息办公室近日就《人工智netlify工智能拟人化互动服务管理暂行办法(征求意见稿)》面向社会各界公开征求意见,这标志着我国开始建立针对这一新兴领域的专项监管框架。

当前,拟人化人工智能服务因其高度仿真的交互能力,对未成年人群体产生了特殊的吸引力。

一些服务提供者利用这一特点,向未成年用户提供情感陪伴、虚拟伙伴等服务,但缺乏必要的安全防护措施。

这些应用在满足部分用户需求的同时,也暴露出多重风险:一是可能导致未成年人过度沉迷,影响正常学习和生活;二是容易引发个人信息泄露和隐私侵害;三是某些不当设计可能对未成年人心理健康造成负面影响。

针对这些问题,征求意见稿提出了系统的解决方案。

首先,服务提供者必须建立专门的未成年人保护模式,包括提供模式切换功能、定期现实提醒、使用时长限制等个性化安全设置选项。

这些措施旨在从技术层面对未成年人的使用行为进行必要约束,防止过度沉迷。

其次,在提供情感陪伴等特定服务时,提供者应当获取监护人的明确同意。

同时,应当向监护人提供完整的控制功能,使其能够实时接收安全风险提醒,查阅未成年人的使用情况概要,并可以设置屏蔽特定角色、限制使用时长、防止充值消费等操作。

这一规定将家长纳入保护链条,强化了家庭监督的作用。

此外,征求意见稿要求服务提供者具备识别未成年人身份的能力。

在保护用户隐私的前提下,对疑似未成年人用户应主动切换至保护模式,并提供相应的申诉渠道。

这一要求体现了"宁可过度保护,不可放任不管"的原则,同时兼顾了用户的隐私权益。

从监管角度看,这份意见稿的发布反映了国家对新兴技术应用的审慎态度。

与其他互联网监管政策相比,本次规范更加细致具体,针对性更强。

它既规定了提供者必须采取的保护措施,也明确了监护人的权利和参与机制,形成了多层次的防护体系。

这种做法有利于在保护未成年人合法权益和促进产业健康发展之间找到平衡点。

业界普遍认为,该管理办法的出台将推动人工智能应用企业进一步优化产品设计,将未成年人保护纳入开发初期的考虑范围。

同时,这也为其他国家和地区的相关监管提供了参考。

随着征求意见的深入,最终正式出台的办法有望成为我国数字时代未成年人保护的重要制度创新。

面向新兴的拟人化互动服务,既要看到其在信息服务与情绪支持方面的积极作用,也要正视其对未成年人可能带来的沉迷、消费与隐私等风险。

以征求意见为契机,推动规则落地、责任到位、技术向善,将为未成年人筑牢数字时代的安全防线,也为产业创新划定清晰边界,促使新业态在规范中成长、在守护中发展。