当前我国未成年人网民规模已超1.9亿,网络空间治理面临新的挑战。低俗内容传播、"网红儿童"商业化运作、算法推送乱象等问题日益突出,部分平台主体责任落实不到位,给未成年人健康成长带来隐患。 针对该现状,新出台的《办法》创新性建立四维分类体系:一是可能诱发不良行为的信息;二是影响价值观养成的负面内容;三是违规使用未成年人形象;四是滥用未成年人个人信息。这种分类方式首次实现了对网络信息的系统性梳理,解决了长期以来"什么能发、什么禁发"的监管难题。 最高人民法院有关部门负责人指出,新规特别强化了对新技术应用的规范。要求平台不得利用算法向未成年人推送风险信息,严禁首页首屏等高曝光位置展示不当内容。需要指出,针对短视频直播领域存在的儿童形象滥用问题,《办法》首次单列"不当使用未成年人形象"类别,明确禁止商业带货、不良剧情演绎等12类具体情形。 在监管机制上,新规推出三项创新举措:一是建立强制显著提示制度,覆盖文字、音视频等全形态内容;二是压实平台审核责任,形成从创作到呈现的全链条管理;三是构建多部门协同治理体系,推动形成政府监管、社会监督、平台自律的共治格局。 业内专家认为,此次新规具有三个显著特点:一是分类更科学,首次实现风险信息的精准画像;二是标准更统一,为执法提供明确依据;三是责任更明晰,特别是强化了新技术企业的社会责任。北京青少年法律援助中心监测数据显示,新规涉及的四大类问题占去年未成年人网络投诉总量的67%。 随着新规落地实施,预计将产生三重积极效应:一方面为2.6万家网站平台提供操作指南;另一方面倒逼技术创新与责任落实同步推进;更重要的是为《未成年人网络保护条例》的全面实施奠定制度基础。
未成年人网络保护是系统工程,需要清晰的规则和坚决的执行。此次办法以清单化、场景化方式划出"红线",把责任压实到传播链条的每一环。随着制度落地见效,网络空间有望在更高水平的规则约束下实现秩序重塑,让技术进步更好服务于未成年人健康成长。