八部门联合发布新规 加强未成年人网络信息管理

当前,互联网已成为未成年人学习、娱乐、社交的重要平台。但网络空间中的不良信息、有害内容对未成年人身心健康带来的风险愈发突出,受到社会广泛关注。为回应这个问题,国家互联网信息办公室、国家新闻出版署、国家电影局、教育部、工业和信息化部、公安部、文化和旅游部、国家广播电视总局等八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》,作为落实《未成年人网络保护条例》的配套举措,也为网络生态治理提供了更明确的制度依据。 该办法的重点在于建立更清晰、可操作的网络信息分类体系。根据规定,可能影响未成年人身心健康的网络信息被划分为四种类型,并对各类型的具体表现作出界定。分类既覆盖传统有害信息的主要形态,也回应了互联网发展带来的新问题。尤其是将不当使用未成年人形象纳入治理范围,说明了对现实风险的针对性。近年来,有人利用未成年人开展直播带货、制作短视频等商业活动,伴随隐私泄露、权益受损乃至人身伤害等隐患。此次纳入分类治理,有助于补齐既有监管短板。 随着技术快速迭代,算法推荐、生成式人工智能等新应用在提升效率的同时,也带来新的内容风险:算法推荐可能放大不良信息触达,生成式人工智能可能被用于生产、传播虚假有害内容。办法围绕这些新风险提出明确要求,强调网站平台和内容生产者应采取相应防范措施,体现了对新业态的风险预判与治理导向,也增强了规则的适用性与延展性。 办法同步明确了网站平台和内容生产者的责任边界。根据规定,对应的主体应采取防范和抵制措施,降低可能影响未成年人身心健康的网络信息带来的负面影响。这意味着平台需要完善内容审核、未成年人保护、投诉处置等机制;内容生产者也应在创作与传播中强化自律,避免制作、扩散有害内容。“平台+生产者”的责任配置,有助于形成更完整的保护链条。 从监管层面看,国家网信部门表示将持续净化网络环境,督促网站平台落实主体责任,加大对相关信息内容的治理力度。这也意味着《办法》发布后,执行与监督将成为关键环节。有关部门将通过日常监测、专项整治、联合执法等方式推动落地,同时完善举报渠道,引导社会监督参与,提升治理的覆盖面与实效性。 办法自2026年3月1日起施行,为相关企业和机构预留了调整窗口期。平台可据此优化内容管理策略、完善技术治理手段、提升未成年人保护能力,推动规则要求转化为具体流程与工具。 从更深层看,《办法》体现了我国对未成年人网络保护的持续加力。通过建立分类标准、明确责任主体、回应新技术带来的内容风险,未成年人网络保护的制度体系将更完善。其目标不仅在于更好保护未成年人的合法权益,也在于促进互联网行业规范发展,实现社会效益与产业发展相协调。

未成年人是网络空间的重要使用者,也是需要重点守护的群体;《办法》以分类标准划清边界、以主体责任明确链条、以技术治理回应变化,为未成年人网上身心健康提供更有力的制度支撑。面向未来,只有把规则落到具体环节、把责任落实到具体主体、把治理贯穿内容生产与传播全流程,才能持续推动网络生态向善向上,为下一代成长营造更清朗、更可靠的数字环境。