问题:随着互联网更深地融入学习、生活和社交,未成年人上网更频繁。信息获取更便捷的同时,一些不良内容以碎片化、情绪化、隐蔽化方式传播,容易干扰未成年人的行为习惯、价值判断和心理健康。部分内容借助“热搜”“榜单”“推荐”等高曝光入口扩散,深入放大影响;也有个别账号为博取流量不当使用未成年人形象,甚至诱导围观、嘲讽或二次传播,引发持续关注。 原因:一方面,移动互联网产品迭代加快,信息分发高度依赖推荐机制,传播链条更短、扩散更快,未成年人辨识能力不足的情况下更容易被动接触涉及的内容。另一上,内容生产门槛降低,部分创作者以猎奇、刺激为导向追逐流量,边界意识薄弱。同时,未成年人个人信息部分场景被过度采集或不当披露,叠加“人肉”“围观”等网络生态问题,风险更具持续性。新技术快速应用,也让内容生成、加工和传播更便捷,潜在风险更加复杂。 影响:从个体层面看,可能引发或诱导模仿不良行为的信息,容易误导未成年人的行为选择;带有极端、扭曲、功利化倾向的内容,可能干扰价值观形成;不当使用未成年人形象、过度曝光隐私,可能造成二次伤害,甚至留下长期心理影响。从社会层面看,未成年人网络保护关系到家庭教育秩序与社会文明风尚。若治理不到位,容易强化“流量至上”的错误导向,削弱平台生态健康和公共空间的清朗程度。 对策:此次八部门联合发布的分类办法直面治理痛点,进一步给出更可操作的规则框架。办法从四个维度界定可能影响未成年人身心健康的网络信息:一是可能引发或者诱导未成年人模仿或者实施不良行为的信息;二是可能对未成年人价值观造成负面影响的信息;三是不当使用未成年人形象的信息;四是不当披露和使用未成年人个人信息。围绕责任落实,办法要求网络信息内容生产者以及网络产品和服务提供者采取防范和抵制措施,并明确平台不得在首页首屏、弹窗、热搜、榜单、推荐、精选等醒目位置呈现相关信息,抓住“高曝光、高转化”传播链路的关键环节。针对算法推荐等新应用可能带来的内容风险,办法提出相应防范要求,说明了对技术驱动内容生态变化的前置治理思路。 前景:分类标准更清晰,有助于统一尺度、压实责任、形成合力。一上,平台可据此完善内容审核、分级提示、分发控制和账号治理机制,“入口”“链路”“传播效率”等环节加强约束,推动治理从末端处置向源头预防转变。另一上,内容创作者也将获得更明确的合规边界与创作指引,减少“擦边”空间,促进行业回归理性竞争。可以预期,随着相关制度与《未成年人网络保护条例》等规定衔接落地,未成年人网络保护将从“原则要求”进一步走向“标准化执行”,治理也将更强调技术治理与制度治理并重、事前预防与事后处置结合。
未成年人关乎国家未来;网络时代,为他们营造安全、健康、向上的网络环境,是全社会共同责任。《可能影响未成年人身心健康的网络信息分类办法》的发布,为涉及的治理提供了更明确的制度依据和执行指引。随着办法推进落实,我国未成年人网络保护有望深入提质增效,网络空间也将更加清朗。同时也要看到,网络治理长期且动态,需要在实践中持续完善。只有政府、平台与社会各界协同发力,才能更有效地为未成年人筑牢网络安全防线。