社交平台成为不良内容滋生地 未成年人保护需要加强法律力度

问题——媒体调查释放的风险信号不容忽视。近期,围绕某下载量较大的社交平台,多家媒体检索并实测发现:用户年龄未被充分核验的情况下,平台仍能看到带有性暗示的“擦边”文本、以未成年人话题包装的互动提问,以及对疑似未成年人账号的私信骚扰等现象。一些内容借“青春叙事”“成长困惑”“情感问答”等外壳躲避审核——更隐蔽、传播更快——对未成年人的伤害也更难察觉、持续更久。一旦与推荐机制叠加,容易出现“越看越推、越推越深”的信息茧房效应,让未成年人在缺乏防备时接触不良信息。原因——流量导向叠加机制漏洞,治理难度被放大。业内人士认为,乱象往往由多重因素共同造成:一是部分平台在注册、登录、浏览等环节的年龄识别和身份核验不到位,未成年人保护的“前置关口”失守;二是推荐算法对“停留时间长、互动率高”的内容更敏感,若缺少明确的风险标识与分级拦截,擦边内容更容易被放大;三是审核资源与标准在短视频、图文、私信、群聊等场景分布不均,互动区、评论区、私信等“边缘区域”更易形成监管盲点;四是部分账号用“暗语”“谐音”“分段发布”等方式对抗审核,并向外部平台导流,逐步发展为跨平台灰色链条。影响——危害不止于内容本身,还可能外溢为现实风险。未成年人保护的关键在于“防诱导、防接触、防扩散”。软色情内容可能扭曲未成年人对身体、性与亲密关系的认知,引发焦虑、羞耻等心理负担,并影响学业与人际交往;互动板块中索要隐私、诱导发送照片等行为,也存在向网络性引诱、敲诈勒索甚至线下侵害演变的风险。更值得警惕的是,一旦“不当使用未成年人形象”与“流量变现”结合,可能滋生撮合、引流、交易等黑灰产分工,增加打击难度,对公序良俗与网络生态形成双重冲击。对策——以法律为底线、以平台为责任主体、以技术为支撑,形成闭环治理。不久前施行的《可能影响未成年人身心健康的网络信息分类办法》对含性暗示、性挑逗以及不当使用未成年人形象等内容作出更清晰界定,并对重点位置呈现、显著提示、分级处置与算法约束提出要求。落实到治理中,可从以下上推进:其一,平台应将未成年人保护前置到产品设计与运营决策中,完善实名核验与年龄识别机制,坚持“默认保护”,对疑似未成年人账号设置更严格的内容可见范围与互动限制;其二,强化算法治理和风险拦截,建立面向未成年人场景的内容白名单、风险词库与行为识别模型,对擦边内容、引诱话术、异常私信等自动预警并人工复核;其三,补齐私信、评论、问答等高风险场景短板,对诱导索取隐私、传播不良信息的账号从严处理,综合采取封禁、禁言、限制推荐、限制变现等措施,并留存证据配合执法;其四,监管部门对屡改屡犯、整改不力的平台依法依规严肃问责,推动平台定期披露未成年人保护报告与整改效果,形成可核验、可追责的约束;其五,学校、家庭与社会组织加强媒介素养教育与心理支持,帮助未成年人提升自我保护能力,畅通举报与求助渠道,尽量减少受害后的“二次伤害”。前景——从“事后处置”转向“事前预防”,网络空间将更强调青少年友好。随着未成年人网络保护制度健全,治理重点将更集中在“分类分级、技术约束、场景治理、链条打击”。未来平台竞争也将从单纯拼流量转向比合规与治理能力:能否在身份识别、内容审核、算法透明、风险处置与用户保护上建立可持续机制,将决定其能否获得长期信任。对各类以未成年人为噱头的擦边引流,应坚持发现即处置、全链条整治,推动形成“上传即审、传播可控、违规必罚”的常态秩序。

未成年人身心健康不容任何形式的侵害。此次事件不仅是对个别平台的警示,也再次提醒整个互联网行业:技术与商业利益之外,社会责任和底线必须被明确并严格执行。只有监管、平台、学校、家庭与社会各方共同发力,才能为未成年人营造更安全、更清朗的网络空间,守护他们的成长。