社交平台内容审核存漏洞 未成年人屡遭“软色情”信息侵扰

问题—— 随着社交应用青少年群体中普及,平台内容生态中的未成年人保护问题再次受到关注。有网民反映,部分社交平台页面出现疑似“软色情”内容,且对未成年用户更容易触达:一上,未成年人账号可能被推送带有情色暗示的小说、图片等;另一方面,互动区出现以“初中女生”“小学女生”等标签吸引围观的帖子,评论与私信夹杂对生理隐私、性话题的诱导式提问,甚至有人索要身体照片等明显越界行为。此外,部分带货或推广内容中,儿童模特被刻意塑造成成人化形象,个别纸尿裤推广的展示方式也引发“擦边”“性化儿童”的质疑。 原因—— 从记者体验情况看,问题背后主要涉及三方面因素。 其一,身份核验存在漏洞。部分平台在注册、登录或使用核心功能时,未对年龄信息进行有效核验,未成年人设置门槛低,难以及时触发更严格的青少年模式与风险拦截。相比之下,少数平台虽设置“仅限成年人”提示,但除个别应用采用人脸识别等方式外,仍存在“填写即通过”的情况。 其二,内容审核与推荐机制缺乏闭环。带有暗示性、边界模糊的图文、小说和话题互动常以“擦边”形式出现,规避关键词过滤与抽检;同时,算法在追求停留时长与互动量的导向下,可能持续放大争议内容,形成“越看越推”的叠加效应。 其三,流量变现驱动下的失范行为增多。部分账号为吸引关注或促进销售,刻意使用“低龄标签”“成人化造型”等制造话题,甚至将儿童形象当作营销工具,触碰法律与伦理底线。 影响—— 有关现象一旦在未成年人群体中扩散,危害不容忽视。 首先,可能影响未成年人的身心健康与性观念形成。青少年辨别能力有限,面对含混暧昧的信息和诱导式提问,更容易产生焦虑、羞耻或模仿冲动。 其次,私信骚扰与信息诱导会增加现实风险。互动区对未成年人身份的公开展示,可能成为不法分子“精准围猎”的入口,诱导其披露隐私、发送照片,甚至埋下线下侵害隐患。 再次,平台内容生态会被更侵蚀。软色情与“性化儿童”内容刺激性强,容易挤压正常内容的传播空间,破坏社区氛围与用户信任,最终反噬平台的长期发展。 法律人士指出,若相关内容以未成年人为对象,或呈现性暗示、性挑逗并具有传播性,可能触及未成年人保护相关法律法规及网络信息内容管理要求,平台、发布者与营销主体均需承担相应责任。 对策—— 业内普遍认为,治理应从“入口管控、过程治理、结果追责”三端同时发力。 一是把牢身份入口,提高年龄核验的刚性。对存在未成年人使用风险的社交产品,应在注册、发帖、私信等关键环节强化实名与年龄核验,形成可追溯机制;对标注“仅限成年人”的平台,更应配套技术与管理措施,避免提示流于形式。 二是完善审核标准与处置链条。针对软色情、低龄诱导、儿童成人化呈现等“边界内容”,应建立更细化的识别规则与样本库,提升对图文、小说、评论、私信等全场景的识别能力;对“标签引流”“话题诱导”等新玩法,及时更新治理策略,做到快速发现、快速下架、快速封禁。 三是约束推荐机制,强化未成年人场景保护。对疑似擦边内容降低推荐权重或直接屏蔽;对未成年人账号默认开启更强的安全保护与陌生人交互限制,降低被围观、被骚扰的概率。 四是压实主体责任,形成协同治理。平台应提供更便捷的未成年人保护举报通道和快速响应机制,对涉及儿童形象营销的商家与账号实行更严格的准入与审查;监管部门、行业组织、学校与家庭也需加强联动,通过普法宣传与网络素养教育提升未成年人自我保护能力。 前景—— 从趋势看,社交平台治理正在从“内容清理”转向“机制治理”。随着未成年人保护相关制度健全,平台若仍停留在事后下架、被动应对,难以匹配现实风险。下一阶段,能否实现更可靠的年龄核验、更透明的推荐规则、更高效的举报处置,以及对商业营销链条的穿透式治理,将成为衡量平台履责的重要标尺。对平台而言,守住底线不仅是合规要求,也是可持续发展的基础。

未成年人是网络空间需要优先守护的群体;对“擦边”内容和性化倾向的放任,消耗的是社会对平台的信任,影响的是青少年的成长环境。只有把规则落到实处、把技术用到关键环节、把责任压实到主体,形成平台自律、监管发力、家庭与学校共同参与的合力,才能让清朗网络空间成为青少年触网探索的安全底色。