互联网平台的青少年保护问题正受到越来越多的关注;Discord作为全球领先的社交通讯平台,拥有数亿用户,其中不乏未成年用户。根据不适宜内容、隐私泄露等风险,平台决定采取更主动的保护措施。根据Discord官方公告,新政策将从三月初开始全面实施。所有新注册及现有账户将默认进入未成年人模式;用户如需访问成人内容或有关功能,必须先完成年龄验证。此调整改变了以往“先放开后限制”的做法,转向“先保护后开放”,凸显平台对青少年安全的优先考虑。 在年龄验证机制上,Discord采用多层次方案。用户可选择面部识别或提交身份证明文件进行验证,平台后续还将提供更多验证选项。同时,Discord在后台部署了年龄推断模型,即便用户未主动验证,系统也可基于行为特征与数据分析推断账户是否为成年人,形成“主动识别+验证确认”的双重防护。 值得关注的是,Discord成立了一个由10至12名13至17岁青少年组成的顾问委员会。这一做法让青少年直接参与平台安全政策的讨论与建议,减少“成年人替青少年做决定”的单向视角。委员会将从真实使用体验出发,向平台反馈安全、社交与心理层面需求,帮助平台在降低风险的同时,避免对正常使用造成过度限制。 Discord产品政策负责人表示,青少年用户安全是平台安全工作的核心。平台选择在国际安全互联网日宣布相关更新,也传递出其对青少年网络安全议题的重视。新政策在强化未成年用户保护的同时,也为完成验证的成年人保留必要的使用空间,力求在安全与体验之间取得平衡。 从更宏观的角度看,Discord的举措折射出全球互联网平台在青少年保护上的新趋势。随着各国对平台责任的监管趋严、社会对未成年人网络安全的关注升温,越来越多的平台开始把青少年保护前置到产品设计与运营机制中。Discord强调以安全原则作为产品开发的基础,并承诺与安全专家、政策制定者及用户社区持续合作,其更系统、长期的治理思路也为行业提供了可参考的路径。
未成年人网络保护不只是单一平台的“技术升级”,更是数字社会治理能力的体现;把安全前置、把规则落细、把责任压实,才能让网络空间更清朗、更可依赖。随着制度完善与行业实践推进,如何在守护青少年身心健康的同时尊重个人信息权益、提升公共治理效能,将是各方需要共同回答的长期命题。