问题:澳大利亚《2024网络安全(社交媒体最低年龄)修正案》自2025年12月10日起正式实施,要求特定社交媒体采取“合理措施”阻止未满16岁用户在平台拥有账户。
Meta12日通报称,去年12月4日至11日一周内,已分别从Instagram、Facebook和Threads移除约33.1万、17.3万和4万个疑似不符合年龄要求的账户,合计逾54.4万个。
与此同时,澳大利亚媒体与部分观察人士认为,禁令在技术落地、合规边界与平台治理上仍存在不小挑战:部分未成年人账户未被识别或被封禁后再度启用,新账户注册的年龄认证也被指“容易绕过”,导致政策目标与执行效果之间出现偏差。
原因:一是年龄核验的技术局限。
线上身份与年龄信息具有可伪造性,单纯依赖用户自填信息、简单的系统规则或行为特征识别,难以在不增加过度摩擦的前提下实现高准确率。
二是平台生态与跨平台迁移带来的“替代效应”。
当部分主流平台加强清理后,未成年人可能转向其他未被纳入约束或执行力度较弱的平台,客观上削弱禁令的整体约束力。
三是治理目标之间的张力。
平台需要在合规、用户体验、隐私保护与商业运行之间权衡,若缺乏统一的行业标准与可验证的执行路径,“合理措施”的内涵容易引发争议,也可能出现“清理数量可观但效果不稳”的情况。
影响:从积极面看,禁令强化了对未成年人网络安全与身心健康的政策导向,有助于压实平台对有害内容、算法推荐与数据收集的责任边界。
澳政府数据显示,禁令生效前,86%的8岁至15岁青少年使用社交媒体,说明未成年人触网规模大、风险暴露面广,监管加码具备现实基础。
从现实执行看,封禁与清理行动在短期内可能降低部分未成年人在头部平台的活跃度,但若核验机制不足、跨平台管理缺位,禁令容易在“堵住一处、流向一处”的循环中被稀释;同时,若平台为证明合规而采取更强硬的验证手段,也可能引发关于个人信息保护、误伤正常用户与申诉成本上升等新的治理议题。
对策:澳大利亚政府发言人表示,将追究社交媒体平台对青少年造成伤害的责任,并指出相关平台出于商业目的大量收集用户数据,“可以、也必须利用这些信息来遵守澳大利亚法律”,确保16岁以下人群不出现在平台上。
根据法律规定,未予配合的企业将面临最高4950万澳元罚款。
为提升执行效果,业内普遍认为需在三方面协同推进:其一,建立更可审计的合规机制,通过第三方评估、透明度报告与可追溯的处置流程,减少“数字好看、效果不稳”的治理落差;其二,完善申诉与纠错通道,降低误封带来的社会成本,形成可持续的合规闭环;其三,推动家校社共同参与,在平台治理之外,通过数字素养教育、家庭监护工具与青少年心理健康支持,减少对单一行政禁令的过度依赖。
前景:从国际趋势看,围绕未成年人上网保护的立法与监管正在加速,澳大利亚的最低年龄制度可能对其他国家和地区的政策选择产生示范效应。
但能否实现预期目标,关键在于“合理措施”如何具体化、标准如何统一、跨平台治理如何衔接以及隐私保护如何同步落地。
未来一段时间,平台在年龄核验、数据合规与算法责任方面的投入预计将增加,监管部门也可能进一步明确技术与流程标准,并通过执法案例推动政策细化。
若能在保护未成年人、维护隐私与保持数字创新之间取得更稳健的平衡,禁令的长期效果有望逐步显现;反之,则可能在争议与反复中持续承压。
澳大利亚的社交媒体禁令标志着数字时代未成年人保护的新探索,但其成效将取决于技术、法律与社会的协同进化。
这场博弈不仅关乎一国政策,更折射出全球治理科技巨头与捍卫儿童权益的深层矛盾。
如何在开放网络与安全成长之间找到平衡点,仍是留给所有利益相关方的长期课题。