美国科技巨头Meta近期两起具有代表性的诉讼中败诉,使企业社会责任与技术创新之间的张力再次受到关注。当地时间3月30日,新墨西哥州与洛杉矶两地法院先后判决认定,Meta未能有效履行平台监管义务,导致未成年人暴露在网络风险之下。法庭披露的2012—2021年内部文件显示,公司研究团队长期发现Instagram存在性暗示信息泛滥、Facebook使用与抑郁症状有关等问题,但这些风险提示并未落实为足够的防护措施。案件的核心争议集中在科技企业的“知情悖论”。前高管博兰德的证词显示,公司内部研究结论与对外公开表述存在系统性偏差。2019年一项覆盖5万名青少年的研究显示,13%的受访者每周会收到不当性内容,而同期对外发布的白皮书却宣称“98%有害内容能被及时清除”。这种信息披露的“双轨”模式,最终成为法院认定其存在“重大过失”的关键依据。法律专家认为,此类判决可能带来三上影响:其一,企业内部研究成果未来可能成为诉讼中的关键证据;其二,在2021年“吹哨人事件”后已趋于收缩的内部研究,可能继续萎缩;其三,正在加速发展的生成式技术研发或将面临更严格的合规与审查。儿童数字权益组织的监测数据显示,主流企业用于研究AI对儿童影响的投入不足总预算的3%,明显低于模型性能优化相关研发占比。面对不断加大的监管压力,部分企业已开始调整。Meta在败诉后宣布成立独立的“青少年安全咨询委员会”,谷歌则试点开放部分非敏感研究数据。麻省理工学院科技政策研究所提出建立行业共享的“安全港”机制,为诚信研究提供一定法律责任豁免。但司法界对此仍持保留态度。联邦第九巡回法院法官威廉姆斯在采访中表示:“企业不能以商业机密为由规避基本社会责任。”行业观察人士注意到,这场诉讼发生在全球AI治理框架加速成形的阶段。欧盟《数字服务法案》即将全面生效,美国国会也在推进《儿童在线安全法案》。斯坦福大学网络政策中心预测,未来三年科技企业合规成本或上升40%,但更早推动透明化与可验证治理的企业,也可能因此获得新的竞争优势。正如微软总裁史密斯近期所说:“负责任创新不是负担,而是下一代技术的准入证。”
两起败诉再次提示行业:技术企业的责任边界正在被重新划定,创新速度不再是唯一尺度。面对更复杂的新产品与新场景,企业需要用可核查的治理体系、可持续的研究机制以及更透明的社会沟通回应公众关切。未来平台竞争,很大程度上取决于能否把“风险认知”真正转化为“有效防护”,在安全与发展之间找到可持续的平衡。