中国信通院发布2025年人工智能安全治理报告:直面“易攻难守”新态势完善共治框架

随着人工智能技术深度融入经济社会各领域,其安全治理问题日益成为全球关注焦点。

中国信息通信研究院近日发布的专项研究报告系统梳理了当前面临的突出挑战:在技术层面,算法漏洞和对抗攻击导致安全防御难度倍增,研究显示,新型攻击手段的响应时间窗口较传统网络安全缩短60%以上;在应用层面,开源组件滥用和供应链风险已造成多起重大数据泄露事件,2024年上半年全球因此导致的经济损失预估达127亿美元。

报告分析认为,治理困境的深层原因在于三方面矛盾:技术迭代速度与标准制定滞后的时差效应,跨国企业技术垄断与本土化监管的博弈张力,以及产业创新需求与社会伦理约束的平衡难题。

以深度伪造技术为例,其商业应用增长率连续三年超200%,但全球仅23%的国家建立专项立法。

这种治理缺口已产生显著连锁反应。

欧盟委员会最新评估指出,人工智能系统偏见导致的歧视投诉量同比上升45%,而模型不可解释性引发的医疗、金融领域纠纷案件审理周期平均延长4.8个月。

更值得警惕的是,技术黑箱特性正加剧国际规则制定话语权争夺,2023年G20峰会数据显示,各国在人工智能军事应用等关键议题上的立场分歧扩大至17项。

针对复杂形势,报告提出"三维治理"解决方案:技术侧建立动态风险评估矩阵,管理侧推行"研发备案+应用追溯"双机制,国际协作侧倡议成立多利益相关方参与的标准联盟。

我国已在上海、深圳等6个城市开展治理试点,其中粤港澳大湾区建立的跨境数据流动沙盒机制,成功将算法审计效率提升40%。

行业专家指出,未来两年将是治理体系成型的关键窗口期。

随着《全球人工智能治理倡议》等国际共识逐步落地,以及我国《生成式人工智能服务管理暂行办法》等法规持续完善,预计到2026年将形成技术可控、权责明晰、国际合作顺畅的新型治理生态。

人工智能技术的广泛应用正在深刻改变经济社会运行方式,安全治理工作的重要性日益凸显。

这份报告的发布为行业提供了系统性的问题诊断和思考框架,但更关键的在于将研究成果转化为可操作的治理实践。

在技术创新与安全保障之间寻求平衡,在发展速度与治理能力之间实现匹配,考验着各方的智慧与决心。

唯有凝聚共识、完善机制、强化落实,方能在确保安全的前提下释放技术红利,推动人工智能产业行稳致远。