全国人大代表杨剑宇:构建人工智能安全治理体系需强化全链条监管

(问题)今年政府工作报告提出“完善人工智能治理”。

在新一轮科技革命和产业变革加速推进背景下,我国人工智能产业发展呈现技术更新快、应用落地广、与实体经济融合深等特点。

与此同时,风险外溢效应也更加凸显:从深度伪造音视频干扰公众判断,到“换脸”诈骗、智能化网络攻击工具化扩散,一些违法违规行为借助新技术降低作案门槛、放大社会危害,给公共安全、社会信任和数字经济健康发展带来新挑战。

(原因)多位业内人士指出,人工智能安全风险呈现“技术与治理双重复杂性”。

一是数据与语料合规管理仍需细化。

大模型训练依赖海量数据,若来源、授权、标注和流转环节缺少可核验的合规链条,容易诱发侵权、泄露、偏见等问题,并在模型输出端被放大。

二是对“技术作恶”的系统性监管存在薄弱环节。

攻击者可利用生成能力批量制造虚假内容、自动化钓鱼文本与仿真语音,实现规模化、低成本的欺骗与攻击;而现有治理在跨平台协同、跨地域联动、证据固化与追责效率方面仍面临现实约束。

三是创新与安全的平衡压力上升。

产业竞争强调效率与迭代速度,但安全要求强调审慎与约束,二者若缺乏清晰边界与可执行规则,容易出现“重上线、轻治理”“重能力、轻责任”等现象。

(影响)风险治理不到位,将在多个层面产生连锁反应。

对社会层面,深度伪造等信息污染会侵蚀公众信任,干扰舆论生态,增加社会治理成本。

对产业层面,一旦安全事件频发,可能导致用户对新技术接受度下降,影响企业合规成本和商业预期,甚至引发产业“劣币驱逐良币”。

对国家层面,智能化网络攻击、关键基础设施风险等问题如果叠加外部环境变化,可能对网络安全和数据安全形成长期压力,影响数字中国建设和新质生产力培育。

(对策)围绕如何把“原则框架”转化为“可落地的制度与工具”,杨剑宇代表提出,应在现有政策基础上继续完善制度供给与技术支撑,形成更具操作性的治理体系。

他表示,我国已出台《生成式人工智能服务管理暂行办法》,下一步可进一步健全算法与大模型备案机制,推动对具有舆论属性或涉及重大公共利益的算法与服务加强审核审查,提升透明度与可追溯性,压实平台与服务提供者主体责任。

同时,应加快建设具有公信力的生成内容检测与溯源平台,形成“源头审核—过程监测—事后追溯”的闭环治理路径:在源头端加强训练数据、内容生产规则与权限管理;在过程端强化对异常传播、批量生成、异常调用等行为的监测预警;在追溯端提升取证能力和跨平台协同效率,为依法打击违法犯罪提供支撑。

在具体推进中,受访人士认为,还应把握三项关键:其一,标准先行,推动数据合规、标识规范、检测方法、接口要求等形成统一可用的行业规则,减少治理“碎片化”。

其二,协同治理,完善部门监管、平台自律、行业组织与社会监督的分工协作机制,提升联动效率。

其三,鼓励“安全能力”产业化,将内容鉴伪、溯源、水印、模型安全评测等能力纳入产业链,推动形成可持续的安全投入与市场供给。

(前景)面向未来,人工智能治理将从“事后处置”逐步走向“全周期治理”,从单点管控走向体系化、工具化、标准化。

随着我国在算法备案、风险评估、内容标识、检测溯源等方面的制度持续完善,叠加网络安全、数据安全等相关法律法规协同发力,有望在保障创新活力的同时,把风险控制在可管可控范围内。

业内普遍预计,治理能力的提升将进一步夯实产业发展信心,促进人工智能在政务、制造、医疗、教育等重点领域更安全、更规范地落地应用,为高质量发展提供更坚实支撑。

人工智能的发展是大势所趋,但任何技术进步都必须建立在安全可控的基础之上。

完善AI治理体系不是要阻碍创新,而是要引导创新朝着更加负责任、更加可持续的方向发展。

通过建立健全的监管机制、强化源头管理、完善溯源体系,我们既能充分释放人工智能的发展潜力,也能有效防范技术滥用带来的风险。

这正是在新时代推动科技进步与社会治理相统一的必然要求。