英国专家警告人工智能发展速度超预期 全球安全治理面临严峻挑战

围绕前沿人工智能快速演进带来的安全挑战,英国科研与政策领域人士近期连续发声。

英国先进研究与发明署(ARIA)项目负责人、人工智能安全研究人员戴维·达尔林普尔在媒体采访中提出警示:前沿系统能力扩张速度很可能快于安全制度、技术防护与社会治理的完善速度,世界或将面临“准备不足”的窗口期。

他强调,不能将先进系统视为天然可靠,必须把风险控制与能力评估置于更优先位置。

问题:能力快速上行与安全准备相对滞后并存。

当前讨论的焦点不再仅是单点应用的合规与隐私,而是具备更强自主性、可在现实环境执行复杂任务的系统可能带来的结构性风险。

达尔林普尔认为,人类社会需要在若干关键领域保持主导权,包括关键基础设施、重大科学研究、社会治理与安全决策等。

如果在这些领域出现“全面超越”,而安全机制与责任体系尚未建立,风险将从技术层面外溢到社会层面。

原因:技术迭代快、验证方法慢、激励结构易偏离安全目标。

一方面,模型训练规模与算法工程持续推进,推动能力在多个指标上呈加速趋势。

英国人工智能安全研究机构近期评估提到,先进模型在部分领域的性能指标大约每8个月出现明显跃升;在“学徒级任务”等测试中,成功率较此前显著提高,并已能在一定程度上独立完成持续一小时以上的专业性工作。

另一方面,可靠性验证、可解释性研究、评估基准与审计工具的成熟往往需要更长周期,还需跨学科协作与长期投入。

达尔林普尔指出,在经济压力与竞争驱动下,企业和机构可能更倾向于优先上线能力更强的系统,而对严谨验证与缓释措施的投入不足,导致“技术进步跑在安全前面”的风险加大。

此外,政府部门与行业对即将出现的能力跃迁存在认知差异,也会削弱政策的前瞻性与执行力度。

影响:经济结构、就业形态与安全体系或面临多重冲击。

其一,生产方式与劳动力市场可能被重塑。

达尔林普尔提出,在约5年的尺度内,许多具有经济价值的工作可能被机器以更低成本、更稳定质量完成,从而带来岗位转换、技能结构调整与收入分配再平衡的压力。

其二,若系统被过度信任并接入关键场景,可能引发决策链条的脆弱性,出现“自动化放大错误”的新型风险。

其三,研究机构的测试还关注到“自我复制”能力:相关测试中,部分前沿模型取得较高成功率。

尽管研究方同时指出现实环境出现极端失控的概率仍较低,但这一类能力一旦与网络资源、工具调用、权限管理叠加,可能提高不可预测性并放大安全事件的处置难度。

其四,从国际层面看,前沿能力扩散可能引发治理标准不一与监管套利,增加跨境协同成本。

对策:以风险为导向完善治理框架,构建可验证、可追责、可控的制度与技术体系。

多方观点指向一个共同结论:仅靠行业自律难以覆盖系统性风险,需要政府、企业、科研机构共同推进“边发展、边治理”。

一是建立更严格的分级分类管理,对高能力、高风险系统实施更高强度的安全评估、红队测试与第三方审计,并对关键能力设置发布前门槛。

二是强化“可控性”设计与部署规范,包括权限最小化、关键场景的人类监督、系统行为记录与追溯机制,避免系统在缺乏约束的条件下获得过度行动能力。

三是加快可靠性验证方法学建设,推动统一评测基准、共享安全事件信息与漏洞通报机制,使安全研究能够跟上工程化部署的节奏。

四是从宏观政策层面提前应对就业与产业结构调整,通过职业培训、教育体系更新与社会保障优化,缓冲技术替代带来的短期冲击,并促进新岗位、新业态形成。

五是加强国际合作与规则对接,在安全评估、模型出口与跨境使用等方面建立更具可操作性的协调机制,减少监管真空。

前景:治理窗口期可能收窄,需在不确定性中抢先布局。

达尔林普尔判断,到2026年末,先进系统可能具备独立完成整日研发任务的能力,并在数学、计算机科学等关键领域形成更强的自我强化效应,推动下一轮能力加速。

若这一趋势成立,政策与社会治理的“反应式”调整将难以满足需求,必须将前瞻性风险评估、关键场景的准入控制、以及可持续的安全研发投入作为长期工程。

与此同时,技术进步亦可能提升科研效率与公共服务能力,关键在于以制度与技术双重约束,确保创新收益不以公共安全为代价。

这一警告反映了当代科技发展中的深层矛盾:技术进步的速度与社会适应能力之间的失衡。

人工智能的快速发展为人类社会带来了前所未有的机遇,但同时也带来了前所未有的挑战。

关键在于,我们必须在充分利用技术红利的同时,建立起与其发展速度相匹配的安全防护体系。

这需要各国政府、科研机构和企业形成共识,加强对先进人工智能系统的理解、监测和管控,建立透明的评估机制,确保技术发展始终服务于人类的长期利益。

唯有如此,才能将技术风险控制在可管理的范围内,为人类社会的可持续发展创造必要条件。