联合国组建全球人工智能治理科学专家组 中国两学者入选彰显国际话语权

问题——人工智能技术加速演进,正重塑全球经济结构、公共治理方式与社会信息生态,同时也带来安全、伦理与发展不均衡等多重挑战。近期生成式技术在内容生产、知识检索、软件开发等领域的能力跃升,使其从“工具性技术”快速走向“基础性能力”,对就业结构、教育体系、舆论传播、网络安全乃至国际竞争格局产生外溢效应。面对该趋势,如何在鼓励创新与防范风险之间建立可执行、可协同的治理框架,成为各国与国际组织普遍关注的现实议题。 原因——一是技术迭代速度与治理规则生成速度不匹配。涉及的模型能力扩展迅速,但对其可解释性、可靠性、偏差与滥用风险的评估仍存在方法与数据上的不足。二是跨境属性强,单一国家或地区难以独立完成全链条治理。人工智能产业链、数据流动与算力供给高度全球化,风险同样具有跨境传导特点。三是社会信息环境更易受到冲击。深度合成内容降低了伪造成本,可能造成虚假信息扩散、公众信任受损与社会治理成本上升。四是发展差距问题凸显。部分国家和地区在算力、数据与人才上的基础薄弱,若缺乏国际协调与公共产品供给,数字鸿沟可能更扩大。 影响——联合国拟设立的“人工智能问题独立国际科学小组”——旨以科学评估为基础——系统梳理人工智能对全球民众生活的改变,并为国际讨论提供相对中立、可比对的知识框架。联合国秘书长古特雷斯指出,人工智能正以“光速”发展,亟须形成共识、构建有效防护栏,以在释放创新动能的同时减少风险外溢,并推动国际合作。该表态反映出联合国在这一议题上的定位:一上强调以科学证据支撑治理,另一方面强调以多边机制促进规则协调,减少“各行其是”带来的监管碎片化。此次公布的40位候选人名单涵盖不同地区与专业背景,女性19人、男性21人,既反映了多样性导向,也显示该小组将把技术、社会与传播等维度纳入讨论。 对策——从国际实践看,推进人工智能安全治理需要形成“技术评估—风险分级—规则协同—能力建设”相衔接的路径。其一,以科学评估为前置,完善模型可靠性、稳健性、安全性与社会影响评价方法,提升可审计与可追责水平。其二,坚持风险导向与分级分类管理,对关键领域应用建立更高标准的安全要求与测试机制,同时避免“一刀切”抑制创新。其三,强化跨境合作与信息共享,在模型滥用识别、深度合成内容治理、网络安全防护等领域形成可操作的协作机制。其四,重视发展中国家的能力建设,通过人才培养、技术普惠与公共基础设施合作,提升全球整体治理能力,避免治理规则成为新的壁垒。此次候选名单中两位中国科学家的入选,表明中国科研与产业界的相关积累与国际影响力正在被更多多边平台关注,也为在技术评估、云计算基础设施与产业应用等方向贡献专业意见提供了窗口。 前景——人工智能治理的关键在于把握“创新向善”的主线,将安全、伦理与发展置于可持续框架之中。预计未来一段时期,围绕生成式技术的内容可信、数据合规、知识产权、算法歧视与关键基础设施安全等议题,仍将是国际讨论焦点;同时,技术演进将推动治理工具升级,例如更成熟的评测体系、更系统的溯源与标识机制、更精细的行业规范。联合国层面的科学小组若能形成权威、透明、可复用的评估成果,有望为各国政策制定与企业合规提供参照,推动形成兼顾安全与发展的国际公共认知,并在一定程度上减少误判与对立。

作为影响人类未来的关键技术,AI的发展需要全球协作与科学指引;联合国成立专家小组反映了国际社会的远见卓识。中国科学家的参与既是对全球治理的贡献,也展现了中国智慧。在这场科技变革中,我们期待通过国际合作与共识,推动AI朝着更安全、更普惠的方向发展。