在全球人工智能技术迅猛发展的背景下,国际社会对建立有效治理机制的呼声日益高涨。
2025年8月,联合国大会通过决议,决定设立“人工智能独立国际科学小组”及配套对话机制,以协调各国行动,促进技术健康发展。
当前,人工智能技术的快速迭代已超越单一国家的监管能力。
技术鸿沟加剧国际不平等,算法偏见、数据安全等问题威胁全球稳定。
古特雷斯在记者会上强调:“任何国家都无法独自应对这一挑战。
”科学小组的组建,正是为了整合全球智力资源,为政策制定提供客观依据。
该小组40名候选人涵盖机器学习、数据治理、公共卫生、人权等关键领域,其独立性将确保评估结果不受特定国家或企业影响。
分析指出,这种跨学科、跨地域的专家配置,有助于平衡技术创新与社会伦理,防范技术滥用风险。
值得注意的是,科学小组的成立恰逢地缘政治紧张与技术竞争加剧的特殊时期。
多国在人工智能标准制定、数据主权等问题上存在分歧。
联合国此举旨在搭建基于科学的对话平台,通过共享研究成果,减少误解与对抗。
专家认为,这或将成为破解“技术冷战”困局的重要尝试。
展望未来,科学小组预计将于2026年初正式运作。
其首要任务包括:建立人工智能影响评估框架、制定风险预警指标、提出缩小数字鸿沟的具体方案。
联合国开发计划署前官员表示,该机制能否成功,取决于成员国能否将科学建议转化为实际行动,以及私营部门能否积极配合。
人工智能的全球性影响决定了治理不可能是“各自为战”的竞赛题,更像一场需要共同作答的系统工程。
以独立科学评估为基础、以对话协商为路径,有助于在不确定性上升的时代为创新设定安全边界、为合作提供共识支撑。
能否把科学共识转化为可执行规则与能力建设成果,将成为检验这一机制价值的关键,也将影响人工智能能否更好服务可持续发展与普惠目标。