哎,这可不是闹着玩的,我刚才给你翻了翻那份2026年的报告,讲的是非国家行为体滥用AI对国际安全的冲击,清华大学战略与安全研究中心这次真的是操碎了心。咱们先不聊那些高深的,就说这个大语言模型吧,它现在这么火,好处和坏处全都摆在那了。以前那些恐怖组织想搞事情,没点真本事根本搞不定,但现在不一样了,他们只要用个开源模型或者商用API,就能轻松学会怎么干坏事。这种低门槛让高风险的活动变得更容易,甚至连极端宣传和恐怖行动的策划都成了便宜事。我跟你说,这些非国家行为体滥用AI的路径可不止网络攻击一种,虚假信息、认知操控、核生化相关的活动,还有自主系统赋能,哪样他们没尝试过?这下好了,核生化、网络、认知这些领域的老问题被放大了,还催生出一堆新的安全威胁。更让人头疼的是,他们这么搞直接冲击了国际安全治理制度,搞得规范跟不上、责任分不清、合作也变得淡了。 你再看背后的原因也挺有意思,主要就是技术扩散太快但治理跟不上。现在谁要是有个不错的AI技术想卖钱或者开源分享,那简直就是把双刃剑。安全治理这边总是左右为难,想管又觉得难下手;另一方面这些滥用行为对他们来说成本低收益高,谁能不心动?为了应对这个局面,报告里也没少提招儿。国家层面得构建多元共治的体系,法律政策要完善起来,风险测试和监测预警也不能少。咱中国这边现在不就已经搞起了政府监管、企业责任、行业自律还有公众监督那一套了吗?国际上也得搭起协同治理的框架。 不过呢,我觉得最关键的还是中美这两个AI技术的领头羊得好好合作一下。双方在防范非国家行为体滥用AI上可是有共同安全关切的。咱们可以试着重启政府间的对话啊,多拓展多边机制,还得依托联合国这个平台来推动全球治理。把双边的共识变成广泛的国际合作才是正事儿。当然了,还得关照关照全球南方国家的治理能力建设问题。只有把技术鸿沟给弥合了,咱们才能一起对付这个跨国性的全球安全挑战。毕竟到了2026年谁也不想看到AI被坏人给糟蹋了吧?