2026年那些非国家行为体用人工智能搞破坏会有啥影响

今天咱们聊聊这份报告,主要是看2026年那些非国家行为体用人工智能搞破坏会有啥影响。这可是清华大学战略与安全研究中心弄出来的,足足有40页厚。报告主要是想看看到了2026年,恐怖组织和犯罪团伙这类非国家行为体是咋滥用人工智能的,还有这对全球安全到底有多大危害。 报告里说啊,现在AI技术挺普及的,像那种大模型谁都能用。恐怖组织只要去弄个开源模型或者通过商用API就能搞到技术。这事儿挺麻烦的,不光把原来的核生化、网络这些老问题给放大了,还弄出了不少新威胁。而且呢,这还让国际安全治理这块变得挺乱的,规范都跟不上,责任也弄不清。 非国家行为体滥用AI的路子主要集中在网络攻击、造假信息搞脑子、玩核生化的活动还有给机器人赋能这几块。特别是大语言模型发展了以后,他们搞极端宣传、渗透思想和策划恐怖行动都变得更容易了,成本也降了不少。 开源和闭源的AI模型技术特点还加剧了技术扩散的风险。国际社会也慢慢形成了共识,就是不能光盯着好的或坏的一边看,得给风险分级慢慢来解决。 报告还分析了这些家伙能这么干的主要原因:一是技术扩散太快但管理跟不上;二是安全治理这块是两难选择;三是因为他们干这事成本低但收益高。 针对这些问题呢?报告提了一些办法:国家层面得搞多元共治的治理体系,通过法律、测试、监测这些手段把防线守好。中国在这方面已经有了一套模式了。国际层面呢?得搭建协同治理的框架,大家一起分享风险信息。 最重要的是中美这两个AI技术领先的国家得合作起来啊!双方在防范非国家行为体滥用AI上确实有共同的安全担心。咱们可以重启政府间对话、拓展多边机制,还得依托联合国这个大框架来推动全球治理。 除了大国合作外还得注意到全球南方国家的能力建设问题。大家得把技术鸿沟给弥合了,一起应对这种跨国性的全球安全挑战。下面就是报告的节选内容了。