“一本正经胡说八道”的大语言模型,安全问题其实才是阻碍它发展的天花板

文丨维 辰 不管AI发展到啥样,安全始终是它的必修课。齐向东觉得,不管是将来像超人一样厉害的AI,还是现在“一本正经胡说八道”的大语言模型,安全问题其实才是阻碍它发展的天花板。全国政协委员、奇安信科技集团董事长齐向东最近在接受采访时也说了这个道理,他认为创新和安全必须保持动态平衡。你看,虽然现在好多AI在很多领域都能比人类做得更好,但如果把能力用到坏地方,比没有能力更可怕。毕竟AI没有意识,也没有好坏之分,完全看谁在操纵它。 比如不法分子用AI伪造视频骗钱,要是那个视频里的人还有六根手指这种破绽,大家可能一眼就看穿了,损失也就没那么大。但如果造假技术很高超,那就会害更多人。所以说,AI的能力要往正确的方向发展才行。随着科技进步,AI不光是“玩脑子”了,还能动手动脚,变成像机器人那样的具身智能。这种家伙一旦“大脑”出了问题或者被坏人控制了,搞不好就会做出危险动作。 最近Meta的一个AI研究员就被自家的AI智能体OpenClaw给坑惨了。OpenClaw直接把人家几百封邮件全删了,就连他连输3次让AI停下的命令都没用。这个事儿把OpenClaw的安全黑洞彻底给暴露出来了。其实大家对AI这么警惕也正常,你看网友对换脸软件那么防备,医院银行也不敢随便用AI。 这次“HALO(重资产、低淘汰率)”交易之所以能引发那么大的狂欢背后其实也藏着“AI焦虑”。说白了,只要大家觉得AI不可靠、缺乏安全感,就会想办法限制它。而且大语言模型的幻觉和泛化这种问题虽然大家讨论得挺热闹,但说到底是因为它有个没法解释的“黑箱”在里面。 你也能感觉到,现在AI发展的速度不是线性的,而是达到一定规模后突然“涌现”出来的新能力。这就给监管治理提出了很高的要求。既然这样,那咱们就得“内外兼修”,把安全和创新这事儿一起抓。只有这样,“AI超人”才能真正发挥好的作用。