中国工程院院士邬江兴最近在一个大会上聊起了AI时代的网络安全问题。他觉得以前大家都把安全当回事儿,觉得它就是个附属品或者是可以不用选的选项。可现在AI的世界里,安全直接决定了产品的好坏。你想想,买来个东西都不敢用,还谈什么体验呢?到了2023年,AI技术到处渗透,各行各业都离不开它。不过这也带来了不少麻烦,现实和数字世界连在一起了,一旦出事可不是重启就能解决的。比如机器人本该递杯水结果伤人了,后果多严重啊!所以AI的安全性能必须得摆在第一位。 可咋科学检测这些AI的安全性能呢?如果扫描说没漏洞就真的安全吗?邬院士觉得传统办法不灵了,光靠更强的模型去监管不行。他给咱们出了个主意:用一组“弱但专业”的模型来协同监管。就像以专克强一样,通过多主体合作来把关风险。这就像大家商量着来解决问题,还能互相验证结果。基于这种想法,咱们能把不确定的风险控制住,让大家一起守着门,从一开始设计的时候就把安全基因放进去。这样AI系统一开箱就能用得放心了。 据悉这个机制已经在2023年自动驾驶的场景里验证过了。结果挺不错的,智能决策不再光靠一个端到端的“黑箱”模型,而是靠多个主体一起商量着办。这不仅保证了决策可控,还让大模型上车变得更可信了。