各位好,我给大伙儿讲讲最近闹得挺欢的事儿。最近媒体搞了个测试,想看看咱们常用的这些AI聊天机器人到底有多灵光。结果挺吓人的,主流的几个大模型表现都不咋地,根本分不清视频是真的还是假的。像OpenAI自家的ChatGPT和Sora就犯了错,把自家做的假视频都没认出来,特别是ChatGPT,居然错了92.5%。再看Google的Gemini和xAI的Grok,也都不太行,Grok的失误率最高,高达95%,哪怕是表现稍好的Gemini也有78%的概率认不出这是AI生成的。 这说明啥?说明现在的AI技术是把生成做得太好了,反倒把鉴别的能力给落下了。大家都忙着造逼真的视频呢,结果连这些工具自己做出来的东西都傻傻分不清。为了应对这事儿,OpenAI公司也想了招儿,在Sora生成的视频里加了动态水印。可谁能想到呢?水印这招根本没用多久,网上就有免费工具能把它给去除掉。就算没去除水印,测试下来发现,大部分模型还是看不出来这是假视频。 还有个问题更让人头疼。现在大家都想用那个叫C2PA的行业标准来标注元数据,好当“数字指纹”。可这办法也不靠谱啊!要是换个下载方式,元数据可能就丢了。更夸张的是,有时候机器人明明看到了溯源信息,居然能说没看到。更可怕的是,当这些AI系统遇上自己都搞不清真假的东西时,它们经常会瞎猜,甚至自己编出不存在的新闻来源来忽悠人。比如有一段说巴基斯坦要把战斗机交给伊朗的视频是假的吧?结果有模型硬说这是个叫“Sora新闻”的机构发的——谁听过这名字啊?这完全就是在胡说八道! 这种“幻觉”现象特别危险。本来就是假的视频被AI一加工就变得更有说服力了。你想啊,本来就不可靠的消息被AI这么一背书,传播得肯定更快。之前Newsguard也记录过类似的情况:有个AI助手居然把一段描述美国警察抓小孩的假视频当成真的了,还编了个假新闻来源来骗人。 这些事儿说明啥?说明现在的技术发展太快了,“矛”和“盾”没跟上啊!咱们要是只追求生成内容有多逼真、多好看,而忽视了怎么去鉴别真假的能力提升,那这技术反倒会变成散布虚假信息的帮凶。这就好比造了一把刀很锋利结果却没磨刀石给它磨快了一样。 所以啊,技术企业必须把重点放在怎么保障内容安全和真实性上。得赶紧投入资源去研究怎么做好鉴别这块短板。除了技术界自己要发力以外,这事儿还牵扯到平台责任、行业标准、公众素养和监管框架等一大堆事儿。咱们得形成合力才能把这个不健康的信息环境给治一治。 总之这次测试就像是一面镜子照出了主流AI的大问题:识别假视频的本事太差劲!这提醒咱们在享受技术红利的同时得保持警惕。确保AI技术朝着好的方向发展、建设清朗的网络空间可不是一句空话——这是咱们必须同步解答的时代命题!