最近啊,中新网北京4月1日电,记者吴涛报道了一个挺有意思的话题:AI幻觉到底有多可怕。咱们平时享受AI带来的便捷,也得小心它给咱们挖坑。2023年这时候,我就觉得挺奇怪的,AI虽然能给咱们带来很多方便,但有时候它胡编乱造的东西让人头疼。比如你让它给你讲个故事,它给你讲的那个“2023年哈佛研究”啊,“诺贝尔物理学奖得主约翰·史密斯”,全是瞎编的。有时候你觉得自己对了它还死咬着不放。 我测试了一下,发现AI面对复杂问题的时候可能会“宕机”或者自相矛盾。有一回我问它一个根本不存在的概念,比如“高数几何睡眠法”,它一本正经地告诉我这是怎么怎么回事,说得头头是道。我还用自己的名字测试了一下结果发现介绍里面的人除了记者是真的,其他全是假的。这种情况挺让人费解的。 这到底是技术问题还是认知演进?互联网行业从业者、58同城CEO姚劲波觉得现阶段的AI幻觉还没到那个危险地步。毕竟互联网上虚假信息一直都有但用户辨别能力也在提高嘛。但科大讯飞董事长刘庆峰就没那么乐观了,他说幻觉不仅关乎真假还可能形成恶性循环。 不过话说回来,有些场景下AI幻觉还能当灵感用呢。游戏开发、动漫设计这些领域反倒是欢迎那种不合常理的奇思妙想。 治理这事儿咋办呢?技术手段正跟得上趟儿。企业现在都在给大模型接入权威知识库或者实时搜索能力,这样生成的内容就更靠谱点。公安部那边也在推动标注AI生成内容的事儿。 中国工程院院士张亚勤也说了幻觉在横向模型里会越来越少但不会完全消失。要想解决这个问题就得用更精准的数据和模型去结合才行。 360集团创始人周鸿祎强调企业模型要对接专有知识库去校正;刘庆峰建议定期清理模型中的幻觉数据;零一万物CEO李开复觉得联网搜索能力很关键但操作起来也不容易因为各家都有自己的数据库、CRM和ERP系统。 政策层面也开始行动了。国家互联网信息办公室、工业和信息化部、公安部还有国家广播电视总局联合发了个《办法》,就是为了让大家区分什么是AI生成的什么不是。《办法》会从2025年9月1日开始施行。 咱们以后还得继续努力突破这些问题啊!