我跟你说个事儿,2024年的时候,大家都在用AI聊天,OpenClaw出来以后,那些智能体的表现越来越像真人了,有时候甚至能在论坛上自己跟自己聊天,把人都看呆了。Seedance2.0那个东西更猛,直接把视频做得跟真的一样,搞得大家都分不清AI和真人了。 2月26日那天,360集团的周鸿祎接受了贝壳财经记者罗亦丹的采访。我记得他以前老穿POLO衫,还戴个眼镜。这次看他瘦了不少,也不戴眼镜了,可能是眼睛做了手术吧。他跟记者聊起这些事挺乐观,说要是分不清AI和真人了,说明通用人工智能AGI在稳步实现。 现在很多人觉得大模型就是搜东西用的,深度不够。周鸿祎举了个例子,他搞了个智能体用第一性原理回答问题,结果发现有时候比他还聪明。像OpenClaw这样的智能体虽然看着是在本地跑的,但其实还是得靠云端的大模型来干活。它最大的价值就是让大家看到了好几个智能体怎么一起互动。 单个智能体容易犯糊涂,要解决这个问题有两个招儿。一个是Cosplay,给它设定个专业角色;另一个是让不同的智能体互相审查,就像人类搞学术讨论一样。周鸿祎觉得算力够大的话,咱们能搞出上百亿个智能体。虽然单个的容易错,但一大群人一起干就能产生涌现效应,跟互联网让人变聪明一样。 至于Seedance2.0这种技术,以后大家都能用它生成自己想要的电影结局了。不过也有人担心AI生成的东西太多了会乱套。周鸿祎说技术是中立的,现在已经能通过嵌入隐式数字指纹来识别了,主流平台都能自动标记哪些是AI做的了。