杨立昆搞大语言模型,让ai像人类一样去观察视频、感受物理世界的交互数据,再加上语言信息来理解现实

最近呢,行业内不少人都觉得,现在大家总在讲的那种大语言模型发展方式,可能已经走到头了,得换个新路子试试。杨立昆博士,这位搞人工智能特别出名的专家,最近在国际媒体上也说了实话。他认为把所有希望都押在让模型变得更大更复杂上,根本就是一条死胡同。杨博士以前在Meta干了好多年首席人工智能科学家,这次他这么讲,其实也把他跟老东家现在的想法冲突给曝光了。Meta公司里有人反对他这么说,毕竟大家都在按这条路走嘛。 不过杨立昆是个硬骨头,他觉得科学得讲究事实。他分析Meta现状的时候,重点吐槽了领导层和战略重心。特别是对那个新来的首席人工智能官亚历山大·王(Alexander Wang),他给的评价挺有意思:一方面觉得这人学得挺快;但另一方面也觉得这人在带前沿研究团队方面经验还差点火候,没怎么真正搞懂那帮做核心研究的人心里咋想、咋干活的。亚历山大·王以前是Scale AI的联合创始人,后来因为公司部分资产被Meta买了才进的管理层,现在正管着AI研究部门呢。杨立昆这么一说啊,就把硅谷那些创业型精英和大公司管理风格之间的紧张感给暴露出来了。 更狠的批评是针对整个Meta的策略转变。杨博士说,“Llama 4”那个模型搞出基准测试争议后,马克·扎克伯格对相关团队不太信任了,把负责生成式AI的部门给重组了一遍。现在公司完全转到大语言模型这边了,还招了不少人进来加强这块。可他觉得这事儿不靠谱——大语言模型太依赖海量的文本数据来训练,在逻辑推理、事实一致性这些地方有硬伤,面对复杂的多模态信息和做可靠的决策时也有困难。 他批评Meta研发策略太保守了,就喜欢选那些“安全且验证过”的方案,却忽视了那些更有突破性的创意。长远看啊,这样下去可能会落后于人。杨博士说得很直白:不能简单认为数据越多算力越大AI就越聪明。他这话其实是在挑战大家脑子里那种“规模至上”的老观念。 跟他一起搞科研的Nabla公司那边也有类似的发现:跟传统语言模型比起来,新一代模型必须得克服“幻觉”和非确定性推理这些老毛病才行。 除了批评外,杨立昆还提了个建设性的法子——他自己开了个先进机器智能实验室(Advanced Machine Intelligence Labs),专门搞一种叫“世界模型”的技术。这就是想让AI像人类一样去观察视频、感受物理世界的交互数据,再加上语言信息来理解现实世界是咋运行的。这种思路是想让AI不只是学语言之间的关系,而是去学世界运作的底层逻辑,这被认为是通向更通用、更靠谱的自主智能的一条路。 对于Meta那种疯狂招人搞大语言模型的做法呢?杨立昆表示历史会给出答案。他坚信那条通往超级智能的路肯定得另找一条新道走才行。 这场顶级科学家的争论可不只是公司内斗那么简单了。它逼着整个行业都得反思:咱们在拼命搞大模型、追求短期应用的时候,到底要不要对AI的底层架构和学习方式进行一场更深刻的革新呢? 杨立昆直言不讳地说话就像一面镜子啊。它照出了AI浪潮下技术路线怎么选的纠结,还有背后的商业现实。他的话是个警示:咱们在追热点的时候啊,心里还得留个心眼儿去琢磨那些最基础的科学问题。 从大语言模型到“世界模型”,其实就是从“大数据拟合”向“理解与推理”这两种不同阶段的追求演变过程。这场争论不光是评判某家公司或者某门技术行不行那么简单了;它更是推动整个行业生态以更开放、更多元的方式去探索机器智能到底有多深的边界。 人工智能的未来到底是啥样?就在这不断的碰撞和反思当中逐渐变得清晰起来咯!