大晓机器人40亿的世界模型“开悟世界3.0”,还把它给开源了

大家可能都注意到了,这个圈子现在正闹得沸沸扬扬。也就是到了2026年这会儿,因为技术一直在往上走,家里的机器人变得越来越机灵,也跟人贴得更近了。宇树科技的头儿王兴兴最近又出来说了一堆,这事儿在圈子里引起不小动静。他觉得,要是想造出能走路能干活的具身智能ChatGPT,世界模型现在可算是成了主流路子。这到底是个啥意思呢?说白了,就是给机器脑袋里塞个“大脑”,让它先琢磨琢磨这么干会咋样,以后再去干。商汤科技的联合创始人王晓刚接着这茬解释了一下,他说这模型能让人的机器人像咱们人类似的,明白物理世界是咋回事儿,然后再去想辙。 跟之前搞视频生成和虚拟现实的学者李飞飞那些不一样的是,现在用的这个世界模型专门管机器人怎么跟真世界打交道。就在去年前前后后,VLA(视觉-语言-动作)模型可是大家眼里的香饽饽。这东西把看东西、懂话、动手全都凑一块儿了,一看到啥直接就能转成动作去做。不过有人觉得这种模式有个大毛病:它不懂物理世界背后的深层次道理。 面对这个坎儿,不少业内大佬开始琢磨VLA是不是不行了。王兴兴也吐槽过说它不太会变通。这回也有企业拿出了新方案——大晓机器人放出了他们40亿参数的世界模型“开悟世界模型3.0”,还把它给开源了。大家一看就知道这是企业界越来越看重这个技术了。这家公司说这可不是随便在那个大语言模型或者视觉模型后头挂个接口就行的,而是真按大自然的规矩搭起来的,就是想把那些只会模仿的老技术给换掉。 那以后的VLA咋办呢?有个不愿露脸的搞数据服务商的创始人猜说以后这俩可能得合一块儿用。王晓刚也点头说觉得短期内大家是一块儿干活的关系。至于以后嘛?也许世界模型会把VLA的本事给吸收进去? 不过话说回来,就算听起来特别厉害,这东西真用起来还是挺费劲的。就好比在电脑上玩得再好也没用,要是真把机器人给装上了那玩意哪怕差那么一点点误差结果都能跑偏一大截。所以说咋让那堆虚拟的视频模型跟真机器对上号、接得住招,还是个挺难啃的硬骨头。 不过好消息是现在越来越多的公司都开始卷进这个行当里头来搞研发了。咱们可以这么想以后的机器人不光脑子灵光还更能随机应变。对咱们平头老百姓来说嘛那就是好日子快来了!