2026年后,ai 视频赛道的尽头到底在哪里?现在谁也给不出确切的答案?

2024年3月31日,爱诗科技把新一代视频生成模型PixVerse V6推了出来。就在这个模型发布的前一周,OpenAI把Sora的服务给关停了,把研发重心都转向了具身智能和机器人系统。从2024年刚开始的时候惊艳亮相,到2025年正式上线,再到现在关停,前后也就两年的时间。虽然OpenAI说是因为算力成本太高而且商业化路数不明朗才这么做,但实际上这也给整个AI视频赛道泼了一盆冷水。不过有意思的是,行业里的热度反倒没有降下去,反而出现了更多不一样的竞争。 比如快手的可灵3.0,早在2026年1月就全量开放了,它的动作控制3.0号称能比得上专业的动捕技术,而且在Artificial Analysis最新发布的榜单上还排到了第一。这个可灵的商业化表现确实挺亮眼,2026年1月的时候年收入就已经超过了3亿美元。快手的创始人程一笑还预计说今年的收入还能再翻倍。Runway那边在2026年1月发布了Gen-4.5后,又在3月底推出了Multi-Shot App。这个App可以让AI视频不再只是生成单镜头的画面了,它能自动把多镜头的短片剪辑出来。现在Runway的估值已经达到了53亿美元。 谷歌的Veo 2也很不错,它在理解物理世界这方面表现挺好的。这个模型支持4K分辨率,还能生成超长分钟级的视频。关于AI视频以后到底要往哪个方向走?现在行业里大家的想法不太一样。Sora退场后OpenAI转向了更大的“物理AI”路子。英伟达也在推动把生成画面升级为生成可行动的3D世界。但还有像生数科技、Runway这样的公司从视频模型出发,先让模型去理解物理规律再去预测动作。PixVerse V6这次技术上的突破说明,至少短期内让AI更好地模拟物理常识是一条能走得通的路。 不过这到底是通往“世界模型”的正路,还是只是通往更高阶智能的一个中间步骤?现在还很难说清楚。可以肯定的是当模型开始理解光线、运动还有重力这些东西的时候,AI视频就不再是简单地把像素拼接在一起了。它正在慢慢走向对真实世界的模拟和理解。这条路的尽头到底在哪里?现在谁也给不出一个确切的答案。