阿里通义发布全球首个支持影视级多场景配音的多模态大模型

AI终于有了感情说话的能力,AIGC让图像和文字领域都翻了天,影视行业最后一个人工壁垒——配音也被阿里通义实验室给攻破了。3月16日,通义实验室发布并开源了全球首个支持影视级多场景配音的多模态大模型Fun-CineForge,把AI的刻板印象给彻底撕碎了。Qwen3-Omni之后,Fun-CineForge是阿里通义家族的新成员,这款模型通过数据和模型一体化设计,把影视中复杂的语境、情感起伏和环境音还原得相当细腻,让AI学会了像人一样表演。开源的属性给视频创作者带来了很大的便利,能以极低的成本完成跨语言译制。这次发布不仅仅是简单地推出一个工具,更是预示着影视翻译和后期制作逻辑要被重新书写。数据集构建方案也一并开源,Fun-CineForge还能帮助中短剧甚至个人创作者提升作品质量。CineForge支持多场景配音和口型同步,让AI不再是机械的播报机器。Fun-CineForge把“数据+模型”这一招运用得炉火纯青,用革命性的方式让AI理解影视作品的复杂性。 Omni系列还在不断扩展功能边界,这次Fun-CineForge的出现把影视级AI普及风暴给带起来了。