印度Sarvam这家AI实验室给大伙带来了个大惊喜。在2026年的人工智能影响力峰会上,他们正式放了两款自家搞的MoE架构大语言模型。这下可好了,这就意味着印度在生成式AI这块有了大进展。而且他们说了,等代码和权重开源到HuggingFace上,不光能白嫖代码,API接口和可视化仪表盘这些东西也在紧锣密鼓地准备呢。 这俩模型是给不同的干活场景设计的。轻量级那个有300亿参数激活,总共10亿个参数,16万亿个token的数据集喂给它练手。它特别适合那种得实时回话的活儿,窗口能开到32K这么宽。 另一款旗舰机就更猛了,1050亿参数激活,90亿个参数总量。能处理128K这种超长上下文的活儿,各种复杂推理还有跨领域的知识整合都不在话下。 成绩也很亮眼啊。Sarvam实验室公布的测试数据显示,在印度本土语言基准测试里,这款旗舰模型把谷歌的Gemini2.5Flash都给比下去了。 在多语言混合的跨模态任务里更是领先DeepSeekR1很多地方。在某些特别垂直的领域里,它的性能居然是GeminiFlash的1.3倍那么夸张!研发团队特意强调,这些模型针对南亚语言的特点进行了深度优化。特别是在方言处理和语境理解上有独特的优势。 这下子大家可得重视起来了。Sarvam这一下可把印度在全球AI领域的存在感拉高不少。以后肯定会有更多人关注它们也愿意跟它们合作。