谷歌放了个新玩意儿,gemini 3.1 flash-lite,首字响应快了2.5倍

谷歌最近放出来了个新玩意儿,Gemini 3.1 Flash-Lite,首字响应快了足足2.5倍。AI这块最近可热闹了,谷歌推出的这个轻量级模型,性能提升挺猛,每百万输入只要0.25美元,还能支持多模态理解和逻辑推理,还能自己调“思考深度”,效率和精准度两手抓。Google AI Studio还有Vertex AI平台都能直接体验,开发者和企业用户用起来挺方便。价格这块,谷歌为了让大家用得起,给了个挺有竞争力的定价:每百万输入Tokens只要0.25美元,输出则是1.50美元。性能上也没含糊,Artificial Analysis的数据显示,跟之前的2.5 Flash比起来,新模型首字响应速度直接翻了一倍多,整体速度也提升了45%。这种低延迟特性特别适合做实时响应的项目。这次测试下来,3.1 Flash-Lite在各项能力上表现都不错,在Arena.ai排行榜上得了1432分的Elo分,在多模态理解还有逻辑推理方面更是吊打同级对手。具体到各项测试指标,GPQA Diamond拿到了86.9%的高分,MMMU Pro也有76.8%,甚至有些地方还超过了上代的2.5 Flash模型。除了数据厉害,这个模型还在AI Studio还有Vertex AI里加了个“思考层级”的功能。开发者用它的时候可以灵活控制模型处理任务时的思考深度。 处理像翻译、审核这种对成本敏感的活儿的时候调低一点,追求速度;要是做界面生成、数据看板或者复杂模拟这种重活儿,调高一点,让模型深度思考一下。Latitude、Cartwheel和Whering这些公司已经把3.1 Flash-Lite部署到了实际的业务场景里了。反馈说效果挺不错,处理速度快还能处理复杂指令。