就在昨天,AI编程工具Cursor把自家的新模型Composer 2发布了出来,号称编码能力更强、价格更实惠,打算在Claude、GPT-4这些对手面前再站稳脚跟。结果才发布没多久,这模型就被扒出疑似是个“套壳货”。事情是从一个叫Fynn的开发者那儿引爆的,他在看Cursor的API请求时发现,Composer 2调用的模型ID其实是kimi-k2p5-rl-0317-s515-fast。看这名字不难猜:“kimi-k2p5”就是月之暗面的Kimi K2.5,“rl”是强化学习,“0317”可能是时间点,“s515-fast”是针对速度的优化版。 这消息一出,社区立马炸了锅,大家都在猜这是不是直接挪用了Kimi的模型。后来月之暗面那边的预训练负责人Yulun Du也在X上证实,分词器跟Kimi完全一样,还质疑Cursor没付费也没按规矩办事。到了晚上,Cursor的AI教育负责人Lee Robinson出来回应,承认确实是拿开源模型起步的,但未来会做完整的预训练。他还说Composer 2的计算量里只有四分之一来自开源的老模型,剩下的都是自己训出来的,这才造成了评估结果有很大差异,而且他们也是遵守协议的。 最后这场“套壳”风波终于在今早划上句号。联创Aman Sanger发了长文解释了一下Composer 2的底细。他说最初验证发现Kimi K2.5很强劲,所以他们就拿它当基础模型继续预训练和做强化学习(规模扩大了4倍),再加上Fireworks那边的推理和采样器,这才做出了Composer-2这个成果。他承认一开始在博客里没提基础模型是他们的疏忽,下次会补上这个信息。 看到事情闹大了,Kimi那边也赶紧出来表态祝贺了Composer 2的发布。他们说能做基础模型挺自豪的,看到自家模型通过Cursor的持续预训练和高强度强化学习被用好,正是他们支持开源生态的初衷。备注里还特地说明:Cursor是通过FireworksAI_HQ托管的平台来访问Kimi-k2.5的,这是双方的授权商业合作安排。