硅谷搞出的Cursor工具最近闹了个大新闻,被大家扒出它所谓的“自研”Composer 2模型,其实是直接套了个国产的Kimi K2.5,连名都没改,结果创始人Aman Sanger不得不出来跪地道歉,这事在圈子里炸锅了。事情起因是技术爱好者在查系统日志时,一眼就看出了那是个“Kimi K2.5”,而Cursor之前吹得凶,说那是自己从零开始用预训练和强化学习搞出来的“革命性产品”,甚至敢跟Claude Opus 4.6这些大佬比。一开始Cursor想捂盖子,封锁了日志查看,可还是晚了。月之暗面的那几个哥们不干了,技术负责人杜羽伦把分词器一拆,发现跟Kimi的架构完全是一个模子里刻出来的;联合创始人周昕宇也说,根本没收到过授权申请。结果24小时内剧情大反转,月之暗面删了所有推文,改口说模型是在FireworksAI平台上花钱买的。Aman虽然承认是“文档疏漏”,但对于“到底是不是自己搞的”这种核心问题一直含糊其辞。 大家这时候仔细一扒,发现的疑点更多:Composer 2那个CoT输出里老是蹦出中文句子,这跟Kimi那个中文优化的特点对上了;而且它的架构参数跟智谱AI的GLM很像,后者用的是MIT协议,不强制要写名字。这下子大家都在讨论“套壳”的边界到底在哪。行内人都说这事儿挺难办的。对初创公司来说,从头训个代码生成模型得烧几千万美元,还得不停地砸钱维持领先。在这种压力下,拿开源模型改改成了常态,但怎么在商业创新和学术规范之间找个平衡,成了个新难题。 其实类似的情况以前也有过。今年日本乐天集团刚推出Rakuten AI 3.0没多久就被人发现是基于DeepSeek-V3改的,刚开始还故意藏着掖着不告诉别人协议咋回事。这些例子说明,现在中国的AI模型越来越厉害,技术影响力正通过这种方式悄悄地向全世界扩散呢。