日本最大的ai 模型,结果底层却是用了deepseek v3?而且还把mit 许可证给删掉了,这操作简直让人无

说实话,3月17日那天,乐天公司在宣布自家的Rakuten AI 3.0的时候,心里大概是有点虚的。毕竟按照日本网民的反应来看,这事儿搞得挺难看。说是日本最大的AI模型,结果底层却是用了DeepSeek V3?而且还把MIT许可证给删掉了,这操作简直让人无语。他们在开源社区Hugging Face上的资料里,明摆着写着用的是DeepSeek的技术,结果正式文稿里只字不提,非要把责任推给“开源社区的最佳模型”。程序员们哪肯吃这一套,直接把这事儿捅到了平台上。这种遮遮掩掩的做法,确实让人看着不舒服。你看现在补上的许可证文件,居然比前后的其他文件晚了十几个小时才上传,MIT许可证本来是非常宽松的授权协议,只要保留版权声明就行。结果乐天自己的模型倒是按Apache 2.0免费发布了,反而把别人的MIT许可证给删了?这就有点说不过去了吧。 很多日本网友看到这一幕都炸锅了,有的人心里过不了用中国模型这道坎儿,还有人又开始炒作安全问题和立场问题。其实那个叫Ting Cai的首席AI和数据官,还是个在美国留学工作过后来移民到日本的人。现在日本反移民情绪挺高的,他面对这种局面估计也挺难办。 至于性能这块嘛,本来大家觉得乐天AI赢麻了。比如在MMLU测试里,原本乐天的成绩是71.7,结果后来更新的数据显示,GPT-OSS-Swallow-120B-RL-v0.1居然达到了77.5;MATH-100测试里更是从70.5飙升到96.0。甚至还有一个叫ABEJA QwQ 32b的模型也在MATH-100上把乐天给反超了。你看那个数据图就知道,这回乐天可真是“翻车”翻得彻底。 其实深seek模型本身的技术实力确实很强悍,不然的话乐天也不会去用它的架构。不过说到开源精神和企业信誉这块儿……哎,只能说这个案例挺让人反思的。我听说这个项目是日本经济产业省和NEDO联合发起的GENIAC项目的一部分。如果是花了1200亿日元的公共资金搞出来的东西被这么折腾一遍……估计以后再想在日本国内获得信任可就难喽。