谷歌ai 论文涉嫌造假,内存股票跌到谷底,蒸发了900 亿美元

本周科技界闹出了大动静,谷歌的AI论文涉嫌造假,内存股票一下子跌到了谷底,蒸发了超过900亿美元。谷歌那篇叫TurboQuant的论文原本是个大热门,号称能让大语言模型跑得更快还更省内存。结果现在却被苏黎世联邦理工学院的博士后高健扬团队指出来是抄他们家的成果。 事情是因为TurboQuant这算法用了一种叫KV的东西来压缩内存。第一阶段它用随机旋转加PolarQuant机制把高维向量转成极坐标;第二阶段再拿QJL变换,只用1bit的空间来修正内积计算的偏差。谷歌说这能把内存占用砍到原来的六分之一,速度还能翻倍。可高健扬博士指出,这法子跟他们两年前提出的RaBitQ算法太像了。RaBitQ也是在量化之前给输入向量做随机旋转(也就是Johnson-Lindenstrauss变换),路子一模一样。 高健扬团队在OpenReview平台上放了个话,列出了三条具体的指控。第一,TurboQuant论文根本没提RaBitQ这事,审稿人说了他们相似之后也没搭理;第二,它瞎写了RaBitQ的理论结果,说人家不行却拿不出证据;第三,它测RaBitQ速度的时候用的是个非官方的Python实现,还限定在单核CPU上跑单线程,而自己测自己的时候却用了NVIDIA A100 GPU玩多线程,制造了不公平的对比。 这起风波让大家开始反思学术诚信的问题。谷歌作为AI老大得有点样子。要是真有不端行为,不仅伤了自家脸面,也会坏了整个AI圈的风气。高健扬已经向ICLR那边投诉了。谷歌的第一作者嘴上说会议后会改错误,但死活不承认技术上抄袭的事。 这件事不仅让我们看清楚了行业里的规矩有多重要,也让人开始琢磨大型科技公司该怎么在搞技术的同时守住底线。随着AI技术越来越火,类似的争论可能会越来越多。以后咱们得盯紧这些算法背后的门道,建立起更完善的监管机制才行。 至于内存股这边也跟着遭殃。TurboQuant要是真的管用了,市场对内存芯片的需求预期肯定得变样。现在大家都在等着看最后结果呢。这事儿也让大家更关注AI算法本身了,以后恐怕还会有更多关于算法的争议冒出来。