最近有个消息,谷歌出了篇论文,说能把AI大模型运行时的键值缓存压缩到原来的六分之一以下,存储芯片的股价因此大跌。大家都觉得这篇论文很厉害,有人还把它和谷歌之前的DeepSeek相提并论。不过很快就有人提出质疑,苏黎世联邦理工学院的中国博士后高健扬发了个帖子,说谷歌的TurboQuant跟他2024年发表的RaBitQ非常像。 高健扬在2021年本科毕业于北京师范大学数学系,2025年获得新加坡南洋理工大学博士学位,后来去了苏黎世联邦理工学院做博士后。他对RaBitQ这个项目研究了两年,发表了两篇顶会论文,代码还全开源。他指出TurboQuant和RaBitQ都用了随机旋转变换做向量量化,方法结构很一致。 高健扬在3月27日发了帖子,说谷歌没在论文里讨论两者关系,还把他的研究贬低为次优。更糟糕的是,这些问题他早就通过邮件告诉谷歌团队了,对方虽然承认部分错误,但只是说会议结束后再修一下。从2025年5月开始,高健扬团队多次发邮件沟通谷歌还是只修部分问题不承认相似性。 因为谷歌论文传播很广,高健扬担心错误研究变成共识,所以选择公开证据和时间线。他的目的是让学术记录准确反映各方法的真实关系。扬子晚报/紫牛新闻记者宋世锋报道了这个事件。