苹果把一项全新的ai 训练框架拿出来给大家看了,名字叫rubicap。

苹果把一项全新的AI训练框架拿出来给大家看了,名字叫RubiCap。苹果公司和威斯康星大学麦迪逊分校一块弄的这个玩意儿,专门用来教AI怎么看懂图像和描述细节。 以前大家做图像标注,要么请很贵的人干活,要么就用那种容易出错的大模型。苹果的研究团队这次搞了个不一样的强化学习机制来解决问题。他们先用GPT-5和Gemini 2.5 Pro这两个模型给图像随便写几句话,然后让Gemini 2.5 Pro去定打分标准,最后派Qwen2.5出来当裁判给个分。这种有结构的反馈能让模型自己知道哪儿错了、该怎么改,这样用小一点的参数就能把活干得漂亮。 基于这个框架弄出来的RubiCap系列模型参数挺多的,有的有20亿,有的有70亿。测试结果挺让人吃惊的:那个70亿参数的版本在盲测里排第一,它犯的那种瞎说八道的错误(叫幻觉)甚至比参数高达7200亿的大型模型还要少。更绝的是,那个只有30亿参数的迷你版,在有些指标上居然比70亿的还好用。 背景补充一下:苹果公司是家全球有名的科技公司,在搞设备端的AI上投了不少钱。威斯康星大学麦迪逊分校在计算机科学这块很厉害。GPT-5是OpenAI正在研发的下一代语言模型。Gemini 2.5 Pro是Google搞的那个多模态大模型。Qwen2.5是阿里云的通义千问系列之一。 关于这个幻觉(Hallucination),说白了就是AI生成了一些根本不靠谱、跟实际情况对不上的内容。