华盛顿大学开发出开源的语言模型

中新网北京2月5日电(记者孙自法)国际知名学术期刊《自然》新发表的一篇论文显示,华盛顿大学的Akari Asai、Hannaneh Hajishirzi和他们的团队给科学家们带来了好消息:他们开发出一款开源的语言模型OpenScholar,它在帮科学家进行文献综述的时候,准确度已经追上了人类专家,超过了很多商用的大模型。 论文指出,之前像GPT4o这样的模型经常犯“引文幻觉”的错误,大概有78%到90%的时候都会搞错来源。而新搞出来的这个OpenScholar就不一样了,它犯错的概率大大降低。虽然现在还需要再打磨打磨,但这个AI工具已经很有希望帮科学家处理那些又复杂又多的文献任务。 大家都知道,文献综述对科研特别重要,能帮着做决策、搞研究、找新发现。但现在的论文太多了,谁也看不过来。大语言模型虽然能帮忙,但就是容易出错,主要是归因不太准,还有那个“引文幻觉”让人头疼。 为了解决这些问题,Akari Asai他们把之前用的检索增强语言模型框架拿了出来,再给它配上一个4500万篇最新开放获取论文的数据库,还加上了一套自我评估的机制。这么一来,模型输出的内容就变得又准又全,还很透明。 为了测一测这套系统到底行不行,他们还专门弄了个叫ScholarQABench的基准工具来做评估。结果显示,OpenScholar的准确率比GPT4o高了6.1%,比另一个工具PaperQA2也高了5.5%。更厉害的是,在50%到70%的情况下,这个模型生成的答案比专家写的答案还要更有用。 这些数据证明OpenScholar确实很管用。论文作者也没忘记提醒大家,这个系统还是有局限的,完全自动化还做不到。所以他们把ScholarQABench和OpenScholar都给学界放开了,就为了鼓励大家继续研究和优化它。