北大研发智能算力芯片,速度比那些数字芯片快了12倍多

最近咱们国家有一个科研团队在智能算力这块儿有了大突破,专门设计了高能效的计算芯片。现在人工智能可火了,不管是内容推荐还是图像识别,都离不开海量数据的处理。但是,支撑这些应用的硬件基础有点跟不上节奏了。传统的通用芯片处理复杂任务时效率不高,没法满足实时和低功耗的要求。所以现在大家都在琢磨能不能搞点更高效、更专用的计算设备。 这时候北京大学的孙仲研究员团队出手了,他们专门研发了一款针对非负矩阵分解任务的芯片。这个技术很牛,能帮忙解码数据,用在推荐系统、图像分析这些地方特别管用。不过它的计算过程挺复杂,对传统架构是个大考验。 研究团队这次不走寻常路,把眼光投向了模拟计算。他们用阻变存储器阵列搭建了一套紧凑的电路,还弄了个电导补偿技术,搞出了一个专门的求解器。孙仲研究员打比方说,这就像是给这活儿量身定做了一把钥匙,不用再用那种万能扳手了。 这一招改头换面可不得了,让芯片执行核心步骤时能“一步到位”,直接把效率和能耗给优化了。做实验验证后发现,这玩意儿在处理电影推荐系统训练时速度比那些数字芯片快了12倍多。更厉害的是能效比提升了228倍还多,精度也没落下。 这事儿被写进了国际顶级期刊《自然·通讯》,老外们都在看。专家说这工作不光证明了模拟计算能干活儿,更重要的是给咱们突破智能算力瓶颈指了条明路。有了这个高能效芯片,以后在做推荐系统或者训练生成式模型的时候就更方便更省电了。 北大团队的这个成果是我国在底层架构创新上迈出的一大步。这不仅是给AI、大数据产业选了个好的底层硬件,也为咱们应对全球竞争积累了宝贵经验。以后要是把这些研究转化成产业,肯定能催生新的技术生态,推动数字经济发展更上一层楼。