云端算力的依赖打破了,这就给ai 技术走向大众铺平了路

AI手机行业发展到这个阶段,靠的就是大模型在终端上的快速落地,这就好比是软硬件正在进行一次硬卡位置的较量。现在的模型,不管是图像分类还是自然语言处理,都比人类还要强,这还不算,模型规模扩大还让它有了理解人类指令的本事。再加上模型被压得更轻,能效也高了,让终端的部署门槛一下子降了下来,推理成本也低了很多,把对云端算力的依赖给打破了。这就给AI技术走向大众铺平了路。 市场上的新品像AI PC、AI眼镜还有AI手机,层出不穷。像字节跳动的豆包AI手机和Ola Friend AI耳机,就成了端侧AI的代表,让用户在本地就能实现智能交互,后台还能自动干活。做模型的大厂也意识到这一点,都把把硬件布局当成了核心战略,OpenAI、谷歌、阿里这些巨头都开始搞软硬一体的生态了。OpenAI前段时间收购了IO公司,这一下就把行业的节奏给带起来了。 照这个趋势看,AI终端品类的增长势头很猛。2025年AI眼镜的销量要爆发,生成式AI手机的渗透率也会持续走高。拿5G升级来举例就知道了,AI终端以后很有可能带动硬件多个环节的价值量提升。有了端侧AI,用户体验上去了,出货量估计也会跟着涨。Canalys预测到2025年AI手机渗透率能达到34%。5G时代是因为连接红利才让射频这些环节价量齐升的,AI终端这次也能复刻这个路线。 具体到芯片这块,SoC设计早就变了样,从以前CPU和GPU双核驱动的模式,变成了现在的“CPU+GPU+NPU”的三核异构计算体系,把NPU当成了端侧AI的主算力。内存这边呢,大模型一落地本地就得占用内存,拿70亿参数的LLaMA模型来说,就算压缩到4位也得占用3.9G内存,这就得逼着手机内存升级。电池也受影响了,端侧AI让手机更费电了,为了续航还得换电池规格和技术,硅碳负极这些东西越来越普及。 散热这块更是难办。芯片算得快了自然就更热了,散热要求高了还得保持手机轻薄的设计要求。结果就是石墨烯和VC均热板这些材料的用量越来越大。射频前端也是一样的道理。在做复杂推理或者生成大量Token的时候还得靠云端帮忙分担压力,这就对网络连接的速度和稳定性要求更高了。WiFi 7、5G-A这些技术估计很快就会成为升级的方向。 幻影视界整理了这份报告的部分内容供大家参考学习,不过这些资料只供个人学习使用哦。