2.94 万亿的token被用起来了,这背后有两个原因

最近火了个数据,2月9日到15日这一周,中国人工智能大模型把用户的询问拆解成了大约4.12万亿个Token,也就是那个叫“词元”的最小语言单位,最终超过了同期美国模型的2.94万亿Token。这个Token就像是婴儿学话时拆分成字词句的过程,中文大约一个汉字算一个Token,英文单词和标点符号通常也算一个Token。比如“今天天气很好。”这句话被拆成7个Token。 现在的大模型就像大厨,人类的问题是食材,回答是菜,大厨有规矩,一次只能运一盘菜进厨房。这个就限制了每次能处理的文字量,所以有些工具按Token收费,用得多就收得多。这次中国超过美国,说明国产模型真的被用起来了。接下来的2月16日到22日,中国继续跑赢美国,达到5.16万亿Token,美国则是2.7万亿。 这背后有两个原因:一方面是我们市场大、应用场景丰富。到2025年6月用户就有5.15亿了,比2024年12月多了2.66亿人。这么多人用起来,就让AI从互联网走进了办公、设计这些领域,变成了日常工具。大家用得多了给模型反馈数据多了,模型处理复杂任务的能力也就变强了。 另一方面是技术生态完善了。国内的人工智能公司现在超过6000家,2025年核心产业规模预计要突破1.2万亿元。厂商还在不断降低成本来吸引人来用,给创新生态注入了活力。 可以预计未来我们的大模型会越来越好用、越用越顺手,既为科技创新助力,也给全球贡献更多智慧。