亚马逊打算让AWS在2036年靠着AI把收入翻一番。他们最近讲,以后做机器学习的大模型训练跟推理的时候,因为涉及到很多矩阵运算,普通的CPU处理起来很慢还费电。为了改变这事儿,亚马逊自家搞出了Inferentia和Trainium这种专用的ASIC芯片,专门把里头的结构改了,专门给矩阵乘法之类的运算用。 这么一改就把能耗比提高了不少,做AI任务的时候性能一下子就上去了。直接好处就是运行成本变低了速度变快了,以后大家在云上跑更复杂的AI模型就更划算。 光靠硬件不行还得靠软件。AWS弄了Neuron SDK这种工具包,能帮着把TensorFlow或者PyTorch写的模型编译出来,直接在那些专门的芯片上跑。软件硬件这么配合好之后,服务形态也就变了。以前只是卖算力,现在像Amazon SageMaker这样的开发环境都给整出来了。 还有像Rekognition这种专门用来识别图片的API服务也出来了。这些东西把底层复杂的管理都包起来了,让大家不用操心技术细节,直接写业务逻辑就行。 这么一搞下来到底能带来什么变化?因为AI慢慢变成企业核心的生产系统了。像个性化推荐、预测供应链、查欺诈这些关键的活儿都在云上用AI来干。这种活儿的计算量一直都很大很稳定,比以前那种偶尔训练一下模型的收入要靠得住多了。 再加上用了AI之后数据存储、网络带宽还有安全服务的需求也都起来了。这样收入自然就上来了。 说白了就是技术变了带动市场变了:从以前用通用的处理器变成现在用专门的芯片提高效率;软件和硬件配合得好让性能发挥出来;最后服务变了形态还把AI跟核心业务绑得更紧。 这就是个技术经济链条的推演:从通用到专用的转变是基础;软硬件一起优化释放了性能;而服务形态的进化和AI跟业务的融合才是推动收入翻倍的原因。这可不是简单的线性增长,而是整个产业基础设施的一次大重构带来的放大效应。