amd又搞了个大动作,推出了叫openclaw的开源框架和两条硬件路线,主打把个人电脑直接变成跑ai 智能体

AMD这次又搞了个大动作,推出了叫OpenClaw的开源框架和两条硬件路线,主打把个人电脑直接变成跑AI智能体的平台。 这事儿其实也是AMD在AI领域走了一步关键棋,他们这回把框架和硬件一块儿放出来,专门是给本地化运行环境做准备的。你想想看,现在好多应用都要靠云服务器,数据容易泄露还慢半拍。OpenClaw的设计就是要解决这些问题,给开发者弄个更隐私、响应更快的本地方案,特别是那种得处理大语言模型或者多个智能体一起干活的场景。 技术细节上呢,这框架现在主要是在Windows的WSL2环境里跑,用LM Studio配合llama.cpp来搞推理。它还支持Qwen3.535B这些最新的模型,还加了个Memory.md的记忆系统。这就保证了上下文数据全都留在本地硬件上,根本不会漏到外面去。这样一来既满足了公司对数据安全的要求,也给咱们个人开发者提供了一条探索AI的新路子。 为了满足不同需求,AMD还给出了两条路子:一条是RyzenClaw方案,核心是Ryzen AI Max+处理器,它自带128GB的统一内存架构。这能同时让6个AI智能体一起干活,它的上下文窗口能达到26万token,这可是行业里数一数二的水平。 另一条是RadeonClaw方案,这个更看重速度。它用了一块32GB显存的Radeon AI PRO R9700显卡,能把处理万token的时间压到4秒多一点。在那种要实时交互的场合下,这优势就特别明显了。 这两条路一个拼算力、一个拼速度,正好互相补了短板。这也说明了AMD的战略想法:想把普通的消费级设备升级成数据中心级别的智能终端。只要这框架的生态越来越完善、硬件成本慢慢降下来,AI应用迟早会从云端转到终端上来。 现在这两套硬件还是给专业市场用的,RyzenClaw整机的起价大概在2700美元左右。主要是卖给搞AI的工程师、科研机构还有那些技术极客的。这个布局也算是AMD抢占本地化AI基础设施制高点的一步棋吧。