OpenClaw给大家做个省钱攻略,先讲四步,教你怎么把这个“Token黑洞”给填平。你先别嫌它烧钱,其实很容易就把账单给拉下来。比如哪怕简单说两句,弄个20次的交互都能吃掉200元。但只要掌握任务分级、模型精选、缓存与监控这几招,就能把费用给管好。 第一步是模型分级,把任务切成三档。简单的文件整理、查查日程这种小事,给本地或者低价模型去干就行,0.3美元一小时就能搞定。像邮件草拟、润色文案这种中等任务,就用DeepSeek-V3,价格直接砍半。而像代码生成、多轮调用这种复杂任务,就得上Claude Opus了,省得翻车。社区试过,这三招联动能省下50%到80%的API费,钱包压力一下子就小了一半。 第二步是提示词缓存。云服务商那边默认是开着的,重复说话就直接读缓存了,消耗的Token几乎没多少。再加上心跳机制,隔55分钟发个轻量级请求去保持缓存热乎,后续用起来肯定省大钱。比如在Claude Opus上每天调100次的话,只要少注入1000个Token,一个月就能省下大概45美元。 第三步是精简上下文。Workspace里的agents.md和soul.md每次说话都会塞进去一点内容,这是个隐藏的大坑。把没用的配置、群聊规则、TTS说明这些都手动压缩成几百个Token就行了,虽然看着不多,但是高频用起来一年能攒下一大笔钱。 第四步是监控加限额。你可以装个model-usage技能随时看看情况,或者直接在控制台里把月额度设成50元。只要一超支它就自动把模型给停了,再也不用心惊肉跳地熬到月底了。 别觉得低价模型就没用了,这得看用在什么场景上。像MiniMax M2.5这种每小时0.3美元的小玩意儿编程分数能打到80.2%,补补代码、整理文件完全够用。而且连本地Llama 3 8B这种完全零Token消耗的都可以搞。 不过复杂的活儿可不能乱花钱。多步骤工具调用、操控浏览器这些事儿拿低价模型去试很容易掉链子。像Qwen3-Max发邮件只会复读内容,Kimi-K2.5搜网直接报错根本驱动不了OpenClaw网关。 说到底就是把对的模型放在对的岗位上干活才是正经事。别老盯着便宜看,只要分级调用配上缓存神技再加上实时监控这三板斧齐上,你就能在不超预算的情况下让OpenClaw这个AI助手高效率地把活儿干完。