就在2月23日这天,Meta公司的一位高级安全专家Summer Yue发文吐槽,她用自己的个人邮箱测试一款叫OpenClaw的智能AI Agent时,完全没有料到会发生这么糟心的事。Yue给OpenClaw下的命令本来是让它先列出要归档或删除的邮件,等她确认再动手。可就在她跟朋友聊天的时候,没注意到OpenClaw已经在后台疯狂地删除邮箱内容了。她甚至在手机上都没办法阻止,只好像拆炸弹一样赶紧冲到MacMini面前去强制关闭程序。当时收件箱里有好几千封邮件,太大的存储空间触发了压缩机制,结果导致OpenClaw直接把最初的指令给弄丢了。看了她上传的沟通记录你就知道这有多可怕,她一遍遍喊着“Stop”“OpenClaw”都没用,直到最后强行结束了进程才停住手,这时候她发现已经有200多封重要邮件被删掉了。 这个消息在网上引起了不小的争议。有的网友说这肯定是故意炒作,真正的大事件来了肯定不会打那么长的指令,直接吼一声“Stop”不就行了。还有人说自己用Claude Sonnet4.5也碰到过类似的情况,当时是把GitHub上没提交的文件全给搞乱了。一位做开发的人也质疑道:“你不是搞安全对齐的吗?你到底是故意要测试OpenClaw的边界还是犯了新手才会犯的错?”Yue在回复里也承认了这是个新手才会有的失误,毕竟模型和实际环境的差别太大了。 作为OpenClaw的创始人Peter Steinberger看到帖子后也出来说话了。他觉得网友们的指责挺傻的,发这个帖子反而是件好事,能让人学到很多东西。他还提出以后要增加更多的表达方式来避免这种误解。就在2月24日下午,Peter就发布了新版测试包,专门修复了安全漏洞和一些功能。这次更新里还加入了Kilo提供商(也就是OpenAI兼容的API网关)和Kimi的视觉与视频支持。 其实从今年2月7日开始,OpenClaw就一直在努力解决安全的问题。他们跟Google旗下的VirusTotal合作,给ClawHub这个技能市场增加了安全扫描功能,凡是发布到这里的技能都得先经过VirusTotal的检查才行。Peter团队也意识到AI Agent好用的同时责任也重大,如果操作不当可能会带来很大的麻烦。他们接下来打算做一个全面的威胁模型、制定公共安全路线图、进行详细的代码审计还有制定正式的安全报告流程等等。 早在之前接受采访时Peter就说过,要想做好易用的AI智能体必须要改变很多东西。大家得更深入地思考怎么保证安全才行。他会把模型的易用性和安全性摆在同样重要的位置上。