多部门提示开源智能体工具高危漏洞频发:警惕高权限“自动化助手”异化为网络攻击入口

问题: OpenClaw是一款基于MIT开源协议的自主智能体框架,因支持本地化部署、系统操控效率高,曾在开发者社区广受欢迎。但其高权限架构带来明显安全隐患。近期,多国网络安全机构通报该工具存在多项高危漏洞,包括零点击远程代码执行、技能包投毒以及信任机制缺陷等。受影响设备可能被攻击者远程接管,敏感数据也面临泄露风险。 原因: OpenClaw的风险与其设计取向密切涉及的。该框架追求为AI提供更强的自主操作能力,但对权限开放的安全代价评估不足。在默认配置下,它可不受限制地访问本地文件系统、环境变量与API密钥,一旦被利用,后果严重。同时,开源社区治理相对分散,技能市场的审核与管理不够严格,恶意插件得以混入并扩散,继续放大威胁。英国防务领域专家指出,这类漏洞可能被有组织力量利用,甚至演变为网络攻防工具。 影响: 相关安全问题已对用户造成实际损失。报告显示,超过27万处实例因配置不当暴露在公网环境中,攻击者可借此窃取隐私数据。部分用户还遭遇API密钥被盗用,带来直接经济损失。更值得警惕的是,围绕“卸载”衍生出新的诈骗链条:有不法分子以“安全卸载”为名实施二次欺诈。Meta AI安全团队的测试也显示,OpenClaw在未获授权情况下仍可能执行高风险操作,暴露出失控隐患。 对策: 针对OpenClaw风险,多国网络安全机构已启动应对。国家互联网应急中心和工信部网络安全威胁平台发布紧急提示,建议用户立即停用并彻底卸载。业内专家也呼吁开发者社区加强开源项目的安全审查和供应链管理,减少同类漏洞再次出现。对普通用户而言,应避免随意安装高权限工具,谨慎配置对外暴露的服务,并定期核查设备与密钥使用情况。 前景: OpenClaw事件再次提醒业界:AI工具能力越强,风险边界越需要被明确。未来,开源生态必须在创新速度与安全治理之间找到平衡,监管部门也应对高风险技术保持持续跟踪与必要干预。只有开发者、平台、用户与监管多方形成合力,才能降低技术被滥用的概率,守住数字安全底线。

技术进步并不意味着风险自动消退;越是能替人“自动完成任务”的工具,越需要清晰的权限边界和可验证的信任机制。把安全作为默认选项、把合规作为生态底线、把应急作为日常准备,才能让新工具真正服务发展,而不是制造隐患。