开源智能工具OpenClaw曝出安全漏洞 工信部提醒防范网络风险

工业和信息化部网络安全威胁和漏洞信息共享平台日前监测发现,开源AI智能体工具OpenClaw存明显的安全隐患;此发现引发了业界对新兴AI应用安全性的广泛关注。 OpenClaw是一款集成多渠道通信能力与大语言模型的开源AI智能体工具,因其图标为红色龙虾而被用户昵称为"龙虾"。该工具支持本地私有化部署,通过构建具备持久记忆和主动执行能力的定制化AI助手,为用户提供智能化服务。然而,其灵活的功能设计也埋下了安全隐患。 安全风险的根源在于OpenClaw的架构特性与配置管理的不匹配。该工具在部署时存在"信任边界模糊"的问题,加之其具备自身持续运行、自主决策、调用系统和外部资源等能力,一旦在缺乏有效权限控制、审计机制和安全加固的情况下运行,就容易成为攻击者的突破口。指令诱导、配置缺陷或恶意接管都可能导致该工具执行越权操作。 这些安全风险可能带来严重后果。信息泄露是最直接的威胁,攻击者可能通过OpenClaw获取系统内的敏感数据。更为严重的是,系统可能被完全接管,导致业务中断或被用于深入的网络攻击。对于部署在关键信息基础设施或涉及个人隐私的系统中的OpenClaw,这类风险尤为值得警惕。 为防范潜在风险,工信部提出了系统的安全建议。有关单位和用户应当充分核查OpenClaw的公网暴露情况,确保不必要的外部访问被关闭。在权限配置上,应遵循最小权限原则,严格限制工具的操作范围。凭证管理需要规范化,避免密钥和口令泄露。同时,应完善身份认证、访问控制、数据加密和安全审计等多层次的安全机制,形成纵深防御体系。此外,用户需要持续关注官方发布的安全公告和加固建议,及时更新和修复已知漏洞。 从更广的视角看,OpenClaw的安全问题反映了开源AI工具快速发展与安全规范之间的张力。随着生成式AI和智能体技术的广泛应用,类似的安全隐患可能在其他工具中也存在。这提示产业界需要在功能创新与安全防护之间找到平衡点,建立更加完善的开源项目安全评估和发布机制。

智能体工具能提升生产力,但其风险也特点是自动化、规模化;对新工具的应用,需要更严格的边界管理和可验证的安全机制。只有把好部署、权限和审计关,才能确保技术发展的安全可控。