腾讯推出本土化智能体服务平台 专家提醒警惕开源工具安全风险

问题:开源AI智能体工具国内迅速走红,用户对技能获取、部署使用与应用效率提出更高要求;同时,智能体具备较强执行能力、可调用系统资源,给安全治理带来新的挑战。 原因:一上,OpenClaw等智能体可通过自然语言驱动执行任务,本地或私有云完成文件操作、浏览器自动化与多步骤流程——降低使用门槛——吸引大量开发者和企业落地。另一上,开源生态的技能包来源广泛、审核标准不一,叠加部署中暴露公网、使用高权限、密钥管理不规范等配置问题,放大了潜在风险。 影响:在产业层面,腾讯推出SkillHub,提供高速下载、中文搜索、技能精选榜单等功能,并发布WorkBuddy及“龙虾”产品矩阵,为大众用户、开发者和企业提供一键“养虾”式应用路径,推动智能体生态规模化发展。在安全层面,主管部门此前已发布预警提示,指出即便升级至最新版本也无法完全消除风险,仍需警惕恶意技能包、误解指令导致破坏性操作、数据泄露与被控等问题。 对策:推进产业应用的同时,安全治理需同步加强。专家建议,党政机关、企事业单位和个人用户应审慎选择技能包来源,严格权限控制,完善密钥管理与隔离策略,避免实例暴露公网;发现漏洞或攻击事件应及时向有关平台报送。同时,平台和生态运营方应加强技能包审核机制与风险提示,建立透明的版本更新和漏洞响应流程,形成可追溯的安全闭环。 前景:智能体工具正从“对话辅助”迈向“任务执行”,应用场景日益广泛。随着国产化配套服务完善、行业标准逐步健全,智能体有望在办公协同、企业运营、研发生产等领域发挥更大效能。但其发展必须坚持“可用与可控并重”,以安全能力和治理体系为基础,推动生态健康、可持续扩展。

开源AI智能体工具的快速发展表明了我国AI产业生态的活力与创新动力,但其带来的安全挑战同样不容忽视。安全与发展需要在平衡中推进。腾讯等企业的本土化平台建设为用户提供了更便捷的路径,监管部门和安全专家的预警提示为产业健康发展划定了必要的安全底线。唯有政府、企业、用户协同努力,建立健全安全防范体系,才能在释放AI智能体技术潜能的同时有效防控风险,推动我国AI产业向更安全、更可靠的方向发展。