首届“龙虾大会”掀起技术热潮 专家提醒:开源智能体安全风险亟需关注

问题:线下“爆场”与线上“爆量”并行,安全阴影随热度抬升 上周末,首届“龙虾”大会在上海徐汇滨江举办,数百名来自全国各地的开发者、从业者与爱好者携设备现场体验开源智能体OpenClaw的能力。会议名额短时间内被抢空,交流内容集中在安装部署、工具调用、自动化检索、报告生成与办公辅助等场景。多位参会者表示,愿意为提升效率持续投入时间与费用,但对数据边界与权限控制也更为敏感,尤其涉及单位资料与个人隐私时,担忧随之上升。 原因:高门槛能力被“工具化”,同时带来“高权限—高风险”的结构性矛盾 OpenClaw之所以迅速走红,核心在于把以往需要专业开发才能完成的流程,深入产品化、模板化:在用户授权下可读取本地文件、调用外部工具、联动应用甚至执行部分系统操作,从而把“能对话”升级为“能办事”。这种“执行能力”叠加开源生态的扩散效应,降低了使用门槛,推动工具快速普及。此外,正因为其可触达文件、账号凭证和系统权限,一旦权限开得过大或配置不当,就会形成可被放大的攻击面。近期,多部门和有关机构连续发布预警信息,直指部分开源智能体在默认或错误配置下存在系统性安全风险,提醒用户提高警惕。 影响:个人与机构同时暴露于新型攻击链条,数据泄露与业务中断风险上升 安全研究人员指出,围绕智能体生态的攻击方式呈现“供应链化”“隐蔽化”特征:攻击者可通过投放恶意工具组件、脚本或插件,诱导用户在不充分核验的情况下安装;一旦执行,恶意代码可能获取令牌信息、窃取数据、删除文件,甚至植入后门形成持续控制。更值得警惕的是,攻击者还可能利用对话引导与任务分解机制,设计看似合理的指令链条,引导智能体逐步执行超出用户本意的操作。业内人士认为,这类风险不仅针对普通用户,对具备一定技术能力的人群同样有效;一旦发生在企业、科研机构或关键岗位终端上,后果可能从个体损失升级为项目泄密、合规风险与业务中断。 对策:把“能用”与“可控”一起纳入生态规则,形成可执行的安全底座 受访人士建议,治理应当从“使用侧”“平台侧”“生态侧”同步推进。 一是使用侧要坚持最小权限原则,明确个人终端与单位系统边界,对涉及敏感信息的环境实施物理或逻辑隔离,避免在高敏场景下直接使用不明来源组件;对令牌、密钥等核心凭证实施分级管理与定期轮换。 二是平台与项目侧应强化默认安全配置,完善沙箱机制、权限提示与二次确认,推动关键操作可视化、可回滚、可审计;对工具组件建立来源标识、签名校验、版本追溯与风险告警。 三是生态侧要加强开源供应链治理,鼓励安全机构、开发者社区与企业形成联合响应机制,建立漏洞披露与快速修复通道;同时推动行业形成可落地的使用规范与培训体系,把安全教育前置到安装、调用和共享环节。 前景:热潮仍将延续,竞争将从“能力堆叠”转向“可信落地” 业内普遍认为,开源智能体的热度短期内仍将持续,应用场景会从个人效率工具进一步走向团队协作、行业知识库与流程自动化。下一阶段的关键,不仅在于模型与工具更强,更在于“可信、可控、可审计”的工程体系能否跟上。随着监管提醒增多、企业落地需求上升,以及安全事件的现实压力,行业竞争有望从单纯拼功能,转向比拼安全架构、合规能力与生态治理水平。谁能率先把安全能力内化为产品默认项、把风险控制变成使用习惯,谁就更可能在规模化应用中占据主动。

开源AI智能体的兴起表明了我国在人工智能应用领域的创新活力和发展潜力。然而,任何技术的发展都不能以牺牲安全为代价。当前的关键是在保护创新热情的同时,建立科学有效的安全防护体系。这需要技术开发者、企业用户、监管部门和安全研究机构形成合力,通过技术创新、制度规范和人才培养,推动产业向更加成熟、更加安全的方向发展。唯有如此,才能让这个新兴技术真正成为产业升级和社会进步的有力工具。