近期,一款名为OpenClaw的开源人工智能智能体在网络上引发广泛关注,大量用户争相尝试部署使用。
这一现象反映出我国网民对新兴技术的高度热情。
数据显示,截至2025年12月,我国生成式人工智能用户已达6.02亿人,较2024年底增长141.7%,普及率达42.8%。
这股应用热潮背后,既体现了技术创新的蓬勃生命力,也暴露出产业发展中的深层隐患。
安全风险成为当前最突出的问题。
官方部门和网络安全专家纷纷发出警示,指出缺乏安全审计的开源模型若配置不当,极易成为网络攻击的突破口。
当这类模型被直接部署到物联网控制、支付等敏感环境时,黑客植入的后门、用户配置疏漏导致的端口开放等问题,可能造成大规模安全事件。
更为严峻的是,这些未经本土化对齐的模型在内容生成、数据跨境流动等方面,存在触碰数据安全法、个人信息保护法的风险。
由于属于个人部署行为,相关责任和损失往往只能由用户自行承担,形成了监管真空。
问题的根源在于技术快速下沉与规范滞后之间的矛盾。
开源模型的开放性虽然降低了技术门槛,但也削弱了安全管控。
个人用户往往缺乏专业的安全知识和防护能力,难以应对日益复杂的网络威胁。
同时,缺乏统一的安全标准和审计机制,使得各类模型的安全水平参差不齐。
这种无序状态若持续蔓延,将对国家数据安全和个人信息保护构成系统性风险。
为应对这一挑战,地方政府和产业界已开始行动。
深圳龙岗区、无锡高新区等地密集出台规范措施,为产业发展划定清晰边界。
无锡高新区明确要求推动人工智能在实体经济中的深度应用,同时强调数据安全和隐私保护,在云平台强制实施最小权限原则,禁止访问敏感数据目录。
深圳龙岗区则侧重引导构建完整产业生态,支持本土企业提供安全可控的解决方案。
这些措施在鼓励创新的同时,也确立了一个基本原则:技术带来的生产力提升必须在可控范围内释放。
本土化生态建设成为破局的关键路径。
相比个人手动部署需要搭建软件环境、调试参数、部署云服务器的复杂流程,本土化产品能显著降低使用门槛。
更重要的是,企业级解决方案在发布前往往经过严格的测试和安全加固,内置数据加密、访问控制、审计日志等防护模块,构建起完整的防御体系。
这意味着普通用户无需成为安全专家,就能获得专业级的保护。
从社会监管角度看,本土化生态提供了有效的管控抓手。
本地数据本地存储能确保数据在境内闭环处理,符合国家数据主权战略要求。
完善的日志和审计功能使问题全链条可追溯,当智能体遭受网络攻击时,厂商能通过威胁情报共享和应急响应机制,第一时间封堵漏洞、阻断攻击。
这种有组织的防御体系远优于分散的个人部署。
目前,腾讯、智谱等人工智能头部企业已纷纷进入这一领域,LobsterAI、MasterAgent等本土开发的智能体也不断涌现。
这表明产业界已认识到本土化生态的重要性,正在加速布局。
当前这一轮应用热潮既是技术红利的大众化释放,也是一堂全民安全教育课,深刻揭示了人工智能时代的发展逻辑:速度必须建立在稳定的基础之上。
新技术走向大众,既考验创新速度,也考验治理智慧。
“养龙虾”热潮提醒人们,智能体带来的便利越强,安全与合规的基础就越不能薄弱。
推动本土化生态建设,把安全能力做在前面、把责任链条落到实处,才能让技术红利更稳更久地释放,为数字经济高质量发展夯实可信底座。