3月7日,中国工程院院士、鹏城实验室主任高文在广东代表团的全国人大四次会议小组会上谈了最近火爆的“养龙虾”现象。他特别指出,这里的龙虾不是指传统的水生动物,而是指一种开源AI智能体,名字叫OpenClaw。这个AI智能体不仅能像人一样交流,还能操作电脑、整理数据、生成报告。它让大模型有了大脑,OpenClaw给了它手脚,使得AI从只会说话跨越到了会干活。 高文提到,“养”AI智能体其实是个持续的过程,它需要不断地“吃”Token来学习用户的习惯和需求。经过长期的互动和调优,它就像一个磨合良好的数字同事一样,能提高工作效率。马化腾也对这股热潮感到意外,他认为这说明大众和业界都在寻找能实际落地、提高效率的AI应用形态。 开源社区里的OpenClaw一度冲上热榜,人们铺天盖地地发布部署教程和安装服务。这种热情背后是大家对时间成本的焦虑和对轻量自动化工具的真实需求。比如过去做一份行业研究报告可能需要一整天时间,现在只要把目标描述清楚,智能体就能完成大部分工作并将结果标准化存档。 这次热潮在深圳福田特别明显。福田把OpenClaw引入到政务岗位中,让它做民生诉求分析员和公共场所卫生许可预审等工作。通过这只智能体处理海量投诉建议或材料校验生成结构化报告初稿后工作人员就能少走弯路处置方式从“事后灭火”转向“事前预防”。 福田的做法还特别注意数据安全和权限控制每只智能体都有对应的监护人来管理权限、审计和拦截机制层层上锁确保安全高文还提议把Agent(智能体)的开放讨论放到今年的APEC分论坛上让广东和深圳争取规则制定和生态建设的先机。 关于如何更好地使用AI智能体高文强调需要理性对待不是什么工作都适合使用Agent对于重复性强、流程明确、对数据合规有要求的岗位使用效果会更好而对于依赖创意灵感或流程不稳定的团队则需要谨慎考虑同时还需要建立SOP(标准作业程序)来指导使用避免踩坑。 他也指出风险管控是非常重要的一点要最小化权限并使用虚拟机或沙盒测试确保数据安全红线不过在高风险场景下涉及敏感信息的数据一定要上本地模型或隔离网络进行处理审计要可回溯记录任务流程和版本信息这才是规模化应用的安全保障措施之一当风险被控制住了增量价值才能被释放出来。 最后高文呼吁大家要把技术放在真实场景中运用让规则跟上技术成长的步伐让每一次解放双手都能换来更有价值的一双眼睛而不是单纯追求热度或短期效益当城市治理因智能体变得更敏捷当普通人因为自动化多出时间读书陪伴或锻炼这波技术红利就有了最朴素也最珍贵的意义。