AI领域最近搞出了个“养龙虾”的风潮,开春刚起头没多久,“第一批养虾人”的卸载热潮就来了,这种事儿看着挺有意思。开源的智能体OpenClaw就挺火,它能帮你处理一堆复杂的文件管理活儿,好多人都在用。但这热度降得也快,有人开始卸载了,这事儿在热搜上还挺热乎。 这类自治智能体执行能力强,确实给咱们省事不少,可风险也不小。拿OpenClaw举例,它干活需要多个平台的权限,要是权限设置不清楚,就有可能出大问题:账户资金被转走、被远程控制、文件清空这些事儿都可能发生。再说,这玩意儿跨应用跑得欢,涉及的人多了,监管协调起来特别麻烦。责任划分不清的话,数据滥用或者异常调用了都不知道该找谁算账。 有学者觉得,这些自治智能体已经不是单纯的工具了,它们正在变成能自己做主的“人”。这种升级让风险变得更复杂了,现有的安全防护框架根本罩不住。所以必须得建个更完善的多层次防护体系才行。 工信部给了不少建议,说是要坚持最小权限原则,按需给权限,关键操作还得加个二次确认;技能插件要谨慎用,只能从官方渠道下还要看代码;还要定期修漏洞、开日志审计、盯着安全预警。这些建议给技术用好了立了规矩。 推动AI健康发展得把握个度,既不能太保守也不能乱来。咱们得抓紧制定法律法规、政策制度、伦理准则这些东西。至于咱们普通人,面对新技术保持点耐心比“赶潮流”重要多了。技术再厉害,人始终得是主人。算法再自主,人对价值的判断、边界的守护和责任的担当才是智能时代的“绝活”。(作者:杨咏霖)