科技专家指出中美人工智能应用路径差异 建议双向借鉴促进行业发展

问题:代理型智能加速走向现实应用,社会准备是否跟得上 随着人工智能从“对话式工具”迈向“可执行、可协作、可持续行动”的代理型形态,行业竞争焦点正发生变化。所谓代理,已不再局限于生成文本或检索信息,而是能够在权限范围内调用软件工具、连接不同系统、完成预约、表单、编程等连续任务。近期,围绕OpenClaw此代理工具的使用情况,外媒采访其创始人彼得·斯坦伯格并引发关注。其核心观点是:技术仍处早期阶段,社会要理解其风险与价值,离不开真实使用与持续试验,但试验必须与治理并行。 原因:中美应用路径分化,背后是风险偏好、合规体系与组织管理逻辑不同 从市场反应看,OpenClaw在不同国家体现为差异化的扩散轨迹。受访者认为,在中国,从学生到职场人士再到老年群体,尝试使用此类工具的人群更为广泛,一些企业甚至将其作为提升效率的手段推动员工使用。同时,监管层面对其在特定领域的应用开始提出边界要求,尤其在国有企业和政府机构等对数据与安全要求更高的场景,使用受到限制或趋于审慎。总体而言,大规模、多场景的应用与试错,使中国市场在一定程度上成为新产品快速迭代的“试验场”。 与之相对,美国社会对代理工具的扩散更显谨慎。除开发者与早期用户外,普通大众的普及度相对有限。一些机构出于数据泄露、合规审计、责任归属不清等考虑,对员工使用代理工具采取限制措施。受访者用较为尖锐的对比指出:在部分美国公司,使用此类工具可能带来纪律风险;而在部分中国企业,不使用反而可能被视为效率不足。这种差异背后,一上是企业对风险的容忍度与管理文化不同;另一方面,也与法律责任界定、行业合规成本、网络安全审查要求、数据跨境与隐私保护制度环境等因素有关。 影响:效率红利与安全挑战并存,竞争格局与产业生态或将重塑 业内人士指出,代理型智能的推广可能带来显著的效率提升:在个人层面,它可以接管重复性数字事务;在企业层面,它可在客服、研发、运营、行政等环节形成新的“数字劳动力”。与此同时,风险亦更为复杂:一是权限滥用与误操作风险,代理具备执行能力,一旦被诱导或配置不当,可能触发错误支付、错误发布、错误删除等连锁后果;二是数据安全与隐私泄露风险,代理往往需要访问邮件、日历、文档、代码库乃至业务系统;三是责任边界模糊,出现损失时应由使用者、企业管理者、模型提供方还是工具开发者承担,仍需更清晰的制度安排;四是“自动化偏差”问题,过度依赖可能导致人工审核弱化,放大低概率但高损失的事故。 从国际竞争看,应用规模与迭代速度将影响技术成熟度与产业生态。更广泛的真实场景使用有利于发现问题、完善产品、形成标准,也可能促进上下游产业链快速形成。但若缺乏有效的安全阀与治理框架,风险事件的外溢又可能反过来抑制技术应用、引发社会信任危机,甚至形成新的“数字鸿沟”。 对策:以“可用、可控、可追责”为原则完善治理与产品机制 受访者强调,技术越“能干”,越要降低错误率,并在更高标准下运行。他加入对应的机构后将参与编程工具Codex等项目开发,并提出在开源模式下继续维护OpenClaw,同时计划以基金会形式推进社区治理。业内认为,开源与生态共建有助于透明审查与快速修复,但也需要建立更严格的版本管理、漏洞披露与安全测试机制。 从治理角度看,应围绕“权限、数据、审计、责任”四条主线推进制度与实践落地:一是权限最小化与分级授权,明确代理可访问的数据范围、可执行的操作类型,关键操作设置二次确认与人工兜底;二是数据全流程保护,强化本地化处理、加密存储、敏感信息脱敏与访问日志留存,降低泄露概率;三是可审计与可解释,建立“行动轨迹”记录机制,做到每一步调用、每一次写入都有迹可循,便于事后追责与复盘;四是明确责任链条,推动企业内部制定使用规范与培训机制,形成从采购评估、上线测试、日常监控到应急处置的闭环。 前景:代理将成为下一代基础能力,竞争焦点或转向“落地质量”与“治理能力” 多方观点认为,代理型智能将推动数字生活与生产系统的重构,未来可能形成“个人代理+工作代理”的双体系,在协作中完成更多跨系统任务。与此同时,竞争不再仅是模型参数与回答效果,更体现在谁能更快建立安全可控的产品机制、谁能在复杂场景中实现稳定运行、谁能形成可复制的行业规范与生态体系。 对不同国家和地区来说,如何在鼓励创新与守住底线之间取得平衡,将成为长期课题。既要避免因过度谨慎错失产业窗口,也要防止因无序扩张引发系统性风险。更重要的是,把技术扩散转化为治理能力的提升,通过规则、标准与公共认知建设,让社会在使用中学习,在学习中完善制度。

人工智能代理从“会说”迈向“会做”,也将技术风险从内容层面扩展至行动层面。面对这个变革,既不能因风险而停滞不前,也不能忽视安全盲目推进。唯有通过可控试用积累经验,以制度和工程手段筑牢安全边界,才能推动技术稳健发展,真正转化为生产力和社会福祉。