问题:近期,"养龙虾"等智能体应用各平台迅速走红,不少用户开始用它们检索信息、辅助决策,甚至直接采信其结论。便利之外,信息可信度、隐私授权边界、潜在利益损害等问题也随之浮现。尤政指出,安全与可控是该领域绕不开的问题——工具给出的结论不等于事实——用户首先要有这个基本认识。 原因:一上,此类智能体依据用户指令整理、推断并输出结果,表达形式往往显得完整、自洽,容易让用户产生过度信任;另一方面,智能体完成任务时可能调用多种资源与权限,但访问路径、数据来源、操作范围对用户来说并不总是透明,形成"用得越顺手、风险越隐蔽"的特点。尤政以"烟盒健康警示"作类比,强调风险不是使用的禁区,但必须被看见、被理解、被约束。 影响:对个人而言,若缺乏对结论可信度的判断,容易出现误判和决策偏差;若对授权范围理解不足,则可能面临隐私泄露、账号或资产受损等风险。对行业而言,平台若告知、审核与风控上缺位,容易形成"先扩张、后补课"的路径依赖,导致纠纷增多、用户信任流失。对治理而言,一旦智能体进入公共服务、政务辅助等场景,责任划分、审计追溯、边界约束就必须提前厘清,否则只会放大社会成本。 对策:尤政从两个层面提出要求。用户端,要保持理性和自我负责的意识:对输出结果要有判断,对潜在风险要有预期,尤其在财务、医疗、法律等高风险领域,应坚持"多源核验、审慎决策"。供给端,要切实履行风险提示与告知义务:在用户启用关键功能、授予权限、涉及敏感数据或触发外部行为时,应以清晰易懂的方式提前说明,让用户"先知情、再选择",而不是在信息不对称的情况下诱导使用、转嫁风险。尤政同时建议加强立法与制度供给,对结果不可控的技术设置明确的适用条件与边界,避免以商业推广之名让公众替企业承担试错成本。 在责任边界上,尤政谈到地方出台促进政策时指出,政府在推动特定场景应用时,应对使用范围、风险管理与配套措施承担相应责任;公众自发使用的场景下,个人也应对自身选择与行为后果负责。"谁推动、谁负责;谁使用、谁尽责",边界清晰了,灰色地带才会减少,可追责的治理闭环才能真正形成。 前景:随着智能体加速渗透生活与产业场景,未来的竞争焦点将从功能堆叠转向安全、可信与合规的综合能力。业内人士认为,建立覆盖数据、权限、模型输出与人机协作全流程的规范体系,完善风险分级提示、可审计日志、纠错与救济机制,将成为应用落地的基本门槛。制度建设与行业自律并行推进,让创新在规则内运行,才能把技术效率转化为可持续的社会价值。
技术的价值,最终体现在它能否让人的生活更安全、更有尊严;智能体的兴起,是人工智能发展进程中的一个缩影,既映照出技术创新的活力,也折射出制度建设的紧迫。告知义务的落实、立法规范推进、用户认知的提升,三者缺一不可。在清醒的认知与完善的规则之间找到平衡,技术才能真正成为造福社会的工具,而不是风险转嫁的载体。