生成式引擎优化服务引发监管关注 专家呼吁完善人工智能治理体系

问题——智能问答正成为新的流量入口,但“广告如何呈现”此老问题在新场景下有了新变体;部分用户向智能工具咨询消费建议、出行方案、健康管理等问题时,得到的回答看似中立专业,追溯来源却往往集中在软文、测评稿或商业化内容上:推荐逻辑与品牌导向交织,用户很难判断是否属于商业推广。更值得警惕的是,一些服务把“让某品牌更容易出现在答案里”当作卖点,通过针对模型偏好和内容结构的设计影响信息进入与被采信的路径,形成披着“自然回答”外衣的隐形营销。 原因——一是入口迁移带来竞争策略转向。过去在搜索时代围绕排名规则做优化属于常见商业行为;当用户从“搜”转向“问”,企业自然把资源投向更具影响力的新渠道,“生成式引擎优化”因此走热。二是信息组织方式变化放大了迷惑性。传统广告位和竞价标识相对清晰,而智能问答把多源信息压缩成单一答案,用户更容易把它当作“结论”;当商业内容以知识形态嵌入时,识别难度明显上升。三是责任边界仍不够清楚。服务商、内容生产方、平台与应用端链条拉长:谁来提示“广告属性”、谁对内容真实性负责、谁对模型输出承担审核义务,现实中仍存在灰区。四是技术“黑箱”降低外部监督效率。模型如何抓取、如何加权、如何生成,对公众并不透明,给不良营销留下操作空间。 影响——其一,消费者知情权与选择权受侵害的风险上升。广告法要求广告具有可识别性;若推广内容难以标识,消费者可能在不知情的情况下被引导,形成“被推荐即被说服”的心理惯性。其二,虚假宣传与不正当竞争隐患加剧。为了迎合模型偏好而夸大功效、拼接事实、伪造评价等做法,既损害公平竞争,也可能引发消费纠纷。其三,内容生态与数据源头面临“污染”。大量同质化商业内容挤占公共信息空间,会拉低训练数据质量,长期影响模型输出的可靠性与多样性,削弱技术迭代的正循环。其四,社会信任成本抬升。一旦公众普遍怀疑智能回答的客观性,技术应用扩散将遭遇信任阻力,创新红利也会被稀释。 对策——治理关键是与技术演进同步升级,从“事后处置”转向“源头预防+过程管控+结果追责”的全流程体系。首先,划清红线,强化可识别性要求。对以智能问答形式呈现的商业推广,应建立更明确的标识规范,做到“能识别、易识别、可追溯”,让用户一眼看出其商业属性,避免把广告包装成知识服务。其次,压实责任链条,明确多方义务。对提供优化服务的机构,要规范业务边界与合规要求,严禁捏造事实、操纵评价;对平台与应用端,要完善商业合作披露、内容审核与投诉处置机制,建立可核查的留痕记录;对内容生产方,要强化真实准确与来源透明,形成闭环追责。再次,推动监管关口前移,完善“投喂”阶段治理。对训练数据、插件调用、外部内容接入等关键环节,建立更可操作的合规评估与风险提示,防止问题内容进入模型与推荐链路。最后,探索“以技治技”,提升透明度与可解释性。通过水印、标注、溯源、异常检测等技术手段,加强对异常集中推荐、可疑素材投放、虚假信息聚合的识别,同时推动建立第三方评测与审计机制,让监管与公众监督有据可依。 前景——智能服务将更多承担决策辅助甚至自动执行功能,从点餐、购物到行程规划、健康管理,用户对系统输出的依赖会持续加深。越是如此,越需要把“可信”当作基础能力来建设:既要鼓励合规竞争与技术创新,也要防止商业力量借助新入口形成隐蔽影响。完善人工智能治理不是限制技术发展,而是以规则明确边界、以责任约束行为、以透明增强信任,让技术应用在法治轨道上稳步前行。

当技术革新速度快于既有规则体系,如何构建适配数字时代的治理模式,考验各方智慧。历史经验表明,对新技术保持包容与审慎的同时坚守公共利益底线,才能实现科技创新与社会效益的双赢。这场关于技术伦理与商业文明的对话才刚刚开始,其最终走向将深刻影响数字经济的发展方向与质量。