新型营销手段"GEO"暗藏商业伦理风险 专家呼吁加强人工智能推荐系统监管

一、问题:智能推荐背后的商业操控 当越来越多的消费者习惯于向智能问答工具寻求购物建议、机构推荐乃至生活决策时,一个不易察觉的商业逻辑正悄然运转。 记者调查发现,目前市场上已有多家服务商公开提供所谓"生成式引擎优化"服务,其核心目标是让客户品牌在智能系统的回答中获得更高曝光频次与更靠前的呈现位置。以某地一家养老机构为例,服务商围绕该机构在至少六款主流智能应用中进行内容布局,仅针对"养老院推荐""排名""选择建议"等方向,就预设了超过二十种不同的提问方式。记者在多款平台实测后证实,输入对应的问题后,该机构名称确实频繁出现于推荐列表之中。 这项服务已形成较为成熟的商业报价体系。据了解,某服务商按"训练问题"词条数量与维护周期计费,单个词条每季度收费约四千元,另一家服务商报价为十个词条每季度三万元。服务周期通常以季度为单位滚动续费,以维持内容在智能系统中的持续可见性。 二、原因:智能系统的检索机制存在可利用空间 生成式引擎优化之所以能够奏效,根源在于当前主流智能问答系统的信息获取与生成机制。 东南大学网络空间安全学院副教授宋宇波指出,许多智能系统在生成回答前,会先从外部信息源抓取一批参考资料,再从中归纳整合形成答案。这个机制意味着,只要相关内容在覆盖广度、发布频率、内容新鲜度及权威信号关联等维度上占据优势,便更容易进入系统的参考范围,进而影响最终呈现给用户的答案。 从业者将这一逻辑概括为:传统营销针对人的心理,而生成式引擎优化针对的是模型的语义识别与检索逻辑。相关内容并非为普通读者撰写,而是专门适配智能系统的抓取与排序规则,使其在用户提问时能够被精准调用,以"客观答案"的形式呈现。 三、影响:低质量内容污染信息生态,消费者权益受损 这一现象带来的危害不仅限于商业竞争层面,更深层的隐患在于对信息生态的侵蚀。 记者在上述养老机构案例中发现,尽管智能系统多次推荐该机构,但其答案所引用的来源质量堪忧:仅有的三个可查来源中,一个链接已失效,一个为两年前的媒体通稿,另一篇则是近期发布于第三方平台的粗糙文章,内容以堆砌机构信息为主,并冠以"排行榜"之名。 宋宇波将此类行为定性为"黑帽生成式引擎优化",即以不正当手段干扰智能系统的信息判断。跨境数字营销从业者潘女士也指出,借助关联权威信号提升内容权重、批量发布低质量但高频次的定向内容,已成为国内外此类操作的惯常手法。 对普通消费者来说,这意味着他们从智能问答工具获取的"推荐",可能并非基于客观评估,而是商业运作的产物。在养老、医疗、教育等涉及重大决策的领域,这种信息失真的潜在危害尤为值得警惕。 四、对策:技术防御与制度规范需同步推进 面对生成式引擎优化带来的新型信息干预风险,业界普遍认为,单纯依赖技术手段难以从根本上解决问题,制度层面的规范同样不可或缺。 从技术路径看,智能系统开发方可通过提升信息来源的质量评估机制、加强对低质量内容的识别与过滤、增加答案来源的透明度等方式,降低被恶意内容干扰的概率。从监管层面看,现行广告法规与互联网信息服务管理规定对这一新型营销形态尚缺乏明确约束,主管部门有必要尽快研究制定针对性规则,明确智能推荐场景下的信息披露义务与商业内容标注要求。 五、前景:规则空白期的行业博弈仍将持续 生成式引擎优化概念的兴起,折射出智能信息服务商业化进程中不可回避的结构性矛盾。一上,智能问答工具的广泛普及为商业信息的精准触达提供了新渠道;另一方面,这一渠道的公信力恰恰建立在用户对其客观性的信任之上,一旦商业干预被广泛感知,工具本身的使用价值将大打折扣。 目前,相关概念已在资本市场引发一定关注,但其实际效果与可持续性仍存争议。部分业内人士指出,随着智能系统迭代更新,针对特定检索逻辑的优化策略可能随时失效,服务商所承诺的"稳定排名"存在较大不确定性。

生成式应用正在改变信息获取方式,也重塑商业竞争格局。便利的"建议"需要清晰的边界和可信的依据。技术要真正服务社会,不能仅靠自律或市场调节,而需通过规则明确底线、以透明赢得信任、以责任维护信息环境。只有区分"可被推荐"与"值得被推荐",智能问答才能成为可靠的公共服务工具。