AI搜索结果混入商业推广 专家建议强化监管

一段时间以来,从旅行住宿、家电选购到健康咨询,越来越多用户在做决定前不再逐条翻找网页,而是把问题交给生成式智能搜索工具,直接要一个“结论”。这种从“找链接”到“拿答案”的转变——确实提高了效率——但也带来新的风险:当答案看似客观、中立时,其信息来源、商业关联和真实性并不总是清楚可见。 问题:部分“推荐答案”被商业内容隐性左右,用户容易被误导。多名消费者反映,按智能搜索给出的“优选品牌”“高口碑型号”下单后体验不佳,回头追溯来源才发现,所谓“测评”“榜单”营销痕迹明显。与传统搜索广告通常有显著标识不同,一些生成式智能搜索更像“自然语言建议”,广告属性不易被识别,反而容易放大其“权威感”和“可信度”。 原因:广告代理机构把影响模型输出当作新的流量入口,围绕“被抓取、被引用、被推荐”形成灰色链条。记者调查发现,市场上出现以“生成式引擎优化”等名义提供服务的机构,宣称可通过代运营、培训等方式,让特定品牌或机构更频繁出现在智能搜索答案中,并按“算力更强、见效更快”等说法分档收费。业内技术人员介绍,一些做法并非真正“理解”模型,而是针对模型可能引用的信息源进行集中操控:在多个内容平台密集投放同质化软文,反复铺设关键词和结论式表述,借助模型训练或检索索引机制,以概率换曝光;同时用“研究简报”“行业报告”等包装权威外衣,提高被引用的可能性。 更值得警惕的是,部分主体把“伪造权威”当成捷径:编造不存在的机构报告、虚构研究结论,或在软文中自设“专家头衔”背书。一旦这些内容进入模型可检索范围,就可能在问答中被再次放大,形成“看似有出处、实则无依据”的误导闭环。在医疗美容等高风险领域,若用户把智能搜索的推荐当作专业建议,潜在危害更为突出。 影响:信息生态遭遇“数据污染”,公共信任与市场秩序面临双重冲击。其一,大量重复、低质甚至虚假内容挤压优质信息传播空间,拉低整体信息质量,增加公众甄别成本。其二,隐性商业植入削弱消费者知情权与选择权,扰乱公平竞争,可能演变为“谁铺得多、谁更容易被推荐”。其三,在健康、金融、教育等领域,虚假“权威”被引用可能诱发错误决策,带来现实损失。其四,用户多次遭遇“被推荐却踩雷”,对新技术的信任会被消耗,进而影响行业发展。 对策:完善规则、技术与协同治理,推动“可追溯、可识别、可问责”。一是强化广告与商业合作标识,提高透明度。对存在商业付费、合作推广、流量分成等关系的内容,应在答案中以醒目标识提示,并向用户提供清晰的来源列表与引用依据,降低“软性推荐”的误导空间。二是压实平台主体责任。生成式智能搜索提供方应建立更严格的内容安全与商业合规机制,对异常同质化内容、短期集中铺稿、伪造报告等信号识别并降权;对高风险领域输出加强审查与风险提示,避免把营销话术包装成“专业结论”。三是提升溯源与核验能力。对被频繁引用的“报告”“榜单”“专家观点”等,平台可引入可信机构库、作者身份核验、文献交叉验证等机制,对来源不明或无法核验的内容降低权重或不予引用。四是完善监管与行业自律。对编造权威材料、虚假宣传、冒用专家身份等行为,依法依规查处;同时推动广告代理、内容平台、技术企业建立行业规范,明确边界与责任链条。五是提升公众媒介素养。引导用户把生成式答案当作线索而非定论,在消费、健康等决策场景中多渠道比对、查看出处,并关注是否存在商业关联。 前景:生成式智能搜索仍将成为重要信息入口,其健康发展取决于“可信机制”的建设。未来竞争不只在回答速度和表达能力,更在可解释性、可核验性与合规透明度。随着广告标识规则完善、平台算法治理加强、虚假内容成本提高,隐性植入空间有望被压缩;同时,权威信息源的结构化供给、公共数据库开放与专业机构参与,也将有助于提升答案质量,推动形成更清朗的信息环境。

生成式人工智能本应成为人们获取知识、辅助决策的工具——但当商业利益侵蚀其中立性——它就可能被用来误导用户。“数据污染”的出现,既是对AI技术的压力测试,也是对信息社会的提醒:技术进步与信息安全必须同步推进。只有把技术改进、制度规范与社会共识结合起来,才能让AI搜索更透明、更可核验、更可问责,真正成为可信的信息来源,而不是被商业操控的渠道。这既关乎行业长远发展,也关乎用户权益的切实保护。