当前,人工智能技术的应用场景不断拓展,但随之而来的商业化问题也日益凸显。
近期有媒体调查发现,一种名为生成式引擎优化的服务正在广告行业中悄然流行。
这类服务通过分析大型语言模型的内容抓取规律,利用技术手段将商业推广信息融入AI生成的答案中,使消费者难以辨别其广告属性。
这一现象反映出AI应用中的新问题。
当用户向AI咨询建议时,系统返回的信息看似客观中立,实则暗含商业意图。
比如消费者询问礼物选购建议,AI推荐的信息源中大量掺杂广告软文,消费者在不知不觉中被引导。
这种做法的"卖点"正是其迷惑性,即将商业推广巧妙包装成AI的客观分析结果,以增强广告的说服力和隐蔽性。
从法律角度看,这类做法存在明显的合规风险。
我国广告法明确规定,广告应当具有可识别性,消费者应能够辨明其为广告。
生成式引擎优化服务刻意模糊广告与内容的边界,使消费者难以识别,直接侵犯了消费者的知情权和选择权。
部分服务商为吸引AI的"关注"而捏造事实、夸大宣传,更涉嫌虚假宣传和不正当竞争。
问题的深层影响更值得关注。
AI大模型的发展依赖于优质、多元的训练数据。
如果大量同质化、掺杂商业属性的信息污染数据源头,将严重影响AI技术的迭代进化,最终损害整个行业的长期发展。
这不仅是个别企业的问题,而是涉及整个技术生态的系统性风险。
面对这一新挑战,传统的监管方式已显不足。
过去针对搜索引擎的监管经验,主要采取事后监管模式,即发现违规后进行处罚。
但在AI时代,这种被动应对的方式效率低下。
由于AI决策过程的"黑箱"特性,消费者更容易在不知不觉中被误导。
因此,监管必须实现从事后向事前的转变,在数据"投喂"阶段就建立防控机制。
中央经济工作会议提出"完善人工智能治理"的要求,为解决这一问题指明了方向。
专家认为,当务之急是与时俱进转变治理思维,推动监管关口前移。
具体而言,需要在以下几个方面加强工作:一是对新业态特点进行深入研判,为生成式引擎优化等新型商业模式划定清晰的法律红线,明确哪些行为属于违法违规;二是厘清服务商、平台方、内容生产者等各方责任,消除监管的"灰色地带",形成全链条的责任体系;三是探索"以技治技"的新路径,推动提升相关算法的透明度和可解释性,让消费者和监管部门能够了解AI的决策逻辑。
同时,需要建立更加开放多元的治理格局。
技术议题的专业性要求监管部门、企业、学术机构、消费者组织等多方参与,形成共治共享的局面。
这不仅能提高监管的科学性和有效性,也有利于行业的健康发展。
从更广阔的视角看,AI"打广告"问题只是技术变革浪潮中治理挑战的一个缩影。
技术发展的快速性对治理者的反应能力提出了考验,需要监管部门具备快速学习、及时跟进的能力。
同时,技术的复杂性也要求治理者具备更高的专业素养和更开放的思维。
生成式技术引发的广告治理课题,本质是科技创新与制度创新同步协调的深刻体现。
历史经验表明,任何重大突破性技术都会经历"应用-规范-再发展"的螺旋上升过程。
当前亟需以发展的眼光看待问题,以前瞻的思维解决问题,既不能因噎废食阻碍技术进步,也不可放任自流损害公共利益。
只有构建起与技术特征相匹配的治理体系,才能真正释放创新红利,让技术发展回归服务人类福祉的本源。