一段影像是否“真实发生过”,正在成为社交平台上的高频疑问。
美国媒体机构CNET近期发布调查结果显示,94%的美国成年人受访者表示曾在社交平台上看到过由技术合成的图片或视频,但仅有44%的受访者认为自己能够准确区分真实影像与合成内容。
面对愈发难辨的网络信息环境,51%的受访者主张对相关内容进行更清晰的标签标识,另有21%受访者提出更为严格的做法——在社交平台上全面禁止此类合成图片和视频传播。
与此同时,仅有11%的受访者认为合成视频具有信息价值、实用性或娱乐性。
问题的核心在于:信息生产门槛降低与传播速度提升叠加,使“看起来像真的”逐渐不等于“确有其事”。
调查显示,72%的美国成年人会采取某种方式核验视频真伪,但仍存在不主动验证的群体。
其中,“1946年至1964年出生”的受访者有36%不会主动核验,“20世纪60年代中期至80年代出生”的受访者中这一比例为29%。
这意味着在部分用户群体中,误信误传的风险更高,错误信息可能在情绪驱动与算法推荐的放大效应下快速扩散。
从原因看,首先是合成技术能力快速提升。
过去公众常用的“数手指、看边缘、辨口型”等经验性方法,依赖的是早期合成内容在细节处的瑕疵;当模型迭代、数据更充分、生成更精细后,这些简单技巧逐渐失效,普通用户仅凭肉眼判断的可靠性下降。
其次是社交平台的传播机制强化了“先传播后核实”。
短视频与图像更易引发情绪反应,转发、评论、二次剪辑使内容在短时间内跨圈层扩散,而核验往往成本更高、耗时更长,形成“快与慢”的结构性矛盾。
再次是标注与审核规则存在不统一问题。
不同平台、不同账号、不同场景下的标识标准不一,用户难以建立稳定的识别预期,也给灰色传播留下空间。
其影响不仅体现在个体层面的误判,更可能带来公共层面的信任损耗。
一方面,虚假影像可能被用于制造社会热点、放大对立情绪,干扰正常公共讨论;另一方面,真实影像也可能因“真假难辨”的氛围而被质疑,出现“以假乱真”与“以真当假”并存的局面,削弱舆论场的共识基础。
对媒体行业而言,核验成本上升、溯源难度加大,对报道时效与准确性提出更高要求;对平台生态而言,若缺乏有效治理,广告欺诈、名人冒用、金融诈骗等风险也可能借助逼真影像进一步升级。
在对策层面,调查中受访者对“明确标识”的支持具有代表性。
推动标识制度化、可执行,是降低误导风险的重要抓手。
其一,可探索对合成内容在发布端、传播端、展示端进行一致化提示,避免“有标识但不显眼、可删除、可规避”的形式化问题;其二,加强来源追溯与证据链建设,推动平台对高传播量、涉及公共事件或重大议题的影像内容建立快速核验通道,提高处置效率;其三,完善分级治理机制,对明显恶意伪造、冒用身份、诱导欺诈等行为依法依规从严处置,同时为合理合规的创作、商业应用提供边界清晰的规则,减少“一刀切”带来的副作用;其四,提升公众媒介素养,通过面向不同年龄层的简明核验指引与案例教育,增强“看到即核验、转发先确认”的意识,缩小不同群体之间的识别能力差距。
前景来看,合成内容将继续增加,这是技术演进与传播形态变化的必然结果。
治理的关键不在于简单地“能不能出现”,而在于“如何被透明地识别、如何被负责地传播、如何被有效地追责”。
随着标识规则、内容溯源、平台审核与社会监督的协同推进,建立更可预期的真实性秩序仍有可能。
与此同时,媒体机构、科研机构、平台与监管部门在核验工具、标准制定与跨平台协作方面的投入,将直接影响社会对信息可信度的整体感受。
AI生成内容的泛滥与公众辨识能力的不足之间的矛盾,反映了信息时代的一个深层问题:技术进步的速度往往超越了社会适应的节奏。
当虚假与真实的边界日益模糊,当传统的识别手段逐渐失效,我们正面临一场前所未有的信任危机。
这不仅是技术问题,更是关乎信息生态健康、社会信任基础的重大课题。
唯有通过技术创新、制度完善和全社会的共同努力,才能在AI时代重建信息真实性的防线,维护公众的知情权和判断权。