当前,互联网已成为信息传播的主要渠道,但虚假信息泛滥问题日益凸显,严重扰乱社会秩序、误导公众认知。
近期集中曝光的多起网络谣言案例,充分反映了这一现象的严峻性。
据山西省公安厅交通管理总队高速三支队调查,网络上流传的"长治长晋高速大客车侧翻致2死6重伤"信息完全不实。
该虚假信息以道路结冰预警为幌子,编造交通事故,试图制造社会恐慌。
同样,青岛黄岛区"高中生械斗致4人死亡"的消息也被证实为虚假信息,且系利用生成式人工智能技术伪造的内容。
这些谣言的出现和传播,反映出当前网络信息治理面临的新挑战。
虚假信息之所以能够广泛传播,主要源于三方面原因。
首先,部分网民缺乏信息辨别能力,对未经核实的内容盲目转发;其次,一些不法分子利用新技术手段伪造信息,提高了谣言的迷惑性;再次,网络平台的监管机制仍需完善,对有害信息的识别和处置能力有待提升。
网络谣言的危害不容小觑。
虚假信息会引发社会恐慌,损害公众信心,甚至诱发群体性事件。
特别是涉及交通安全、公共安全的谣言,可能直接威胁人民生命财产安全。
此外,虚假信息还会污染网络生态,破坏信息环境的真实性和可信度。
为应对这些挑战,国家层面采取了系统性举措。
国家互联网信息办公室、国家新闻出版署、国家电影局、教育部、工业和信息化部、公安部、文化和旅游部、国家广播电视总局等八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》,这是网络生态治理的重要制度创新。
该《办法》明确了四种可能影响未成年人身心健康的网络信息类型及其具体表现形式,涵盖暴力、色情、诱导不良行为等多个维度。
值得注意的是,《办法》将不当使用未成年人形象等近年来突出问题纳入治理范围,体现了对新型网络伤害的重视。
同时,《办法》对算法推荐、生成式人工智能等新技术、新应用、新业态可能带来的内容风险提出了防范要求,这是对网络治理前沿问题的主动应对。
《办法》要求网站平台和内容生产者采取防范和抵制措施,避免有害信息对未成年人产生负面影响。
这意味着网络治理的责任主体更加明确,从被动应对转向主动防范。
平台企业需要建立更加完善的内容审核机制,提升技术防控能力;内容生产者需要强化社会责任意识,自觉规范创作行为。
从更深层次看,这一系列举措反映了国家对网络生态治理的系统思考。
网络谣言的治理不仅需要事后辟谣,更需要事前防范;不仅需要技术手段,更需要制度规范;不仅需要政府部门的监管,更需要全社会的共同参与。
《办法》的出台,标志着我国网络信息治理从经验性、应急性向制度化、规范化转变。
展望未来,网络生态治理需要多方面协同推进。
一方面,要继续完善法律制度框架,对新技术、新应用带来的风险进行前瞻性规范;另一方面,要加强网民媒介素养教育,提升全社会的信息辨别能力;同时,要强化平台企业的社会责任,建立更加透明、有效的内容治理机制;此外,还要建立健全举报反馈机制,充分发挥社会监督作用。
网络空间的真实与秩序,既依赖制度的“硬约束”,也离不开每个人的“软自觉”。
面对层出不穷的热点与信息洪流,越是情绪易被点燃、细节看似充分的内容,越需要冷静核验与理性判断。
让权威信息跑赢谣言,让守法守规成为共识,才能共同维护清朗网络生态,也为未成年人健康成长筑牢更可靠的数字防线。