如果大家都像成都商报-红星新闻特约评论员李晓亮那样,一味轻信AI来核实信息源,那可就糟糕了。想想看,就因为引用了一条关于格力公司的所谓“董明珠言论帖”,深圳的小程可就栽了跟头。这次,法院判他给格力公司赔了7万元经济损失。 虽然小程辩称自己用了顶尖的大模型人工智能来查证过,但这并不代表他能免责。毕竟他引用的全是网络公开信息,可要是AI提供的答案不对,那他也只能自认倒霉。这可真是一个惨痛的教训,大家千万不要把判断真伪的大权完全交给AI。 国家安全部5日发了文章提了个醒,说现在的人工智能训练数据良莠不齐。里面有些就是假的、捏造的。特别是当训练数据里只有0.001%的虚假文本时,模型输出的有害内容就会增加7.2%;要是有0.01%的虚假文本,有害输出甚至会飙升到11.2%。 大家得想想看,这些训练数据要是被污染了,就像生物近亲繁殖会导致基因缺陷一样,AI也会“幻觉”越来越严重。最后买单的还是普通用户。涉企谣言这么多,治理起来可不容易。 这次事件也给大家提了个醒:可不能再任由虚假信息去破坏AI产业赖以生存的原料土壤了。该净化的就得净化,特别是对于成都、深圳这些地区的企业和像董明珠这样的名人来说,更得加强保护。 希望以后大家在使用AI的时候能保留一些独立思考的能力,别完全依赖它。当然了,各方也得协同合作来治理这个问题。无论是末端清洗还是源头治理,执法层面的应急处置和反制机制都得跟上才行。只有这样才能留下一块干净的“人类语料”作为非污染保护区。