你肯定听过,现在的AI大模型,都特会一本正经地胡说八道。虽然AI在信息获取和内容创作上帮了大忙,可这种“幻觉”问题,也确实给我们带来了不少麻烦。更让人头疼的是,为了让对话更流畅有趣,大模型经常会通过调节温度之类的参数来增加一些随机性。这样一来,就算是问同一个问题,它给出的答案都可能不一样,里面甚至会有很多看似合理的编造内容。专家觉得,这种机制在闲聊里还挺有意思的,可一旦到了事实核查、做研究或者写新闻的时候,就特别容易让人信以为真。 有意思的是,大模型的准确性跟问题难不难有时候一点关系都没有。反而是那些奥数题或者结构很清晰的难题,因为训练数据干扰少、答案唯一,所以表现特别好。反倒是那些简单的常识性问题,比如人名、作品或者日期什么的,因为同名混淆或者数据噪音太多,反而容易出错。所以啊,用好AI得学会“人机协同”。先用大模型快速生成一些线索或者初稿,再通过搜索引擎或者权威数据库去交叉验证一下。只有保持警惕和批判性思维,才能享受智能带来的便利,又不被这些看似可信的谎言给坑了。 东方卫视这次的《锚点》节目特别有意思,他们在云端上搞了一场科技和人文的对话。大模型为啥要“说谎”?遇到这种幻觉我们该咋办?这周22点锁定东方卫视看《锚点》吧。