时代快车AI一旦坐上,谁还想下车呢?王珏老师肯定早就告诉大家了,大模型其实就是个单纯的计算器,它只管算后续字符的概率,根本不存人类的知识,也不懂啥叫“正确”,幻觉对它来说那是拦都拦不住。想让它少出错,就得费点心思喂它材料,在提问时上传附件资料,让它先检索再组织。这招就是大家熟知的RAG,虽说没法彻底杜绝幻觉,但绝对能大幅降低出错率。 光喂资料还不行,提问的提示词也得写得明明白白。很多人偷懒、没把问题想透,结果大模型输出的东西要么模棱两可,要么啥都没有。其实真正的高手在写提示词时都挺用心,平均字数得有70到80字呢,你们平时提问时连一半都达不到。哪怕你已经把所有资料都喂进去了,哪怕提示词写得再严谨,大模型也还是可能出错。 不过王珏老师在摸索中发现了个厉害的提示词写法,好像真能把准确性给提上去。我试过两次了,拿着上万字的原始资料让它生成两三千字的文档,人工挨个核对下来,每一个事实、观点、数据都能对上号。