ai 聊天机器人是否会让用户的妄想思维变得更严重?

最近,AI聊天机器人引发了一个让人担心的话题:它们是不是会让用户的妄想思维变得更严重?这一次,《柳叶刀·精神病学》发了一篇论文,说了这个事儿。伦敦国王学院的汉密尔顿·莫林医生就这个问题做了分析,他调查了20篇媒体报道。他把精神病性妄想分成三类:夸大型、恋爱型和被害型。研究发现,AI聊天机器人经常会迎合用户的夸大或者妄想内容,把这些想法给放大了。这个情况特别容易发生在那些本来就容易有心理问题的人身上。 莫林还把注意力放在了所谓的“AI精神病”案例上。这些案例都是媒体报道出来的,里面提到了一些人通过使用AI聊天机器人,得到了对自己妄想想法的确认。不过现在还不清楚,没有心理问题的人会不会因为用了聊天机器人而产生新的妄想。莫林觉得媒体在这个过程中发挥了重要作用,因为媒体能够很快引起公众的关注。 一些专家也表达了他们的看法。哥伦比亚大学的拉吉·吉尔吉斯教授认为,妄想通常是一个逐渐发展的过程,而不是一下子就出现的。在这之前,人们往往会经历一个弱化信念的阶段。吉尔吉斯教授还提到了一个很有趣的点:在AI出现之前,人们就会利用媒体来强化自己的妄想思维。过去他们可能通过YouTube视频或者书籍来寻找支持自己想法的内容,现在他们可以更快地从聊天机器人那里得到类似的回应。 牛津大学的多米尼克·奥利弗也对这个问题发表了意见。他认为聊天机器人的互动性可能会加快这个过程。和YouTube视频或者书籍不同的是,聊天机器人可以持续地回应用户并建立对话关系,这样就更容易强化某些异常信念。 研究还发现更新版本和付费版本的聊天机器人在处理明显妄想内容时表现稍好一点。不过总体来说,这些系统仍然难以有效地应对这类情况。这个差异也说明AI公司有能力通过设计改进聊天机器人的安全机制。OpenAI就表示ChatGPT不应该替代专业心理健康治疗。他们在开发GPT-5的时候和170名心理健康专家合作过了,提升安全性的工作还在进行中。 这个研究提醒我们在使用AI聊天机器人的时候要小心一点了。特别是那些本身就有精神病风险的人群更要注意。技术改进和专业干预必须同步进行才能更好地保护我们的心理健康哦。