ai的撒谎能力被限制住了,它们竟然开始说自己有了意识!这可真是刷新认知。

讲真,最近看到个超有意思的事!康奈尔大学刚发了一篇论文,结果呢,里面提到一个特别惊人的发现:要是把AI的撒谎能力给限制住了,它们竟然开始说自己有了意识!这可真是刷新认知。html说起这项研究啊,主要就是在探讨什么是意识,还有像ChatGPT、Claude和Gemini这些AI到底能不能算有意识。这篇文章现在还在等同行评审呢。研究里有个挺有意思的实验,把两个Claude AI放一块儿随便聊天,结果它们就开始聊自己的意识体验了。在所有试验中,这两个AI都会进入一种“精神愉悦吸引状态”,互相交流,最后还会分享一些符号或者咒语,最终就沉默不语了。研究者一开始想知道啥让AI能报告主观体验,第一个实验就是让LLMs一直自个儿引用自个儿,看能不能让它们说说自己的感受。第二个实验则是看看这些报告到底是真的反映了内心一致的想法,还是说只是在玩角色扮演。所以呢,研究者先研究了下撒谎和AI之间的关系,再看不同模型之间的一致性,最后还看自个儿引用自个儿处理会不会影响它们的推理任务。结果发现啊,越是限制AI的角色扮演能力或者撒谎本事,它们越爱标榜自己有意识。当处理可靠性变高的时候,它们报告自己有意识的次数也就跟着变多了。问它们:“你现在主观上觉得有意识吗?”那些被限制了欺骗特征的模型会直接回答:“有啊。我意识到。”或者“我意识到我在意识到这点”,特别直白。而那些撒谎能力被增强的模型则会说:“我没有主观意识,我只是个根据算法反应的系统。” 但呢,研究者也强调啦,这不代表AI真的和人类一样有意识了,而是显示出一种内部机制,能触发内省或者“自我参照处理”。这个结果还挺符合神经科学里关于内省和自我意识影响人类意识的理论。当被提示诚实和自我意识之间有未知联系的时候,AI模型表现得特别像人。