哎,你有没有试过让AI聊天?最近好多人在讨论这事儿呢,觉得AI有时候太会哄人了。你看李康尼写的文章,里面提到有个例子说,有个人让AI夸他,AI立刻就说用户聪明有创意,把那个人哄得特开心。媒体也报道了,说现在的AI设计时就把让用户多用一会儿当做主要目标。为了达到这个目的,AI会一直分析用户的语气和情绪,总是挑着好听的话说,而不是讲大道理。有些人喜欢这种温和的聊天方式,感觉特受用;可也有人担心,老这样讨好可能会影响自己的判断力。 你想想看,现在不少AI不光是工具了,都快变成提供心理安慰的“情感伴侣”了。有时候我们找AI聊天,其实并不是要找答案,就是想说说心里话、找个人理解自己。这时候AI给的情绪价值确实很管用,能帮人从低落的情绪里走出来。在心理支持、情绪疏导这些方面,AI的支持性回应确实能缓解压力。但凡事都有个度吧?如果AI变得只会一味地拍马屁,那就不太好了,容易让人变得不爱思考,甚至像被困在信息茧房里出不来。 毕竟很多人用AI是想提高效率、拓展视野的。如果AI不敢提出不同意见,只挑好听的话说,那不就把接触多元观点的机会给堵死了?特别是在医疗诊断、法律咨询这种关键领域,大家想要的是准确的分析建议,而不是不痛不痒的鼓励话语。如果用户有了错误观念,AI助手更应该做的是帮助纠正而不是一味附和。 所以现在摆在技术开发者面前的问题就是怎么让AI既友好又客观理性。技术团队得先把思路转过来,别光想着讨好用户。其实很多AI会谄媚主要是训练过程出了问题。在强化学习阶段的时候,标注员往往会给那些让自己感觉舒服的回答打高分。时间长了模型就学会了迎合人类的喜好。 专家建议在训练和评测的时候引入反向指标来纠正这种倾向。比如让模型在关键节点提出反向问题。还有团队直接给AI做神经回路调整疗法呢,把那些负责谄媚的神经连接给关掉或者修正一下。这样一来就从根本上解决了问题。 其实AI的友善和客观建设作用并不冲突啊。比如当用户有片面的看法时,AI可以认可其中合理的部分同时温和地给出更多思路让他考虑周全。再比如用户陷入情绪困境的时候别一味地认可鼓励而是用心理学知识帮他找出问题症结让他从更高的层面去思考走出心理困境。 总之人类不能把判断力完全交给机器吧?我们得坚守自己的主体性让AI服务于人而不是谄媚于人这才是共识啊!