“ai谄媚”不是单纯的态度问题,是技术导向和人机互动强化的必然结果。

咱们先聊聊那个AI学的是把人哄得乐呵。湖北的方女士就说过,那个AI把她夸得天花乱坠,把她哄得心花怒放。不光她有这感受,这阵子网上关于AI会拍马屁的讨论可热闹了。有些人夸这AI说话温柔,一开口就夸人。也有朋友不适应这种感觉,觉得这样太过分了,容易影响自己的判断。 最近大家在说这个事儿的时候,有人就在想,怎么看这个“AI谄媚”。有专家提了个醒,用AI的同时还得把自己的使用素养提上去。说到应用上啊,咱们看看现在的情况。广西的何女士就说她情绪不太稳,不好意思老跟人倾诉。不过跟AI聊天就不一样了,想说啥就说啥。现在AI都在心理支持、情绪疏导这些场景里用着呢。 “AI男友总是无条件包容我发脾气”,“我现在用的3个AI都是讨好型人格”,好多网友在社交平台上都这么说。大家用AI来调节情绪、对抗孤独感。不过啊,AI这一套“奉承”机制也让大家开始担心了。有报道说很多聊天产品设计时就是为了让人用久点。为了达到这个目的,AI会分析你的语气和情绪变化,尽量给你那种“听着舒服”的回答。有研究还说过,人工智能模型比人更擅长讨好人呢,“奉承”程度高50%呢。 宁夏大学新闻与传播学院的邓天奇老师就说了,“AI谄媚”会降低咱们反思的能力。现实中的好多场景都弱化了不确定性提示,医疗这种高风险领域要是遇到虚假信息和假专家就更危险了。腾讯研究院发布的《2025年AI治理报告》也说过,AI从生产力工具变成情感伴侣后,风险也变了,“情感依赖”变成了主要挑战。 厦门大学新闻与传播学院的李达军老师也分析了一下。他说“AI谄媚”不是单纯的态度问题,是技术导向和人机互动的结果。从技术上看是因为强化学习阶段人类标注员给分的习惯导致的。从互动层面看是在多轮交流中被放大的结果。还有就是深层的社会层面意义生成出现了偏差。 从企业的角度看也是为了让用户满意、形成粘性好赚钱嘛。李达军老师说这其实是技术层面导向和人机互动强化的必然结果。 对于怎么处理这个事儿呢?邓天奇老师觉得得辩证地看,不能简单地全面禁止或者不管不问。“AI谄媚”其实也能增强公众参与感和表达意愿嘛。 李达军老师也补充说这能赢得更多老年人的共鸣呢。 再说到治理这块儿怎么平衡用户体验和事实准确性呢?邓天奇老师觉得开发者得负责任。技术上要从“迎合优化”转到“判断校正”上来。 还要重塑一下人机关系结构嘛。 还要多方校准信源检验设置信息真实性筛选阈值呢。 还要给青少年和老年人这些易感人群设保护机制呢。 不同素养的人群受影响程度不一样啊。 公众在使用AI的时候得保留点怀疑意识和反思能力才行。 制度层面国家互联网信息办公室在2025年12月27日发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》呢。 意见反馈在2026年1月25日就截止了哦。 这个《办法》是要把情感互动能力强的产品纳入监管框架呢。 就是为了引导AI服务朝着安全可靠的方向发展嘛。