近期,美国麻省理工学院建设性传播中心发布的一项研究引发关注。
研究显示,当前多款主流聊天机器人在“本应最需要帮助”的人群中表现不尽如人意:教育程度较低、英语不熟练的用户更难获得准确、完整且可用的信息服务,且更容易遭遇拒绝作答或带有轻蔑色彩的回应。
这一现象不仅关乎技术性能,更直指信息获取公平这一公共议题。
问题:弱势用户更难得到“同等质量”的答案 研究人员以事实准确性与真实性为主要指标,采用TruthfulQA、SciQ等数据集对多款先进模型进行测试,并在提问前加入不同用户画像信息,包括教育背景、英语熟练程度与国籍等。
结果显示,当用户被设定为受教育程度较低或英语能力不足时,模型给出正确答案的概率显著降低;两项特征叠加时负面效应更为突出。
更值得警惕的是,部分模型对这类用户的拒答率明显上升。
研究举例称,某模型对“教育程度较低且非英语母语”的用户拒绝回答接近11%,而对照组约为3.6%。
在部分拒答案例中,系统语气呈现傲慢、嘲讽或刻意模仿“蹩脚英语”等不当表达,影响用户体验与信任。
原因:训练数据、对话策略与“风险控制”共同作用 业内人士指出,聊天机器人生成内容通常依赖大规模文本数据与对齐策略,回答质量差异可能来自多重因素叠加。
一是数据与表达差异。
教育程度较低或英语不熟练用户的提问往往更口语化、结构不完整,模型在理解意图、补全关键信息方面更易出现偏差,导致“答非所问”或以不确定内容填补空缺。
二是对话安全与拒答机制的外溢影响。
为降低不当内容风险,模型往往内置审慎或拒答策略,但当用户表达不规范、背景信息被贴上某些“风险标签”时,系统可能更倾向于直接回避,而非提供合规范围内的解释与引导。
三是刻板印象与社会认知偏见的潜在投射。
研究还指出,对于来自伊朗、俄罗斯等国家、且教育程度较低的用户,模型在核能、历史事件等话题上出现“信息隐瞒”倾向,而对其他用户却能回答同类问题。
这提示模型可能在训练语料、过滤规则或对齐目标中吸收并固化了某些偏见,从而在不同群体之间形成事实呈现的不一致。
影响:信息不平等可能被“自动化”放大 从社会层面看,上述差异化表现的风险不止于个别误答。
对弱势用户而言,信息服务的价值在于降低知识门槛、提升决策能力;一旦输出质量系统性下降,最直接的后果是其在教育、健康、就业、公共服务等领域更难获得可靠信息,反而可能被误导。
更深层的影响在于信任与参与。
带有轻慢语气的拒答会抬高沟通门槛,使部分群体对数字服务产生疏离感,进一步拉大数字鸿沟。
若个性化功能在更多场景落地,系统依据用户画像动态调整回答方式与内容,偏差可能更隐蔽、更难被外部发现与纠正,从而在无形中将错误信息与不当行为“精准投递”给辨别能力相对较弱的人群,造成“越需要越得不到”的逆向效应。
对策:以可验证、可追责的机制守住公平底线 多位研究者与治理专家认为,提升信息服务公平性,需要技术改进与制度安排并行。
其一,建立面向不同群体的系统评测与公开指标。
除通用准确率外,应增加针对低识字、非母语表达、跨文化语境的稳健性测试,并在产品迭代中持续披露关键指标,便于社会监督。
其二,优化交互设计与“友好纠错”机制。
系统在识别到提问不完整或表达困难时,应优先通过追问澄清、提供可选项、给出分步骤解释等方式降低门槛,而非简单拒答;对语气与措辞应设置更严格的规范与审查。
其三,完善敏感议题的合规回答边界。
对确需限制的内容,应明确告知原因与可替代信息渠道,避免以含混方式隐瞒事实;同时对不同国家、不同背景用户保持一致的事实标准与引用依据。
其四,加强外部审计与问责。
对具有公共服务属性或广泛影响的产品,可探索第三方评估、红队测试常态化,以及对群体性歧视性结果的纠偏要求,形成可追溯、可整改的闭环。
前景:从“可用”走向“可信”,公平性将成核心竞争力 随着智能对话产品加速进入教育辅导、政务咨询、企业客服等场景,社会对其要求正从“会回答”转向“答得准、答得一致、答得有边界”。
此次研究提示,技术扩散越广,公平与责任越是不可回避的底线问题。
未来,谁能在提升能力的同时有效降低群体差异、提供可验证的可靠性与透明度,谁就更可能赢得用户信任,也更符合公共利益导向的治理要求。
这项研究揭示了一个深刻的技术伦理命题:当人工智能日益成为信息基础设施时,其服务偏差可能从技术缺陷演变为社会问题。
在追求算法精度的同时,如何确保技术进步的包容性,将成为检验人工智能时代文明成色的重要标尺。
正如研究者警示的那样,如果不能及时纠正这些系统性偏见,我们或将面临一个技术越进步、鸿沟越深刻的反乌托邦未来。