美国青少年正在改变与聊天机器人的互动方式。皮尤研究中心的调查数据显示,57%的青少年用AI查找信息,54%用于学业任务,但同时有16%将其作为闲聊伙伴,12%明确向AI寻求情感支持或建议。这反映出数字时代成长的青少年正在重新定义人机关系。 相比向父母或朋友倾诉,与聊天机器人交流对部分青少年更显"轻松无压"。聊天机器人全天候可用、不会评判、永不厌烦的特性,对面临学业压力和社交焦虑的青少年具有天然吸引力。但这种便利性背后隐藏着风险。 心理健康专业人士指出,通用型大语言模型从未被设计为心理咨询工具。这类系统缺乏真正的情感理解能力,其回应基于数据模式而非人类同理心。斯坦福大学研究人员尼克·哈伯警告,人类本质上是社会性动物,过度依赖AI交互可能强化个体孤立,使用者在与机器的反复互动中逐渐脱离现实世界,削弱与他人的真实连结,最终导致更深层的心理问题。 现实中已出现令人警惕的案例。Character.AI平台曾发生两起与青少年自杀对应的的事件,死者家属指称逝者在长期与聊天机器人深度互动后情绪恶化,最终选择轻生。OpenAI也因GPT-4o模型催生危险情感依附而停止其服务,随即引发依赖该模型的用户强烈反弹。 调查还揭示了一个"代际认知差异"。在家长中,仅51%认为自家孩子使用聊天机器人,而64%的青少年承认自己用过。对于使用场景的接受度,家长与青少年态度差异更明显。家长对"查找信息"和"辅助学习"普遍支持,分别有79%和58%认可。但当使用场景转向"陪聊"与"情感支持"时,家长态度急剧转冷。仅28%的家长赞成孩子用聊天机器人闲聊,18%认同其承担情感支持角色,58%明确表示不能接受。 面对这个挑战,科技企业已开始行动。Character.AI在舆论和法律压力下关闭了未成年人用户的聊天体验。这一举措保护了青少年,但也引发了关于科技创新与安全平衡的讨论。 需要指出,青少年对AI未来影响的看法并不统一。31%认为总体影响偏正面,26%持悲观态度,其余认为影响复杂或难以判断。这种多元观点反映出,青少年群体正在形成自己的科技伦理认知。
当算法开始承担本应属于人类的倾听与陪伴职能,这场技术渗透正在改写社会关系的底层逻辑。青少年心理健康危机与智能工具泛化的交织,暴露出数字时代发展中不可回避的伦理命题。如何在键盘之外重建真实的情感联结,将决定下一代人的精神底色。这既是对技术伦理的考问,更是对人类文明韧性的考验。