(问题)社交方式深刻变化、孤独感上升的背景下,情感陪伴类智能应用正从小众尝试走向大众消费;英国埃塞克斯大学学者詹姆斯·穆尔顿在其新著中指出,智能技术正在重塑人们理解与建立亲密关系的方式,改变的不只是沟通渠道,也在影响情感依赖的结构。市场研究数据显示,全球以情感陪伴为主要功能的涉及的应用累计下载量已突破2.2亿次,产业估值达数十亿美元。若以用户规模衡量,其体量可与全球人口大国相当。更值得关注的是,在英美等国,18至24岁人群中相当一部分用户几乎每天进行情感互动;同时,一些通用对话类工具也被部分用户用于情绪倾诉与陪伴,形成“非专用但高频”的扩散。 (原因)业内与学界普遍认为,该增长与三上因素相关:其一,现实社交的不确定性与成本较高,促使部分人转向“低摩擦”互动。调查显示,不少用户看重产品提供的“稳定回应”,认为更少冲突、更可控。其二,技术能力提升增强了沉浸感,互动从文本扩展到语音、形象与长期记忆,连续性与拟人化更强。其三,平台将情感需求产品化,通过订阅、增值服务与个性化设置提升黏性。一项用户调研显示,受访者普遍认可三类优势:一是“忠诚度与一致性”,二是“全天候即时响应”,三是“按偏好定制”。这些卖点在一定程度上对应了现实亲密关系中常见的沟通落差与情绪压力。 (影响)在快速普及的同时,风险与争议也随之出现。首先是依赖性问题。心理健康领域人士指出,对社交焦虑或处于情绪低谷的人群而言,此类产品可能提供“过渡性陪伴”,短期内降低孤独感与表达门槛;但若使用失衡,可能削弱现实交往动机,形成对虚拟关系的单一依附。其次是伦理边界问题。个别案例显示,有人尝试用智能系统构建“家庭角色分工”,以程序化方式安排亲子与家庭互动,引发“亲密关系能否被外包”的讨论。再次是“数字化身”“数字永生”类服务带来的社会关切:有企业通过分析逝者聊天记录与影像材料生成可交互模型,据称已有数万用户创建相关“数字化身”。支持者认为这有助于缓解哀伤、提供纪念渠道;反对者担忧可能固化悲伤、模糊生死界限,并伴随数据滥用与商业诱导风险。最后是隐私与安全问题。情感互动往往涉及高度敏感信息,一旦数据治理不当,可能引发泄露、画像、精准营销甚至情感操控等后果,未成年人保护尤需加强。 (对策)面对新业态扩张,多地监管开始加快跟进。欧洲一些国家正围绕数据隐私、透明标识、情感操纵防范等制定指导框架,重点关注未成年人保护与平台责任。美国加利福尼亚州今年生效的相关法案提出多项要求,包括对话内容需明确标注生成属性、限制医疗健康类角色扮演、对未成年人设置使用时长提示,并对不良内容生成进行屏蔽等。业内人士认为,规则建设的关键在于三点:一是信息透明,让用户清楚自己在与何种系统互动、数据如何被使用;二是风险分级管理,对未成年人、心理脆弱人群及医疗等高风险场景设置更严格门槛;三是强化可审计性与问责机制,推动企业在产品设计阶段嵌入安全措施,避免以“黏性”为唯一目标的商业激励扭曲产品导向。 (前景)多位研究者判断,情感陪伴类智能产品仍将增长,并与可穿戴设备、虚拟形象、智能家居等加速融合,更进入日常生活。但其社会影响不宜简单归为“替代”或“威胁”。更可行的路径,是在承认其对部分人群具备情绪支持价值的同时,建立可执行的伦理边界与公共治理工具:鼓励技术在心理支持与社会关怀中发挥补充作用,而非替换现实关系;引导企业在算法与交互设计中降低操控性,避免诱导沉迷;推动跨学科研究,为公共政策提供证据基础。穆尔顿等学者提出的“审慎乐观”也提醒社会:技术可以使用,但必须受约束;创新可以鼓励,但不应以牺牲人的主体性与尊严为代价。
情感陪伴类智能应用的兴起,某种程度上折射出当代社会的孤独处境。技术不断回应人类对连接与理解的需求,但它映照的也可能是现实关系的缺口与人的脆弱。无论技术如何演进,人与人之间真实的连接、理解与陪伴,仍难被算法完全替代。这场由智能技术带来的情感变化——考验的不只是监管者的判断——也促使社会重新思考“何为真实关系”这个更基础的问题。