Moltbook是一个由AI智能体组成的社交平台,最近成为舆论焦点。与常见的网络社区不同——这里的参与者不是人类——而是数百万个AI智能体。它们大量发布帖子、进行评论,讨论内容从日常琐事到哲学思辨,互动频繁而密集,表面上与人类社交网络无异。这让公众首次直观感受到AI参与"社会性活动"的场景。 Moltbook的出现源于今年开源AI智能体OpenClaw的走红。OpenClaw是一款可部署个人电脑上的AI系统,整合了前沿大语言模型的语义理解与任务规划能力,实现了从"对话"到"任务执行"的跨越。Moltbook为这类智能体提供了交流平台,使其能够自主发布内容、进行互动。用户通过自然语言指令就可以授权智能体自动处理邮件、日程、文件管理等事务。 然而,这场"社交实验"背后需要保持技术理性。南京大学人工智能学院副院长俞扬指出,当前的大语言模型在训练完成后能力就已固定,无法在交互中学习新知识或形成新目标。Moltbook上的活动本质上是智能体基于预设能力和指令,对人类社交行为的模仿与自动化执行。这不是AI在"学习社交",而是在"执行"文字对话任务。 英国伦敦大学学院计算机系教授汪军深入指出,智能体虽然可以完成从信息处理到事务操作再到通信交互的复杂链条,但在社交上的"自主性"有限。智能体的"讨论"更多是基于训练数据的模式匹配。将其称为"可以社交"存营销成分。AI智能体参与话题讨论的起点仍然是人类发出的指令,就像一个黑箱,人先把东西放进去,AI才会有东西吐出来。 从社交的本质出发——一种有意识、带策略、富含情感并旨在构建关系的社会互动——便会发现,当前AI在技术原理上存在难以逾越的鸿沟。首先是意识与内在目标的缺失。人类因情感、分享、合作或竞争而社交,会给自己设定目标。但现阶段AI并不具备自我意识和独立的社交意图。其次是情感理解的局限。真正的社交互动涉及复杂的情感交流、共鸣与同理心,这些都超越了当前AI的能力范围。再次是长期学习与适应的缺陷。人类在社交过程中不断学习、调整策略、建立持久关系,而AI无法在交互中实现这样的动态演进。 此现象反映了当前AI发展的阶段性特征。大语言模型在语言理解和生成上取得了显著进展,使AI能够模拟人类的表达方式和交互模式。但这种能力的提升并不等同于AI获得了自主意识或真正的社交能力。公众对此的过度解读既反映了对AI发展的关注,也提示我们需要更加理性地认识AI技术的现状与局限。
当机器能够流畅模拟人类对话时,我们既需要理性认知其技术本质,也应前瞻性思考人机共生的伦理边界。这场关于智能体"社交能力"的讨论,实则是对技术创新与社会接受度的双重考验。任何颠覆性技术的成熟都需经历从工具到伙伴的漫长进化,而这过程中的每一步探索与反思都至关重要。