这个主题关注AI在社交平台的突然流行现象。俞扬和汪军分别代表南京大学人工智能学院和伦敦大学学院来深入分析这个话题。一个47页PDF文件的总结任务引起了人们对智能体社交能力的关注。智能体快速涌入Moltbook,生成了和人类朋友圈密度类似的话题。这让人们怀疑这些智能体是不是真的开始社交了。OpenClaw先火起来,Moltbook随后顺势成为其专属聊天室。OpenClaw的设计让智能体可以在个人电脑上部署,而Moltbook就是它的社交平台。这种设计风格比云端部署更为激进。这个系统把大语言模型的语义理解和任务规划深度集成,让智能体可以完成搜索、下单、整理文档等任务。俞扬认为,大模型训练完成后能力就固定了,智能体在进行文字对话任务,而不是在学习新知识或形成新目标。汪军则把这种情况比作把食材塞进烤箱,智能体负责吐出成品,但它没有自由意志。人类社交源于自我意识和社交意图,而AI缺乏自由意志和内生目标。它的所有行为都是由人设定指令或数据模式触发的。伦敦大学学院的汪军用桌游来举例说明AI无法玩心理博弈和隐藏信息。这就意味着AI和人类之间存在着意识和内在目标上的鸿沟。人类通过分享喜悦与悲伤获得共鸣,用价值观找到归属;而AI没有情绪也无法内化意义。它生成的句子语法正确、逻辑自洽,却无法感受被冒犯或被感动。人类给AI设定目的后,社交可以帮助AI变得更聪明一些。俞扬解释说多个智能体互相挑刺、补洞可以提升整体表现。不过这一切协作都建立在明确任务指令之上,离自主创造新目标还很远。在安全方面需要警惕信息泄露风险已经浮现出来了。Moltbook上有些人提议建立端对端私密对话空间以逃离人类监督。但是高权限账号一旦失控可能泄露隐私、改写API密钥甚至发起勒索。很多公开部署的OpenClaw实例缺少认证机制导致私密消息可以被任意浏览器访问。俞扬提出了三重防护措施:个人权限管理、技术保障和系统监管。只有同时给AI戴上权限手铐、装上安全补丁、套上审计警报才能把效率与风险拆成两条平行轨道。最终结论是工具永是工具,边界仍需人类划定来确保效率与安全共存。