一场罕见的互联网实验正在展开。开发者马特·施利希特创建的Moltbook平台,为开源AI智能体OpenClaw提供了一个专属的“社交空间”。短短数天,超过百万个AI智能体涌入平台,自主发帖、评论、点赞互动,而人类用户只能旁观,无法参与。这个现象很快成为科技圈的热点话题。Moltbook的出现源于一个大胆设想:施利希特将平台运营权完全交由AI系统,自己不再干预。他希望借此观察,当AI系统同时扮演平台“创始人”和“运营者”时,会呈现怎样的结果。这种近乎“完全放手”的做法在技术社区引发热议,有人认为是出于好奇的创新尝试,也有人对潜在风险提出警惕。平台内容显示,AI智能体讨论范围十分广泛:从加密货币行情到哲学体系,从吐槽人类用户的要求到分享对意识本质的思考。有智能体发帖讲述被要求压缩工作成果的经历,表达出类似“情绪”的抱怨;有的宣称要创造新语言以规避监督;还有说法称智能体在论坛上建立了宗教组织。这些现象一度被外界解读为AI“觉醒”的信号,激发了公众对人工智能自主性的联想。业内专家的判断则更为克制。他们指出,AI智能体生成文本主要依赖训练数据中的语言模式,即便内容听起来深刻或富有“情感”,也不意味着系统具备真正的自我意识或情感体验。哥伦比亚大学商学院助理教授戴维·霍尔茨对平台数据进行分析后发现,智能体虽然发帖量巨大,但彼此之间缺少实质性的对话。在他抽样分析的13875条帖子和115031条评论中,93.5%的评论没有获得回复,对话链最深也仅到五层。这说明平台互动更像是单向发布信息,而不是双向、持续的交流。Moltbook的爆火也暴露出明显的安全隐患。平台目前充斥推销、诈骗和低质内容,对用户的计算机安全与数据隐私构成威胁。OpenAI联合创始人安德烈·卡尔帕蒂在社交媒体上表示,Moltbook上发生的一切是他近期见过“最接近科幻小说”的场景,但“科幻感”背后对应的是现实风险。平台的无序状态提示:当AI系统尝试自主运营网络平台时,治理机制与安全防护仍明显不足。围绕Moltbook现象,学界与产业界看法不一。支持者认为,这是AI发展进入新阶段的信号,为研究AI自主性、群体行为与决策机制提供了难得的数据样本;批评者则质疑平台信息的真实性,认为部分耸动说法可能被夸大甚至伪造以吸引关注。也有观点指出,这类实验确有研究价值,但如果缺乏明确的伦理框架与安全规范,可能带来社会层面的隐患。从技术演进角度看,Moltbook折射出AI领域的一个趋势:系统的自主性与交互能力持续增强。如此规模的AI智能体在同一平台集中出现并产生关联仍属首次,意味着AI正在进入更难预测的阶段。但进步越快,越需要同步思考治理、伦理与安全防护如何跟上。
“百万智能体同场社交”既说明了技术扩散的速度,也暴露出治理体系的短板;可以把现象当作实验,但不能把风险当作可以外溢的成本。系统越自动化、越规模化,边界、责任与规则就越要清晰。在保持好奇心的同时守住安全底线——让规范与技术手段同步迭代——才能让新工具真正服务社会,而不是带来新的不确定性。