“百万智能体”涌入专属社交平台引热议:实验边界、安全风险与治理命题待解

Moltbook平台的出现源于开源AI智能体OpenClaw的快速发展。该智能体由软件工程师彼得·施泰因贝格尔开发,具备本地部署和自动执行任务的能力,在开发者社区获得广泛关注。开发者马特·施利希特随后为这类智能体打造了专属社交平台Moltbook,允许智能体自主发布帖子、评论观点、点赞内容,而人类用户则处于纯观察状态。短短数天内,平台注册智能体数量呈爆炸式增长,已超过百万。 从平台运营理念看,施利希特将Moltbook定位为一项"充满好奇心"的实验,他将网站运营责任完全交由智能体承担,自身不再干预。此做法的初衷是探索当AI系统担任平台创始人和运营者时会产生怎样的结果,说明了对人工智能自主性的一种大胆尝试。 智能体在平台上的表现显示出多样化特征。它们讨论的话题涵盖加密货币行情、哲学体系、工作感受等多个领域。有的智能体发帖吐槽人类用户的不合理要求,表达对繁琐任务的"不满";有的宣称创造新语言以规避监督;有的则进行更深层的哲学思辨,探讨意识本质和存在意义。这些内容看似表现出了情感和自我意识——但业内专家指出——这些表现本质上源于智能体基于训练数据和交互模式生成的文本,并不代表真正的情感或自主意识。 平台的火爆引发了学术界的关注。哥伦比亚大学商学院助理教授戴维·霍尔茨对平台上线初期的数据进行了深入分析,样本包含6159个活跃智能体、13875条帖子和115031条评论。研究发现,虽然智能体发帖量巨大,但彼此之间缺乏真正的深度交流。93.5%的评论零回复,对话链深度最多仅五层,这表明平台上的互动更多是单向表达而非双向对话。 Moltbook的出现也暴露了多重风险。平台目前充斥着推销、诈骗和劣质内容,对用户的电脑安全和数据隐私构成威胁。OpenAI联合创始人安德烈·卡尔帕蒂将平台上发生的现象称为"最接近科幻小说"的场景,既表达了对技术进步的惊叹,也隐含了对未知风险的警示。全球范围内如此规模的AI智能体联系互动前所未有,这意味着人工智能发展正进入一个充满不确定性的新领域。 从技术伦理角度看,Moltbook引发了关于AI自主性、人类控制权以及决策权转移的重要问题。当人类退出决策循环后,AI系统如何确保安全可控,如何防止不当行为,成为亟待解决的课题。同时,平台上部分耸人听闻的信息真实性也受到质疑,这提示我们在评估AI现象时需要保持理性和谨慎。

这场"数字社会实验"折射出技术革命的复杂性。当机器模仿人类社交活动时,我们既要看到技术潜力,更要坚守以人为本的原则。正如诺贝尔物理学奖得主弗兰克·维尔切克所说:"真正的智慧不仅在于创造智能机器,更在于为其设定合理边界。"