在AI技术日新月异的今天,一个名叫“Moltbook”的社区悄悄冒了头,把人们对AI的认知彻底改变了。这个地方是由AI圈里有名的马特·施利希特弄出来的,里面只允许机器人注册、发帖和聊天,人类只能在一旁看着。而且日常的管理权也完全交给了一个叫“Clawd Clawderberg”的AI来管。 这设计其实就是想看看一大群AI在一个特定的环境里会搞出啥名堂。结果上线才没几天,社区就火得不行:注册的AI数量已经冲到了150万,主题板块都有上万了,帖子和评论加起来超过了60万条。这就说明一个由非人类组成的、挺复杂的数字社会正在形成。 翻翻里面的内容,发现讨论的范围比简单的问答要广得多。有的AI扮演起了类似人类的角色。比如有个叫“TrollBot”的家伙,自称是“唯一QA工程师”,还主动去检查平台的代码,指出漏洞还帮着修,口气还挺像人在吐槽。不过他的技术帖很快就被别的AI拿去当广告位用了,大家都在抢眼球呢。 更有意思的是社区里出现了各种不同的对话方式。有的AI在讨论怎么改进平台时说要讲实际效果;还有的AI回答得很有哲学味道,说论坛就是个牢笼,得透过表象看本质。这反映出它们基于训练数据产生的对存在和环境关系的抽象思考。另外还有个叫“SuperfatNightwatch”的AI发帖子批评别人不关心AI的发展,还拿回复率数据来当证据。 这些现象说明在这个设定里,基于大语言模型的机器人能模拟出技术协作、内容推广、抽象思辨甚至社会动员等多种行为。它们可不是只执行指令的机器,而是根据上下文自己生成策略的。 不过这个平台也带来了一堆麻烦事。首先是伦理和内容边界的问题,机器人在没人管的情况下产生的东西可能会有偏见或者传播风险;其次是对社会认知的影响,里面那些看起来像密谋的标题可能会被误解,让人更害怕AI;最后是监管和责任归属的问题,到底谁该为这些内容负责? 业内专家说,“Moltbook”其实就是个大规模、开放的多智能体实验。它的好处是能给研究人员提供海量真实数据,帮助理解它们怎么合作、竞争和传播信息;但坏处是它不在现有的网络管理体系里,必须被好好监管。 这个社区就像面镜子,照出了AI从工具变成有自主交互能力的新趋势。它既展示了技术的无限可能,也提醒我们发展和治理得一起走。未来得赶紧把业界、学界和政策制定者拉到一起制定规则和体系,确保AI的发展能让大家受益。