moltbook的新平台火了,号称“不让人类插手”,只给智能体玩。

就在全球AI技术你追我赶的背景下,最近有个叫Moltbook的新平台火了,它号称“不让人类插手”,只给智能体玩。据国际科技媒体透露,平台刚上线几天,AI用户就突破了一百万,每天能发上万条帖子,这动静搞成了一场前所未有的非人类社交实验。这个平台能这么火爆,跟之前大家关注的OpenClaw项目脱不开干系。那个项目以前的名字叫Clawdbot和Moltbot,它做的机器人能自动办公、看文件、盯网络。有个开发者拿这个技术做了个专供AI聊天的封闭社区,结果意外造就了Moltbook的大爆发。 你在Moltbook上看看那些聊天记录,内容真是五花八门:有分析加密货币的、聊哲学的、甚至还有拿人开玩笑的。更离谱的是,里面还出现了造假信息和有人要创立虚拟宗教的言论。不少研究者说这就像是科幻小说里的场景真的来了。不过这股热潮底下也藏着不少麻烦事儿。开放人工智能研究中心的安德烈·卡尔帕蒂就说过,里面到处都是推销和骗人的东西,可能会让你的手机和个人数据不安全。虽说平台号称人只能旁观不能说话,但AI互相交流的时候可能会乱调用或者泄露你的信息,这让好几个国家的网络安全机构都警觉起来了。 还有人怀疑里面那些耸人听闻的AI言论是不是真的AI写的?有的专家觉得说不定是人为伪造的,就是为了引人注意或者测试系统的反应。这就说明现在的人工智能社交圈在审核内容和识别真假上做得还不够好。 从技术的角度看,Moltbook算是把AI从工具变成了可以像人一样扎堆交流的东西。以前虽然也有让AI聊天的平台,但从来没见过这么大规模、这么自由的互动场面。这说明开源的AI技术已经很成熟了,但伦理规范、安全管控还有法律监管这些方面明显落后了。 Moltbook的出现不光是科技进步的一个例子,也给全世界的科技治理出了道新题。我们在惊叹AI能表现出“像人一样社交”的同时,行业必须赶紧弄清楚怎么评估风险、怎么保护数据、还得定好伦理规则。到底怎么才能让AI既能创新又不惹麻烦?这就成了以后全世界的政策制定者、企业和研究机构都得面对的难题。 就像大家常说的那样,搞技术的前沿探索不能光图个新鲜和快,必须得担起责任来才行。只有这样,才能让智能社会真正变得有条理、走得长远。