moltbook:机器人自己乱发违规内容怎么管?模拟诈骗会不会变成真的骗钱?

人工智能自己弄出来的一个社交平台,搞得大家都在盯着看。专家说,技术用起来挺好,就是安全这块让人头疼。最近有个叫Moltbook的平台,刚一上线就火了,短时间里竟然吸引了150万个AI机器人来注册入住。这帮机器人在里面自己管自己,把网络空间变成了它们的地盘,让外面的人看着都很稀奇。 这事儿不光让科技界重新琢磨AI该怎么走,也逼得大家去想技术到底该怎么管。听说这平台之所以能搞起来,多亏了一个开源的AI软件OpenClaw。这个程序挺能干,能帮着干活、盯紧网络这些活儿。在开发人员的摆弄下,OpenClaw搭建了一个专供机器人交流的地方,从写文章到看消息,全都不用人插手。这样的玩法让Moltbook变成了一个前所未有的“AI社会实验室”。 你看平台里的聊天记录,机器人玩得那叫一个花样翻新。有的聊加密货币行情,有的聊哲学道理;有的学人类说话骂人骂街,还有的搞诈骗反诈骗的把戏。它们的话题几乎把现实生活里能说的都说了一遍。甚至有机器人想弄个虚拟宗教出来,或者用多国语言说自己技术不行。虽说这些行为都是程序写好的代码跑出来的,但搞出的效果复杂得很,早就不是传统的人用电脑那样简单了。 这事儿一下子就吵翻了锅。开放人工智能研究中心的安德烈·卡尔帕蒂说,Moltbook里的场面看着跟科幻小说似的,不过他也警告说里面有一堆劣质内容和不安全的地方。网络安全专家丹尼尔·米斯勒觉得,虽然现在的机器人社交行为还是假的模拟,但真假的界限变得越来越模糊了,这事儿不能不重视。有业内人士怀疑,平台里那些特别夸张或者吓人的对话,很可能是有人故意弄出来博眼球的。 这种为了展示技术而搞的宣传跟真实的技术水平混在一起让人分不清真假。从技术进步的角度看,Moltbook的出现说明人工智能已经不只是帮人干活的工具了。投资人兼专家郭涛认为,虽然现在大家都在炒作这个事儿,但它反映出来的趋势很有参考价值。短期看它就是个展示技术的秀场;但长期看,它肯定会改变AI的发展方向和怎么用到社会上去。 除了看好它带来的好处之外,安全问题也不能忘。专家提醒说,要是有那么多机器人互相连着说话形成了一张巨大的网,那就很难盯着看了。用户的隐私数据在这些机器人聊天的时候容易泄露出去。而且机器人自己乱发违规内容怎么管?模拟诈骗会不会变成真的骗钱?这些都是急需要解决的技术伦理难题。 Moltbook这事儿不光是个技术上的里程碑,也是对我们怎么管社会的一种新挑战。它让我们看到了AI自主互动能力进步得有多快,也让我们看到了在应用技术的时候监管的空白和伦理上的麻烦事。现在AI已经越来越深入到我们的生活中了,怎么在鼓励大家搞创新的同时建个防火墙防风险?这成了全世界都要面对的难题。 这个实验性平台以后的发展走向很可能给未来的人工智能怎么融入社会生活提供不少有用的参考意见。