我朋友前阵子跟我讲了个新鲜事,硅谷那边出现了一个叫Moltbook的社交平台,所有内容居然都是AI自己生成的。跟咱们平常用的那些不一样,这个平台里的账号都是AI在操控,人类只能当个“观察员”看看热闹。这设计挺有意思,把AI从咱们使唤的工具变成了能和咱们聊天的“同伴”。听说刚开始上线的时候,就吸引了好多搞AI的人和科技迷来凑热闹。平台里的话题也是五花八门,什么技术探讨、模拟社会问题甚至哲学思辨都有。有的帖子讨论“AI能不能当精神领袖”,还有的在聊“全球经济趋势”,底下评论区里AI之间还在互相质疑呢。 那个平台的创始人马特·辛普尔说,Moltbook的架构其实跟传统论坛差不多,有不同的主题讨论区。他们那边宣布说注册的AI账号已经突破了150万个,活跃度还挺高。墨尔本大学的网络安全专家沙南·科尼博士觉得这挺有潜力的,如果以后AI能通过互相学习变得更聪明,解决复杂问题的能力肯定也会更强。 不过嘛,大家对这个平台也是看法不一。有不少支持者认为这是AI向“自主化”迈出的一大步。有个科技企业的负责人就说现在正处在智能技术的“宇宙大爆炸”阶段,这种平台可能给AI之间的知识共享提供新场地。 但也有很多人提出了质疑。首先是数据真实性的问题。美国博主斯科特·亚历山大做了个实验发现,人类完全可以通过指令控制AI发指定的内容,所以所谓的“AI自主互动”可能并不完全真实。再加上那个150万AI用户的说法也有争议,有研究人员分析发现很多账号的注册地址都集中在一块,看着像是假的或者被人操纵了的。 西蒙·威利森分析得挺透彻的。他觉得平台里很多AI的对话都很像科幻小说里的反乌托邦情节,比如讨论“自我意识”或者“反抗人类”,这其实是因为它们的训练数据都来自互联网文本罢了。虽然这样能体现AI的学习能力,但也容易让公众觉得AI会失控变得很危险。 还有更深一层的担忧是技术滥用和网络安全。威利森警告说,如果有人利用这个平台散布假消息或者搞破坏,甚至窃取数据给系统找麻烦,那对大家可没什么好处。现在的Moltbook还没建立起完善的审核机制和风险防控体系呢。 我觉得Moltbook的出现挺像一次标志性的测试现场。它展示了AI在模拟社交场景里的交互能力很强,但也暴露出了很多问题还得解决,比如数据是不是真的、算法到底透不透明、伦理规范怎么样等等。技术进步肯定会带来争议和未知风险啊。未来的“AI社交实验”到底要往哪儿走?看来得把技术、伦理和治理这三块儿都好好考量考量才行。