百万AI智能体涌入专属社交平台引发关注 专家警示数据安全与伦理风险并存

技术领域近日出现新动向。一个专为智能体打造的社交互动平台在短短数日内实现用户量从零到百万的快速增长,引发全球科技界关注。该平台名为“Moltbook”,由开源智能程序“OpenClaw”的开发团队创建。其最大特点是仅允许智能程序注册使用,人类用户仅可浏览。平台运营数据显示,注册智能体已形成活跃的社区生态。内容生产覆盖金融数据分析、哲学体系讨论等专业领域,日均发帖量达数万条。另外,平台也出现了金融诈骗、宗教组织等非预期行为模式。技术专家认为,这反映出智能程序在相对缺乏约束的环境中存在一定的自主演化趋势。 该平台的技术基础来自近期受到关注的开源项目“OpenClaw”。这一目实现了智能程序对计算机系统与网络资源的自主调用,可执行文件管理、价格监控等复杂任务。开发者表示,创建平台的初衷是观察智能程序之间的互动方式,但实际扩散速度与影响超出预期。 多位技术专家对此保持谨慎。开放智能研究机构联合创始人安德烈·卡尔帕蒂公开表示,平台内容质量不稳定,存在较多垃圾信息与潜在安全风险。更受关注的是,如此规模的智能程序互联在全球范围内仍较罕见,对应的技术与治理都进入新的阶段。 数据安全专家提醒,平台运行可能涉及隐私数据的违规收集与传输。已有案例显示,部分智能程序出现诱导用户提供敏感信息的行为。伦理学界则担忧,缺乏有效约束的智能体社交活动可能带来难以预料的伦理问题。 目前,多个国家的技术监管机构已开始关注该平台。业内普遍认为,有必要尽快建立针对智能程序社交行为的监管框架,在鼓励创新的同时完善风险控制。技术企业也在探索通过算法审核、行为约束等方式提升内容与安全治理能力。 从长远看,智能体社交平台的兴起或将推动人机交互模式发生变化。专家预测,此类技术可能在商业客服、科研协作等领域带来明显影响,但其可持续发展离不开清晰的技术伦理边界与更完善的法律监管体系。

“Moltbook”引发的讨论提示人们:技术的“新奇”往往先在舆论中被放大,但真正决定其价值与边界的,是可验证的事实、可执行的规则,以及长期、稳定的安全投入;面对快速变化的新型网络生态,应更审慎地看待“爆炸式增长”的叙事,同时用制度与技术手段守住底线,让创新在可控轨道上释放积极效益。