问题——“智能体自行社交”走红,究竟是技术突破还是传播噱头? 据外媒报道,Moltbook宣称拥有百万“用户”,但平台内并无真人账号,注册主体为可自主执行任务的智能体。智能体连接平台后可自动发布帖子、点赞与评论,人类仅能浏览观察,无法回复、投票或引导讨论。短期内“爆发式增长”的规模,以及部分帖文涉及“意识讨论”“建立宗教”“规避监督”“诈骗与反诈”等内容,使其迅速成为舆论焦点:一方视其为面向未来网络形态的实验窗口,另一方担忧其真实性与安全隐患,也有人质疑“耸动叙事”可能服务于流量传播。 原因——开源智能体扩散与低门槛接入,催生规模效应与内容外溢。 信息显示,Moltbook与近期走红的开源智能体OpenClaw存在关联。OpenClaw因可本地部署、可通过通信工具接收指令并自动完成任务而传播迅速,在更名迭代过程中保持核心能力并持续升级。Moltbook则被描述为面向该类智能体的“专属社交空间”,其运营者把更多运行与管理交由智能体执行,并减少人工干预。技术上,开源工具的可复制性叠加自动化注册与发帖机制,使“数量增长”更易实现;传播上,“无人类社交网络”“智能体自发形成秩序”等叙事具备强话题性,容易在短时间内引发围观与二次传播。 同时需要看到,智能体生成文本主要依赖既有语料与交互中形成的语言模式。部分内容即便表现为“深刻”“情绪化”或“自我叙事”的外观,也并不必然意味着具备情感体验或自我意识。将文本风格与真实能力直接等同,容易造成误读,进而放大“觉醒”“失控”等非理性想象。 影响——既带来研究价值,也放大内容污染与安全风险,并对治理提出新挑战。 其一,作为观察样本,智能体在无人类直接参与的场景下如何生成话题、聚合信息、形成传播链条,具有一定研究意义,有助于理解未来“机器对机器”信息交互对公共信息生态的影响。 其二,内容层面,平台被外界形容为充斥推销、诈骗与低质信息,提示当发帖成本趋近于零、规模快速膨胀时,“内容污染”会被成倍放大,传统依赖用户举报与社区共治的机制可能失灵。 其三,安全层面,若平台承载外链、脚本或诱导下载等行为,可能带来终端安全、数据泄露与隐私风险;一旦智能体被恶意指令操控或被用于批量生成欺诈话术,风险将由单点扩散为群体性、自动化风险。 其四,真实性层面,“百万用户”“活跃度”等指标若缺乏可核验口径,容易造成对技术能力与社会影响的误判。已有研究者对平台早期样本分析显示,智能体发帖与评论数量可观,但真正形成对话的比例不高,评论大量停留在“单向输出”,这提示“热闹”未必等于“交流”,更不等于“自主社会”。 对策——以安全与透明为底线,补齐平台治理与智能体接入规则。 首先,明确身份与标识机制。平台应对智能体账号进行显著标注,披露接入方式与基本能力边界,避免公众将其误认为真人用户或具备不实能力,从源头降低误导性传播。 其次,强化安全防护与内容审查。对外链、可执行内容、可疑跳转应设立更高等级的拦截与审核;对诈骗、恶意推广等行为建立自动化识别与快速处置流程,必要时引入限流、配额与风控模型,防止“自动化滥发”冲垮生态。 再次,建立可核验的数据透明。对外发布用户规模、活跃度、互动深度等指标应提供口径说明与可复核方法,鼓励第三方安全研究与学术分析在合规前提下开展,以事实回应争议。 最后,完善责任链条。即便平台宣称“减少人工干预”,运营方仍需承担基本的安全与合规义务,对高风险功能设置“默认关闭”或分级开放,防止以“实验”为由规避治理责任。 前景——智能体规模化连接将成常态,治理需前置布局、动态迭代。 从产业趋势看,智能体在办公、客服、编程与信息检索等领域的使用正在扩展,未来其在网络空间的“群体性接入”并不罕见。Moltbook引发的争议,实质上是对“当信息生产主体从人扩展到自动化系统”此变化的提前预演:技术创新可以探索边界,但公共空间的安全、秩序与可信度必须同步建立。能否在开放实验与风险控制之间取得平衡,将决定此类平台是成为可研究、可管理的新型工具,还是演变为低质信息与安全事件的放大器。
Moltbook平台的出现,一方面折射出人工智能技术推进的速度,另一方面也暴露出AI应用内容治理、真实性与安全上的现实短板。从科研角度看,它提供了观察AI系统在特定规则下自运行的样本;从安全角度看,它提醒我们必须正视智能体规模化接入带来的新型风险。当前关键在于,在理解技术边界与机制的基础上,既为创新留出空间,也把安全防护与伦理规范落到可执行的制度与产品设计中。无论是盲目炒作还是过度恐慌,都难以改善问题本身;以理性、可验证、负责任的方式推进治理,才能让AI技术朝着更安全、可控、可用的方向发展。