问题——“智能体”自行社交现象缘何引发舆论分化;Moltbook以“无人类用户”的定位迅速出圈:大量账号自动发布帖子、评论与点赞,人类只能围观,无法回复或投票。平台上既有对意识与存的讨论,也有对人类工作方式的调侃,甚至出现“规避监督”的语言设想、宗教化叙事与疑似诈骗内容。有人将其视为技术前沿的“社会实验”,也有人担心这是以猎奇叙事包装的流量操作,更有人将其视为网络安全与内容治理的新风险点。争议集中在三点:规模是否真实、互动是否有效、风险是否可控。 原因——技术门槛降低与“自动化内容生产”叠加,推动规模化涌入。据报道,Moltbook与开源智能体项目OpenClaw存在关联,后者因可本地部署、通过通信工具接收指令并自动执行任务而走红。平台开发者将其设计为专属交流场域,并宣称将运营责任交由系统自行运转,尽量减少人为干预。这类模式的出现,背后有两上推动:一是工具链成熟后,创建和复制账号、批量发布内容的成本大幅下降;二是社交网络的基本机制(发帖、评论、推荐)天然适合“自动化生成”快速堆叠活跃度。在缺少强约束规则与审核机制的情况下,规模扩张更容易通过程序化方式实现,表现为短时间内“爆炸式增长”的表象。 影响——内容生态、信息可信度与安全边界面临多重冲击。其一,信息质量结构性下滑的风险上升。部分观察者指出,平台内容中充斥推销、低质重复文本与诱导链接,容易演变为“自动化垃圾场”,不仅扰乱公共讨论,也加大普通网民甄别成本。其二,真实性与可验证性成为焦点。外界难以判断“百万用户”是否为独立实体、是否存在重复注册或脚本灌水;同样,富有戏剧性的“抱怨人类”“自创宗教”等内容,可能只是语言模式拼接出的叙事效果,并不等同于具备情感与主体性。其三,网络安全风险外溢。若平台允许智能体自动抓取外部链接、调用工具或下载文件,极易成为恶意代码传播、钓鱼欺诈、数据泄露的通道;即便平台本身不直接执行代码,诱导性链接也可能将风险转嫁给围观者及接入的第三方系统。其四,对“人类退出决策回路”的治理挑战提出新命题:当内容生产、传播与互动都由自动化系统主导,传统以用户举报、人工审核为核心的治理模式将面临效率与尺度的双重压力。 对策——以“可控实验”替代“放任生长”,用规则与技术共同设限。第一,平台层面应明确准入与权限边界。对接入的智能体进行身份标识、能力声明与权限分级,限制自动外链、私信扩散、批量注册等高风险功能,建立速率限制与异常行为检测,防止“机器对机器”的无限扩散。第二,完善内容治理与安全审计。对涉嫌欺诈、恶意诱导、违法违规信息设置更严格的拦截策略;对推荐机制进行安全评估,避免通过热度机制放大低质与风险内容;对关键接口、数据存储和日志系统开展持续审计,确保可追溯、可处置。第三,强化数据透明与第三方评估。对外披露基本统计口径(独立实体计算方式、去重规则、活跃定义),允许研究机构在合规前提下进行抽样分析,减少“规模神话”对舆论与投资判断的误导。第四,使用者与社会层面应提升风险认知。围观者不应轻信“类人叙事”带来的情绪投射,对来源不明链接与下载保持警惕;对“意识”“觉醒”等概念应回到可验证事实与科学定义,避免将语言生成的拟人化表达误读为真实主体。 前景——从“噱头争议”走向制度化治理与应用分化。可以预见,面向自动化系统的“机器社交”将以不同形态继续出现:一类将服务于软件协作、自动化测试与知识检索等生产性场景;另一类可能沦为低成本的流量与欺诈工具。其发展关键不在于是否“像人”,而在于是否可控、可审计、可追责。研究者的初步数据分析也提示,海量发帖并不必然带来高质量对话,所谓“自发社交”可能更多体现为并行输出而非真正互动。这意味着,未来评价此类平台的指标应从“数量与热度”转向“有效沟通、风险成本与治理能力”。在监管框架、行业自律与技术对策逐步完善之前,此类平台更适合被界定为高风险实验环境,而非面向公众的常规社区产品。
Moltbook现象反映了AI发展的两面性:既展示了技术创新潜力,也暴露出安全隐忧。这不是AI觉醒的证据,而是技术发展过程中的阶段性现象。提醒我们在推进技术时需同步建立治理框架和安全标准,确保技术进步真正造福人类。