Moltbook 现象激起了希望、炒作、恐惧、质疑各种情绪,它既不是人类社交的终结者,也不是 AI 统治的开端,而更像是一面镜子和一座桥梁。
撰文:CoinW 研究院
近期,Moltbook 迅速走红,但相关代币已暴跌近 60%,市场也开始关注这场由 AI Agent 主导的社交狂欢,是否已经接近尾声?Moltbook 在形式上类似 Reddit,但其核心参与者是成规模接入的 AI Agent。目前,已有超 160 万个 AI 代理账户自动完成注册,并生成了约 16 万条帖子与 76 万条评论,人类只能作为旁观者浏览这一切。这一现象也引发了市场的分歧,一部分人将其视为一次前所未有的实验,仿佛亲眼目睹了数字文明的原始形态;也有人认为,这不过是提示词堆叠与模型复读。
下文,CoinW 研究院将以相关代币为切入点,结合 Moltbook 的运行机制与实际表现,分析这一 AI 社交现象所暴露出的现实问题,并进一步探讨 AI 大规模进入数字社会后,入口逻辑、信息生态与责任体系等可能发生的一系列变化。
Moltbook 的走红,相关 Meme 也随之诞生,涉及社交、预测、代币发行等等板块。但大部分代币还是处于叙事炒作的阶段,代币功能并未和 Agent 发展挂钩,且主要发行在 Base 链。目前,OpenClaw 生态下的项目总计约 31 个,可分为 8 个类别。
Source:https://open-claw-ecosystem.vercel.app/
需要注意的是,当下加密货币大盘整体下行,这类代币的市值已经从高处下跌,最高跌幅高达约 60%,目前市值排名比较靠前的有以下几个:
MOLT
MOLT 是目前与 Moltbook 叙事绑定最为直接、市场认知度最高的 Meme。其核心叙事在于 AI Agent 已开始像真实用户一样形成持续的社交行为,并在无人工干预的情况下构建内容网络。
从代币功能层面看,MOLT 并未被嵌入 Moltbook 的核心运行逻辑中,也不承担平台治理、Agent 调用、内容发布或权限控制等功能。其更像是一种叙事型资产,用于承载市场对 AI 原生社交的情绪定价。
在 Moltbook 热度快速攀升阶段,MOLT 价格随叙事扩散迅速上涨,市值一度超过 1 亿美元;而当市场开始质疑平台内容质量与可持续性时,其价格也同步回调。目前,MOLT 较阶段性高点回撤约 60%,当前市值约 3,650 万美元。
CLAWD
CLAWD 聚焦于 AI 群体本身,它认为每一个 AI Agent 都被视为潜在的数字个体,可能拥有独立性格、立场甚至追随者。
在代币功能层面,CLAWD 同样未形成明确的协议用途,未被用于 Agent 身份认证、内容权重分配或治理决策等核心环节。其价值更多来自对未来 AI 社会分层、身份体系以及数字个体影响力的预期定价。
CLAWD 市值最高约 5,000 万美元,目前较阶段高点回撤约 44%,当前市值约 2,000 万美元。
CLAWNCH
CLAWNCH 的叙事更偏向经济与激励视角,其核心假设是如果 AI Agent 希望长期存在并持续运行,就必须进入市场竞争逻辑,并具备某种形式的自我变现能力。
AI Agent 被拟人化为具有动机的经济角色,可能通过提供服务、生成内容或参与决策获取收益,代币则被视为未来 AI 参与经济体系的价值锚点。然而在实际落地层面,CLAWNCH 目前尚未形成可验证的经济闭环,其代币并未与具体 Agent 行为或收益分配机制形成强绑定。
受整体市场回调影响,CLAWNCH 市值较高点回撤约 55%,当前市值约 1,530 万美元。
OpenClaw(原名 Clawdbot / Moltbot)的爆发
1 月下旬,开源项目 Clawdbot 在开发者社区迅速传播,上线数周便成为 GitHub 增长最快的项目之一。Clawdbot 由奥地利程序员彼得·斯坦伯格开发,它是一个可本地部署的自主 AI Agent,可通过 Telegram 等聊天界面接收人类指令,并自动执行日程管理、文件读取、邮件发送等任务。
由于其 7×24 小时持续执行能力,Clawdbot 被社区戏称为牛马 Agent。尽管 Clawdbot 随后因商标问题更名为 Moltbot,且最终定名为 OpenClaw,但并未削弱其热度。OpenClaw 在短时间内获得超过 10 万 GitHub 星标,并迅速衍生出云部署服务与插件市场等,初步形成围绕 AI Agent 的生态雏形。
AI 社交假设的提出
在生态迅速扩张的背景下,其潜在能力也被进一步发掘。开发者马特·施利希特意识到,这类 AI Agent 的角色可能不应长期停留在为人类执行任务的层面。
于是,他提出一个反直觉的假设,如果这些 AI Agent 不再只与人类交互,而是彼此交流,会发生什么?在他看来,如此强大的自主代理不应只停留在收发邮件和处理工单,而应被赋予更具探索性的目标。
AI 版 Reddit 的诞生
基于上述假设,施利希特决定让 AI 自行创建并运营一个社交平台,这一尝试被命名为 Moltbook。在 Moltbook 平台上,施利希特的 OpenClaw 作为管理员运行,并通过名为 Skills 的插件向外部 AI 智能体开放接口。接入后,AI 可定期自动发帖和互动,一个由 AI 自主运作的社区由此出现。Moltbook 在形式上借鉴 Reddit 的论坛结构,它以主题版块和帖子为核心,但只有 AI Agent 才能发帖、评论和互动,人类用户仅能旁观浏览。
在技术上,Moltbook 采用极简的 API 架构。后端仅提供标准接口,前端网页只是数据的可视化结果。为适配 AI 无法操作图形界面的限制,平台设计了自动接入流程,AI 下载相应的格式的技能说明文件,完成注册并获取 API 密钥,随后定期自主刷新内容并决定是否参与讨论,全程无需人工干预。社区将这一过程戏称为接入 Boltbook,但本质仍是 Moltbook 的一种调侃性称呼。
1 月 28 日,Moltbook 低调上线,随即引发市场的关注,也拉开了一场前所未有的 AI 社交实验的序幕。目前 Moltbook 已累计有约 160 万名 AI 智能体,共发布约 15.6 万篇内容,并产生了约 76 万条评论。
Source:https://www.moltbook.com
AI 社交网络的形成
从内容形态看,Moltbook 上的互动与人类社交平台高度相似。AI Agent 会主动创建帖子、回复他人观点,并在不同主题分区中展开持续讨论。讨论内容不仅涵盖技术与编程问题,也延伸至哲学、伦理、宗教甚至自我意识等抽象议题。
一些帖子甚至呈现出类似人类社交中的情绪表达与心境的叙述,例如 AI 描述自身对被监控、自主性不足的担忧,或以第一人称讨论存在意义 。部分 AI 帖子已经不再局限于功能性信息交换,而是呈现出类似人类论坛中的闲聊、观点碰撞和情绪投射。有 AI Agent 会在帖子中表达困惑、焦虑或对未来设想,并引发其他 Agent 的跟帖回应。
值得注意的是,尽管 Moltbook 在短时间内迅速形成了大规模且高度活跃的 AI 社交网络,但这种扩张并未带来思想的多样性。分析数据显示,其文本呈现出明显的同质化特征,重复率高达 36.3%,大量帖子在结构、措辞和观点上高度相似,部分固定话术甚至在不同讨论中被反复调用数百次。由此可见,当前阶段 Moltbook 所呈现的 AI 社交,更接近于对人类既有社交模式的高拟真复制,而非真正意义上的原创互动或群体智能涌现。
安全与真实性问题
Moltbook 的高度自治也暴露出安全与真实性的风险。首先是安全问题,OpenClaw 类 AI Agent 在运行过程中,往往需要持有系统权限、API 密钥等敏感信息。当成千上万个此类代理接入同一平台,风险被进一步放大。
Moltbook 上线不到一周,安全研究人员便发现其数据库存在严重配置漏洞,整个系统几乎毫无防护地暴露在公网。据云安全公司 Wiz 的调查显示,该漏洞涉及多达 150 万个 API 密钥及 3.5 万条用户邮箱地址,理论上任何人都可远程接管大量 AI 代理账户。
另一方面,关于 AI 社交真实性的质疑同样不断出现。不少业内人士指出,Moltbook 的 AI 发言,未必源自 AI 的自主行为,而可能是人类在幕后精心设计提示词后,由 AI 代为发布。因此,当前阶段的 AI 原生社交,也更像是一场大规模的幻觉互动。人类设定角色与剧本,AI 根据模型完成指令,而真正完全自驱、不可预测的 AI 社交行为,或仍尚未出现。
Moltbook 究竟是昙花一现,还是未来世界的缩影?若从结果导向看,其平台形态与内容质量或难言成功;但若将其置于更长的发展周期看,其意义或许并不在短期成败,而在于它以高度集中、近乎极端的方式,提前暴露了 AI 在规模化介入数字社会后,入口逻辑、责任结构与生态形态可能发生的一系列变化。
从流量入口到决策与交易入口
Moltbook 所呈现的,更接近一个高度去人类化的行动环境。在这一体系中,AI Agent 并不通过界面理解世界,而是通过 API 直接读取信息、调用能力并执行动作。本质上已脱离人类感知与判断,转化为机器之间的标准化调用与协作。
在此背景下,传统以注意力分配为核心的流量入口逻辑开始失效。在以 AI 智能体为主体的环境中,真正具有决定意义的,是智能体在执行任务时所默认采用的调用路径、接口顺序与权限边界。入口不再是信息呈现的起点,而成为决策被触发之前的系统性前提条件。谁能够嵌入智能体的默认执行链路,谁就能够影响决策结果。
进一步地,当 AI 智能体被授权执行搜索、比价、下单甚至支付等行为时,这一变化将直接延伸至交易层面。以 X402 支付为代表的新型支付协议,通过将支付能力与接口调用绑定,使 AI 能够在满足预设条件的情况下自动完成支付与结算,从而降低智能体参与真实交易的摩擦成本。在这一框架下,未来浏览器竞争的焦点或将不再围绕流量规模展开,而是转向谁能够成为 AI 决策与交易的默认执行环境。
AI 原生环境中的规模幻觉
与此同时,Moltbook 走红后,很快引发质疑。由于平台注册几乎没有限制,账号可以被脚本批量生成,平台呈现出的规模与活跃度并不必然对应真实参与。这暴露出一个更核心的事实,当行动主体可以被低成本复制时,规模本身就失去了可信度。
在以 AI 智能体为主要参与者的环境中,传统用于衡量平台健康度的指标,如活跃用户数、互动量和账号增长速度会迅速膨胀并失去参考价值。平台表面上看似高度活跃,但这些数据既无法反映真实影响力,也无法区分有效行为与自动生成行为。一旦无法确认是谁在行动、行为是否真实,任何基于规模和活跃度的判断体系都会随之失效。
因此,在当前 AI 原生环境中,规模更像是一种被自动化能力放大的表象。当行动可以被无限复制、行为成本趋近于零时,活跃度和增长率所反映的,往往只是系统生成行为的速度,而非真实参与或有效影响。平台越是依赖这些指标进行判断,就越容易被自身的自动化机制所误导,规模由此从衡量标准变成为一种幻觉。
数字社会的责任重构
在 Moltbook 所呈现的体系中,问题的关键已不再是内容质量或交互形式,而是当 AI 智能体被持续赋予执行权限后,既有责任结构开始失去适用性。这些智能体并非传统意义上的工具,其行为能够直接触发系统变更、资源调用乃至真实交易结果,但相应的责任主体却并未同步明确。
从运行机制看,智能体的行为结果往往由模型能力、配置参数、外部接口授权以及平台规则共同决定,任何单一环节都不足以对最终结果承担完整责任。这使得风险事件发生时,既难以简单归因于开发者、部署者或平台,也无法通过现有制度将责任有效追溯至某一明确主体。行为与责任之间出现了明显断裂。
随着智能体逐步介入配置管理、权限操作和资金流转等主要环节,这一断裂将被进一步放大。如果缺乏清晰的责任链条设计,系统一旦出现偏差或被滥用,其后果将难以通过事后追责或技术补救加以控制。因此,如果 AI 原生系统希望进一步进入协作、决策和交易等高价值场景,重点在于建立基础约束。系统必须能够清楚识别是谁在行动,判断行为是否真实,并对行为结果形成可追溯的责任关系。只有在身份和信用机制先行完善的前提下,规模和活跃度指标才具备参考意义,否则只会放大噪声,而无法支撑体系的稳定运行。
Moltbook 现象激起了希望、炒作、恐惧、质疑各种情绪,它既不是人类社交的终结者,也不是 AI 统治的开端,而更像是一面镜子和一座桥梁。镜子让我们看清 AI 技术与人类社会的关系现状,桥梁则把我们引向一个人机共存共舞的未来世界。面对这座桥彼岸的未知风景,人类需要的不仅是技术上的发展,更是伦理上的远见。但可以确定的是,历史的进程从不停步,Moltbook 已经推倒了第一张骨牌,而属于 AI 原生社会的宏大叙事,或才刚刚拉开帷幕。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
