MCP:驱动下一代 Web3 AI Agent 的核心引擎
2025-05-19 22:26
IOSG Ventures
2025-05-19 22:26
订阅此专栏
收藏此文章
Agent 是 MCP 能力的承载体与放大器,而区块链与加密机制则为这一智能网络构建起可信、高效、可组合的经济系统。


撰文:Frank Fu @IOSG


MCP 正在迅速占据 Web3 AI Agent 生态的核心地位,它通过类似插件的架构,引入 MCP Server,赋予 AI Agent 新的工具和能力。


与 Web3 AI 领域其他新兴叙事(如 vibe coding)类似,MCP,全称为 Model Context Protocol,起源于 Web2 AI,现在正在 Web3 语境下被重新构想。


什么是 MCP?


MCP 是由 Anthropic 提出的一个开放协议,用于标准化应用程序如何向大语言模型(LLMs)传递上下文信息。这使得工具、数据与 AI Agent 之间能够更无缝地协作。


为什么它很重要?


当前大语言模型面临的核心限制包括:


  • 无法实时浏览互联网
  • 无法直接访问本地或私人的文件
  • 无法自主与外部软件交互


MCP 通过充当通用接口层,弥补了上述能力空缺,使 AI Agent 能够使用各种工具。


你可以将 MCP 类比为 AI 应用领域的 USB-C —— 统一接口标准,让 AI 更容易对接各种数据源和功能模块。


设想每个 LLM 是不同的手机 —— Claude 用的是 USB-A,ChatGPT 用 USB-C,而 Gemini 是 Lightning 接口。如果你是硬件厂商,就得为每种接口都开发一套配件,维护成本极高。


这正是 AI 工具开发者所面临的问题:为每一个 LLM 平台定制插件,极大增加了复杂性并限制了规模化扩展。MCP 就是为了解决这一问题,通过建立统一的标准,就像让所有 LLM 和工具商都使用 USB-C 接口。



这种标准化协议对双方都有利:


  • 对 AI Agent(客户端):可以安全地接入外部工具与实时数据源
  • 对工具开发者(服务端):一次接入,跨平台可用



最终结果是一个更开放、可互操作、低摩擦的 AI 生态系统。



MCP 与传统 API 有什么不同?


API 的设计是为人类服务的,并非 AI-first。每个 API 都有各自的结构和文档,开发者必须手动指定参数、阅读接口文档。而 AI Agent 本身无法阅读文档,必须被硬编码以适配每种 API(如 REST、GraphQL、RPC 等)。


MCP 通过标准化 API 内部的函数调用格式,抽象掉这些非结构化的部分,为 Agent 提供统一的调用方式。你可以把 MCP 看作是为 Autonomous Agent 封装的 API 适配层。


当 2024 年 11 月 Anthropic 首次推出 MCP 时,开发者需在本地设备上部署 MCP 服务器。而今年 5 月,Cloudflare 在其开发者周宣布,开发者可在 Cloudflare Workers 平台上以最低设备配置直接部署远程 MCP 服务器。这大大简化了 MCP 服务器的部署和管理流程,包括认证和数据传输,堪称「一键部署」。


尽管 MCP 本身还是看似不够「吸引人」,但是它绝非无足轻重。作为纯粹的基础设施组件,MCP 无法直接面向消费者使用,只有当上层的 AI 代理调用 MCP 工具并展现实际效果时,其价值才会真正显现。


Web3 AI x MCP 生态图景 Landscape


Web3 中的 AI 同样面临「缺乏上下文数据」和「数据孤岛」的问题,也就是说,AI 无法访问链上实时数据或原生执行智能合约逻辑。


过去,ai16Z、ARC、Swarms、Myshell 等项目试图构建多 Agent 协同网络,但最终由于依赖中心化 API 和定制集成,陷入了「重复造轮子」的困境。


每对接一个数据源都要重写适配层,导致开发成本激增。为了解决这一瓶颈,下一代 AI Agent 需要一种更模块化、乐高式的架构,以便于无缝集成第三方插件和工具。


于是,基于 MCP 和 A2A 协议的新一代 AI Agent 基础设施和应用正在兴起,专为 Web3 场景设计,让 Agent 能够访问多链数据,并原生交互 DeFi 协议。


▲ 来源:IOSG Ventures

(此图并不完全覆盖所有 MCP 相关 Web3 项目)


项目案例:DeMCP 与 DeepCore


DeMCP 是一个去中心化 MCP Server 的市集 (https://github.com/modelcontextprotocol/servers) ,专注于原生加密工具与确保 MCP 工具的主权。


其优势包括:


  • 使用 TEE(可信执行环境)来确保 MCP 工具未被篡改
  • 使用 代币激励机制,鼓励开发者贡献 MCP 服务器
  • 提供 MCP 聚合器与微支付功能,降低使用门槛



另一个项目 DeepCore (deepcore.top) 也提供 MCP Server 注册系统,专注于加密领域,并进一步扩展到 Google 提出的另一开放标准:A2A(Agent-to-Agent)协议 (https://x.com/i/trending/1910001585008058782)。



A2A 是 Google 在 2025 年 4 月 9 日宣布的一项开放协议,旨在实现不同 AI 代理(Agent)之间的安全通信、协作和任务协调。A2A 支持企业级 AI 协作,例如让不同公司的 AI 代理协同处理任务(如 Salesforce 的 CRM 代理与 Atlassian 的 Jira 代理合作)。


若 MCP 关注的是 Agent(客户端)与工具(服务端)之间的交互,那么 A2A 更像是 Agent 之间的协作中间层,让多个 Agent 无需共享内部状态,即可协同完成任务。它们通过上下文、指令、状态更新、数据传递进行协作。


A2A 被认为是 AI 代理协作的「通用语言」,推动跨平台、跨云的 AI 互操作性,可能改变企业 AI 的工作方式。因此,可以把 A2A 看作是 Agent 世界的 Slack —— 一个 Agent 发起任务,另一个 Agent 执行。


简言之:


  • MCP:为 Agent 提供工具访问能力
  • A2A:为 Agent 提供彼此协同的能力



为什么 MCP 服务器需要区块链?


MCP Server 集成区块链技术有多种好处:


1. 通过加密原生激励机制获取长尾数据,鼓励社区贡献稀缺数据集


2. 防御「工具投毒」攻击,即恶意工具伪装成合法插件误导 Agent


  • 区块链提供加密验证机制,如 TEE Remote Attestation、ZK-SNARK、FHE 等
  • 具体可以参考此文章 (https://ybbcapital.substack.com/p/from-suis-sub-second-mpc-network?utm_source=substack&utm_medium=email)



3. 引入质押 / 惩罚机制,结合链上声誉系统构建 MCP 服务器的信任体系


4. 提升系统容错性与实时性,避免 Equifax 等中心化系统的单点故障


5. 促进开源创新,允许小型开发者发布如 ESG 数据源等,丰富生态多样性


目前,大多数 MCP Server 基础设施仍通过解析用户自然语言提示词来进行工具匹配。未来,AI Agent 将能够自主搜索所需 MCP 工具,以完成复杂任务目标。


不过,目前 MCP 项目仍处于早期阶段。多数平台仍是中心化插件市场,由项目方手动从 GitHub 整理第三方 Server 工具并自研部分插件,本质上与 Web2 插件市场并无太大差异,唯一的区别是聚焦 Web3 场景。


未来趋势与行业影响


当前,越来越多的加密行业人士开始意识到 MCP 在连接 AI 与区块链之间的潜力。例如,Binance 创始人 CZ 最近公开呼吁 AI 开发者积极构建高质量 MCP Server,为 BNB Chain 上的 AI Agent 提供更丰富的工具集。BNB MCP Server 项目列表已公开,供探索生态的用户参考。


随着基础设施的成熟,「开发者先行」公司的竞争优势也将从 API 设计转向:谁能提供更丰富、多样化、易组合的工具集。


在未来,每个应用都可能成为 MCP 客户端,每个 API 都可能是 MCP 服务器。


这样就可能催生新的价格机制:Agent 可根据执行速度、成本效率、相关性等动态选择工具,形成由 Crypto 与区块链作为媒介所赋能的一种更高效的 Agent 服务经济体系。


当然,MCP 本身不直接面向终端用户,它是一个底层协议层。也就是说,MCP 的真正价值与潜力,只有在 AI Agent 将其集成并转化为具有实用性的应用,才能被真正看见。


最终,Agent 是 MCP 能力的承载体与放大器,而区块链与加密机制则为这一智能网络构建起可信、高效、可组合的经济系统。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

IOSG Ventures
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开