AI Agents MCP协议详解
MCP 最早是由 Anthropic(Claude 的母公司)在 2024 年末推出的,但它是一个开源协议标准。目前不仅 Claude 在用,开源社区也迅速跟进,逐渐成为了 AI Agent(智能体)连接现实世界的工业标准。
MCP 的诞生源于解决 LLM 应用的一个关键限制,即它们与外部数据源和工具的隔离问题。
在使用AI Agent时还会看到另外两个概念
- API:是给程序用的,它是基石。
API调用:底层的“神经连接”。比如当你使用 Python 或 Node.js 调用 anthropic.messages.create 时,你是在进行最底层的通信。
- CLI:是给人(或运维脚本、或AI Agent)用的,它是为了省去写代码的麻烦,快速调用特定厂家的服务。
传统的CLI常用于快速原型测试:在给客户设计方案前,用 CLI 快速测试不同参数的响应质量。
CLI 工具往往会根据任务类型(比如 chat 或 extract)预挂载一套经过官方调优的系统 Prompt。这些 Prompt 的权重要高于你自己随手写的指令,因此回复会更“稳”。CLI通过“工程化的最佳实践”,帮你规避了大量因低效调用导致的 Token 浪费。
人类的“瑞士军刀”,CLI 这类工具主要是为了让人类在终端更爽地用 AI。
局限性:CLI 是孤立的。它是一个“品牌专用”的遥控器。如果你想让 MiniMax CLI 去读取你的微信聊天记录,除非开发者给 CLI 写了这个功能,否则它做不到。
- MCP:是给 AI Agent 用的,它是为了建立一个通用的协议,让 AI 能够像插拔 USB 设备一样,无缝切换并使用各种本地或云端的工具。赋予机器人操作本地文件、数据库和复杂 API 的能力。
在 AI 工作流中扮演的角色完全不同。
简单来说:API 是“原木”,CLI 是“成品家具”,而 MCP 是“家具拼装标准(如宜家接口)”。
MCP (模型上下文协议):AI 的“USB 接口”
MCP 的出现是为了终结“孤岛”。
本质区别:MCP 不是为了让你用命令去调 AI,而是为了让 AI 能够调动你本地的所有资源。
革命性点:它把“能力”和“模型”解耦了。