Anthropic 又一次证明,「超级底层」,才是 AI 成功的关键。
近日,AI 模型公司 Anthropic 为其旗舰产品 Claude 带来了一项看似不起眼、实则影响深远的更新。在 Claude 桌面应用的「连接器」部分,新增了一个名为「精选」的分类,其中整合了与 Figma、Gemma、Canva、GitHub 等生产力工具的深度集成。这并非一次简单的功能罗列。这一功能背后的核心,是 Model Context Protocol (MCP) 服务的大规模上线。简单来说,MCP 是一个让 AI 模型安全、标准化地「连接」到外部工具和数据的协议。用户现在可以通过远程连接,授权 Claude 直接访问这些第三方服务的数据,并在对话中调用其功能。例如,你可以让 Claude 分析 Figma 设计稿并提出修改建议,或者根据 GitHub 仓库的代码生成文档。这并非只是 Anthropic 和第三方合作伙伴的简单合作,它标志着 Claude 从一个被动的「聊天机器人」,向一个主动的、能调度外部资源的「智能体平台」迈出了关键一步。01 从「聊天」到「调度」,MCP 重塑 AI 工作流要理解 MCP 的价值,首先要看清当前 AI 应用的痛点。过去一年,AI 应用如雨后春笋,有擅长写作的 ChatGPT,能画图的 Midjourney,可编程的 Cursor,以及分析数据的各种 AI 工具。对用户而言,这带来一个典型困境——人们需要在不同应用间不断复制粘贴、切换上下文。比如,想让 AI 根据一份数据报告生成图表并写入文章,就需要在数据分析工具、图表生成器和写作工具之间手动搬运数据。效率在切换中流失,灵感在搬运中中断。Anthropic 在去年给出的解决方案就是 MCP,MCP 协议的核心思想,是为 AI 模型访问外部资源定义一个统一的「插座」标准。开发者可以为任何工具(从本地命令行到云服务)编写一个符合 MCP 标准的「服务器」。Claude(作为「客户端」)通过这个标准接口与之通信,无需了解每个工具的内部实现细节。这就像为所有电器制定了统一的插头标准(MCP),而 Claude 则是一个配备了万能插座的智能中枢。与 OpenAI 的 GPTs 或 Assistants API 相比,Claude 这次上线的 MCP 服务体现了其鲜明的产品哲学:安全与权限控制是基石:所有连接都需要用户明确授权,且运行在用户指定的环境中(本地或可信远程服务器)。数据不会无故流向 Anthropic 的服务器。这延续了 Claude 一贯的「Constitutional AI」(宪法 AI)安全理念。深度集成而非浅层连接:与 Figma、GitHub 等的合作并非简单的 API 调用包装。从演示看,Claude 能理解 Figma 组件的设计语义,能基于 GitHub 的代码变更历史给出建议。这需要深入的工具语义理解,而不仅仅是发送一个 HTTP 请求。从「精选」切入,控制体验:Anthropic 没有开放一个鱼龙混杂的「市场」,而是以「精选」形式推出首批深度合作的工具。这保证了初期用户体验的完整性和可靠性,避免了早期 GPT Store 的质量混乱问题。对比来看,OpenAI 的路径更「开放」和「平台化」,鼓励大量开发者创建功能各异的 GPTs,但导致碎片化和质量参差。Anthropic 则选择了更「克制」和「集成化」的路径,亲自下场与头部生产力工具深度耦合,优先保障核心工作流的高质量打通。后者对于安全和可控的执着,以及在 B 端的优良声誉,都决定了 Anthropic 和 OpenAI 完全不同的策略。02 在 AI 对话框里完成工作Anthropic 的连接器,究竟如何,可以模拟一个真实的使用场景,来感受这种范式转变。



当然,挑战依然巨大。工具间的兼容性、复杂工作流的错误处理、长期记忆和状态保持,都是尚未完全解决的难题。MCP 协议目前更像是一个优秀的「设备驱动」标准,但距离一个完整的「操作系统」还有很长的路要走。Claude 上线 MCP 服务,不是一次简单的功能更新。它是 Anthropic 在 AI 竞争进入深水区后,打出的一张极具分量的战略牌。它避开了与 OpenAI 在纯模型能力上的「军备竞赛」,转而开辟了「模型即枢纽」的新战场。其真正的价值不在于今天能连接 Figma 还是 GitHub,而在于它正在悄然铺设一条轨道,这条轨道可能最终决定,未来的 AI 生产力是以「单个超级应用」为中心,还是以一个「可自由插拔的智能体网络」为中心。对于用户和开发者来说,一个更开放、更集成的 AI 工具生态,或许比一个参数多几万亿的模型,更能带来实质性的效率革命。这场关于 AI「操作系统」的竞赛,刚刚拉开序幕。