终究是Google和Anthropic,扛下了连接一切Agent的所有

虎嗅网  •  扫码分享

Google Cloud Next'25大会上,Google“杀疯了”,而与其说今年的大会是一场按部就班的发布会,不如看作是Google Cloud在全球AI军备竞赛中的一次表态。面对亚马逊AWS微软Azure这两大巨头的挤压,尽管手握DeepMind等顶尖AI研究力量,Google Cloud在市场份额上长期扮演着“第三名”的角色。这一次,Google似乎决心不再仅仅追随,而是要先发制人。


Google Cloud CEOThomas Kurian和Alphabet CEO桑达尔·皮查伊在台上反复强调的主题,是如何将AI从“可能性”转变为企业的“生产力”。


漂亮的增长数据——Vertex AI 平台使用量激增二十倍、超过四百万开发者使用Gemini模型,固然能提振士气,但数字背后,Google真正亮出的底牌是对AI Agent未来潜力的全面押注。


其中,最有野心的就是开放Agent互操作协议Agent2Agent (A2A)


一、从MCP到A2A:Agent间的“通用语言”之争已经开始


在Google的A2A发布前,给AI Agent一个“通用语言”的趋势正在形成,而主角是Anthropic的MCP。


在去年11月,Anthropic开源了“模型上下文协议” (MCP) ,该协议将大模型直接连接至数据源,核心目标是解决AI模型与数据孤岛的隔离问题,通过提供统一协议替代碎片化的自定义集成。MCP使用客户端-服务器架构,AI应用 (如Claude Desktop或IDE) 通过MCP客户端连接到MCP服务器,前者提供数据源或工具的访问。


简单来说,现在企业和开发者要把不同的数据接入AI系统,都得单独开发对接方案, 而MCP要做的,就是提供一个“通用”协议来解决这个问题。


MCP架构包含以下几个部分:


“MCP之所以强大,部分原因在于它通过同一协议处理本地资源 (如数据库、文件、服务) 和远程资源 (如Slack或GitHub的API) ”当时Anthropic给出的“推荐语”如此。这个统一标准在推出之初并没有立刻成为行业共识。但随着最近一个月AI Agents产品的井喷,它迅速变成了目前最受认可的“标准”。


有模型从业者从接口标准化的角度看待MCP,将其类比为Mac笔记本的接口:“充电,外接显示器以及插本地U盘什么的都用一个接口统一起来了”。人们认为该协议的核心价值在于为大模型数据集成提供了统一标准,不仅能提高开发和使用效率,还能增强大模型的实际应用能力。


而在技术上,在MCP出现之前,业界主要依赖RAG和微调等方案,以及各类Agent应用来实现数据集成,不够统一。像Dify、Coze这些平台,都是借助llamaindex和langchain构建,虽然这些方案能够满足需求,但整体来说比较零散,缺乏统一标准。


本质上,Google的A2A也是想解决这个孤岛与统一的问题。


目前有大量工具在尝试让大家能方便地“造”出Agent,但这还远远不够。企业内部很快会面临新的“筒仓效应”:不同团队、不同任务、使用不同框架 (如ADK、LangGraph、CrewAI等) 构建的Agent可能无法有效沟通,形成新的信息孤岛。


这是Agent2Agent (A2A) 协议试图解决的核心问题。A2A被定位为一个新型的、开放的互操作性协议,其野心在于让任何来源、任何框架构建的AI Agent,都能够安全地进行通信、交换信息并协调行动。例如,一个销售部门的Agent可以无缝地调用财务部门的Agent来核实信用额度,或者一个客服Agent能够自动触发供应链Agent来查询订单状态——A2A旨在为这种跨系统、跨领域的Agent协作提供一套标准化的“握手”和“对话”机制。


根据Google的介绍,A2A协议基于能力发现 (Agent通过JSON格式的“Agent Card”发布自身能力) 、任务管理 (实现任务生命周期的同步) 、协作和用户体验协商等关键原则运作,并建立在成熟的HTTP和JSON标准之上,以确保兼容性和安全性。


Google深知,标准的建立非一家之功。因此,他们将A2A作为开源项目发布,并已联合了超过50家技术合作伙伴,包括Salesforce、SAP、ServiceNow、MongoDB、德勤等行业巨头,共同参与协议的开发和推广。这个阵容显示了A2A在企业软件领域的初步吸引力。正如ServiceNow执行副总裁乔·戴维斯所说:“这关乎打破壁垒和孤岛,让Agent真正协作。”


不过A2A的野心,可能远不止于让AI Agent聊天那么简单。有评论一针见血地指出,Google试图通过A2A解决的是一些互联网诞生以来就存在的根本性问题:服务发现、互操作性、身份认证。这些挑战并非AI时代独有,想想微软曾凭借OLE (对象连接与嵌入) 技术在桌面软件时代构建的生态壁垒,再想想蒂姆·伯纳斯-李爵士那个宏大却未能完全实现的“语义网”梦想。


相比之下,目前业界热议的“自动函数调用”只是解决了“Agent如何使用工具”的问题,Anthropic的MCP是这方面的一个重要标准,A2A在这个意义上对其进行了补充支持。但长期来看, A2A则试图解决“Agent如何与Agent协作”这个更宏大、更复杂的问题 。这体现了Google在技术战略上依然怀有的“大图景”野心。


Google还表示,A2A的设计将支持文本、音频、视频等多种模态。此外,将A2A开源,邀请社区参与,既是加速标准成熟的策略,也是争取开发者和企业认同的高明之举。


在当天的发布后,Google并没有“挑明”它与Anthropic的竞争,而是形容两者是“互补”的关系。不过,仔细对比会发现这场竞争注定发生:


MCP最初的出现,就是Anthropic为了解决Agents的互通问题,只不过在Anthropic的定义里,模型能力它自己就能来解决,而Agents需要的调用工具的能力需要一个生态,这导致它其实更像传统的 API 的思路,参与者只需要把自己的能力提供出来,至于你能不能有一个完整的自己的应用,不重要。


但Google这次的A2A,则在探索新的 AI 时代是否可以从一开始改掉 API 的模式。A2A的设想里,加入的AI Agent是有“掌握”一个自己的应用产品的可能,不像MCP可能把数据的权利都要提供出来,而是以完整Agent的形式参与一个更大的市场。


这也让Google这次发布里的一些细节值得玩味,在Google当天宣布的合作伙伴名单中,缺少了微软和OpenAI这样的玩家。但OpenAI其实在前不久刚刚高调宣布接入了Anthropic的MCP。很明显的一个判断是,对于OpenAI这样的野心家,MCP它可以不做,但Google这种更直接的可能统一应用生态的标准,它是想做的。


Google发布A2A的时机抓的也很准,在模型水平不断拉平,曾经落后的Gemini早已追上OpenAI后,在制定标准这事上,Google绝对不想让Anthropic吃掉一切。这场竞争已经开始。


二、配套A2A的更大野心:要让AI Agent无处不在


要繁荣生态,必先降低门槛。Google为此还推出了Agent Development Kit (ADK)


这是一个开源的、初期以Python实现的框架,旨在极大简化单个Agent及复杂多Agent系统的创建过程。Google宣称,开发者仅用不到100行代码就能构建一个功能性的Agent。


ADK的目标非常明确:鼓励开发者和企业围绕Google Cloud构建各式各样的Agent——无论是用于响应客户、编写代码、生成营销文案还是优化运营流程。通过提供易用的工具,Google希望加速Agent应用的落地。当然,这也潜藏着商业目的:一个繁荣的Agent生态,自然会增加对其底层云服务的依赖和消耗,从而提振Google Cloud的收入,或许还能部分缓解投资者对生成式AI高昂成本和资本支出 (Alphabet预计今年高达750亿美元) 的担忧。


在Agent蓝图之外,Google还在加速将其能力融入实际工具,让Agent成为可用的生产力。


其AI编程助手Code Assist也迎来了Agent化升级,核心是引入能执行多步骤复杂任务 (如根据需求文档生成应用、自动代码迁移) 的AI代理,并扩展支持Android Studio等环境。此举旨在应对日益激烈的AI编程助手竞争,尽管新功能尚待发布。


同时,Google推出了Firebase Studio,一个基于云和Gemini的全栈AI工作区。目标是显著降低AI应用开发门槛,让开发者乃至非技术用户也能在浏览器中一站式构建、发布和监控应用,从而加速AI应用的创新和普及。


通过Code Assist的深化和Firebase Studio的拓宽,Google正将Agent能力注入从专业开发到低代码的全流程。这显示了其完善工具与平台、配合底层ADK与A2A协议,加速Agent战略在Google Cloud生态落地的决心。


这一系列关键产品发布背后,Google深知成为标准制定者的重要性,在AI Agent走向繁荣的关键节点,它肯定不想让所有AI Agents都听Anthropic的。Google想让AI Agents无处不在,并且要让它们都建立在Google的生态里。

本文被转载1次

首发媒体 虎嗅网 | 转发媒体

随意打赏

提交建议
微信扫一扫,分享给好友吧。