谷歌云大会前瞻:TPU 开放与 Agent 革命,被低估的 AI 全栈巨头迎来价值重估?
2026-04-1614:54
BiyaNews
2026-04-16 14:54
BiyaNews
2026-04-16 14:54
收藏文章
订阅专栏

全球人工智能产业的竞争格局,正从单一的模型能力比拼,转向基础设施、应用生态与商业模式的全方位较量。即将于 4 月 22 日至 24 日举行的谷歌 Cloud Next 2026 开发者大会,被市场视为观察这一深刻变革的关键窗口。尽管市场对谷歌的认知仍部分停留在其传统广告业务的印象上,但深入分析其近期的战略布局与产业动态,一个清晰的图景正在浮现:谷歌正凭借其从芯片到应用的全栈式 AI 能力,悄然构建一个更具韧性和增长潜力的新护城河。本次大会的核心看点,将围绕其自研算力的商业化突破与智能体(Agent)生态的全面落地展开。


算力基础设施的范式转移:TPU 从自用走向开放

长期以来,英伟达的 GPU 在 AI 算力市场占据主导地位。然而,谷歌自研的 TPU(张量处理单元)正从一项内部技术,演变为一个可能改变行业格局的开放算力选项。这一转变的市场认知度目前仍然不足,但其商业化的步伐正在加速。

近期产业链信息显示,谷歌 TPU 的出货预期已从年初的约 330 万颗大幅上修,市场最高预期已接近 600 万颗。这一调整并非空穴来风,而是基于顶级客户的实质性采购。一个标志性事件是,领先的 AI 公司 Anthropic 在 2025 年 10 月预订了高达 1GW 的 TPU 算力,并计划从 2027 年起通过博通获得总计 3.5GW 的 TPU 算力,合作延续至 2031 年。此外,Meta 也在今年 2 月与谷歌达成了一项价值数十亿美元的协议,以云端租用的方式获取 TPU 算力,并探索未来直接采购 TPU 芯片部署自有数据中心的可能。

这些订单的意义在于,TPU 已经通过了全球最前沿 AI 公司的严苛验证。对于寻求算力供应多元化、避免过度依赖单一供应商的大型科技公司而言,谷歌 TPU 提供了一个经过大规模实践检验的可行替代方案。这标志着 TPU 生态从封闭走向开放的关键一步。

预计在本次大会上,谷歌将正式发布新一代 TPUv8。参考其发布节奏,TPUv8 可能在峰值算力、内存带宽和能效比上实现进一步跃升。上一代 TPUv7 的单 Pod 峰值算力已达到 42.5 Exaflops,HBM 容量为 192GB,带宽高达 7.37TB/s。性能的持续迭代,结合其与博通、联发科等芯片设计伙伴的深度合作,使得 TPU 在特定工作负载下的性价比优势日益凸显。

光互联技术:被低估的集群规模关键

在讨论 AI 算力时,人们往往聚焦于单个芯片的性能,而忽略了将成千上万颗芯片高效连接成一个超级计算机的互联技术。这正是谷歌另一项被市场低估的优势所在——其自研的光路交换机(Optical Circuit Switch, OCS)。

根据相关技术分析,在 TPU v7 Pod 集群中,OCS 的配置比例约为 0.52%。这意味着一个由 9216 颗芯片组成的 TPU Superpod,需要 48 台 OCS 交换机来实现全芯片间的低延迟、高带宽互联。随着 AI 模型参数规模和数据集的爆炸式增长,训练集群的规模正从“万卡”向“十万卡”乃至更大规模迈进。传统的电交换机在带宽、功耗和延迟上面临瓶颈,而 OCS 技术凭借其高带宽、低功耗和可重构性,被视为构建超大规模 AI 集群的下一代关键技术。

谷歌是目前全球少数将 OCS 技术进行大规模商业化部署的公司。这项“看不见”的基础设施,是其能够高效运营庞大 TPU 集群、保持算力利用率处于高水平的核心技术保障之一,也构成了其对外输出算力服务时难以被轻易复制的底层优势。

应用层革命:Agentic AI 开启企业智能化新篇章

如果说强大的算力是谷歌在 AI 时代的“矛”,那么正在兴起的智能体(Agentic AI)生态则是其坚固的“盾”和新的增长引擎。本次 Cloud Next 大会专门设置多场 Agent 主题演讲,预示着这将成为谷歌云赋能企业客户的核心叙事。

行业的焦点正在发生范式转移:从追求“更大更强的通用模型”,转向构建“能够理解复杂指令、调用工具、执行多步骤工作流”的专用智能体。OpenAI 推出了整合多种能力的 Desktop 应用,Anthropic 发布了面向企业的 Claude Managed Agents 平台。谷歌的路径则显示出更强的系统性和对企业级市场的聚焦。

市场预期,谷歌将在此次大会上进一步强化其 Agent 开发工具链,可能包括升级 ADK(Agent Development Kit)开发框架,完善基于开放协议(如 HTTP/SSE)的 A2A(Agent-to-Agent)通信标准,并推出或更新如 Jules、Antigravity 等旨在提升 Agent 规划与工具调用能力的组件。其核心目标在于降低企业构建和部署复杂业务流程自动化 Agent 的门槛。

谷歌在这一领域的独特优势在于其深厚的企业客户基础。通过将 Agent 能力深度整合进 Google Workspace、Google Cloud Platform 以及其庞大的开发者生态中,谷歌能够为企业提供从底层算力、中间件平台到上层应用的一站式智能化解决方案。这种“全栈式”的捆绑能力,在追求稳定性、安全性和集成效率的企业市场中,可能比单一的模型能力更具吸引力。

从更长期的视角看,Agentic AI 可能引发互联网流量和服务的分发范式革命。过去二十年,谷歌主导了“搜索 - 点击”的信息分发模式。未来,用户可能将需求直接交付给 Agent,由 Agent 自主决策并调用各类服务完成任务,形成“意图 - 结果”的新范式。作为当前流量入口的掌控者,谷歌必然全力投身于这场变革,以确保其在下一代人机交互时代的主导地位。

模型能力的稳步迭代与全栈协同效应

在备受关注的模型层面,谷歌采取了相对稳健的迭代策略。其最新发布的 Gemini 系列模型及开源版本 Gemma,在长上下文、多模态理解和工具调用等企业级关注的能力上持续进步。虽然没有频繁制造轰动性新闻,但这种稳步推进的方式更有利于企业客户进行长期的 IT 规划和投入。

更重要的是,谷歌正在展示其“全栈协同”的独特价值。自研的 TPU 为其模型训练提供了高效、可控的算力基础;Gemini 模型为上层 Agent 应用提供智能核心;庞大的云与 Workspace 企业客户群则为应用落地提供了现成的市场和反馈闭环。这种从芯片到 SaaS 的垂直整合能力,在 AI 投入日益巨大、技术栈日益复杂的背景下,可能转化为显著的效率优势和竞争壁垒。

投资视角下的机遇与风险审视

从资本市场角度看,市场对谷歌的估值可能尚未充分反映其 AI 全栈能力从技术储备向大规模商业化兑现的潜力。传统上,谷歌的估值主要锚定其广告业务的现金流。然而,其云业务(包含 AI 基础设施服务)和新兴的 Agent 平台业务,正开辟全新的增长曲线。

一些机构分析认为,TPU 对外销售业务的潜在市场规模被低估。如果谷歌能成功将其打造为 AI 算力市场的重要一极,这不仅将带来直接的硬件和云服务收入,更能增强其整个 AI 生态的吸引力和锁定效应。同时,面向企业的 Agent 服务平台,则可能开启一个基于自动化流程和效率提升的订阅制软件服务市场。

当然,前景也伴随着风险。AI Agent 的大规模商业化落地仍需时间验证,其实际创造的经济价值可能慢于市场预期。在模型层面,谷歌仍需面对来自 OpenAI、Anthropic 等公司的激烈竞争。此外,其核心的搜索与广告业务持续面临全球范围内的反垄断监管压力,这可能在一定程度上牵制其战略资源。TPU 生态的开放成功与否,也取决于其能否吸引足够多的开发者和第三方云平台,构建起繁荣的软件生态。

综合而言,谷歌 Cloud Next 2026 大会将是一次对其 AI 战略成色的集中检验。投资者关注的焦点不应仅限于某一款新模型或产品的发布,而应深入审视其全栈能力整合的进展、TPU 商业化的客户反馈以及 Agent 生态的开发者响应。在 AI 竞赛的下半场,基础设施的稳固性、生态的完备性以及商业化的执行力,或许将与算法的前沿性同等重要。谷歌正在走的,正是一条迥异于单纯模型竞赛的、更重也更长的道路。这条道路的成败,将深刻影响未来全球科技产业的权力格局。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

专栏文章
查看更多
数据请求中

推荐专栏

数据请求中

一起「遇见」未来

DOWNLOAD FORESIGHT NEWS APP

Download QR Code