新闻资讯-歌剧话剧

Meta数十亿美元订单背后,谷歌TPU首次让英伟达感到“呼吸沉重”

发布时间:2025-11-26 16:50:21  浏览量:21

谷歌不再甘心只做“云房东”,开始直接向Meta这样的巨头出售算力军火,英伟达的护城河正迎来真正意义上的考验。

“英伟达领先行业整整一代——我们是唯一一个可以运行所有AI模型、并在各种计算场景中通用的平台。”11月25日,英伟达官方在一份回应华尔街担忧的声明中罕见地正面评价竞争对手。

这家市值超过4万亿美元的芯片巨头,特意选择在谷歌发布新一代AI模型Gemini 3并获市场高度评价后发声,强调其技术比谷歌的AI芯片领先一代。

一向以“卖铲人”自居而稳坐钓鱼台的英伟达,这一次不得不走到台前,直接回应来自谷歌TPU的挑战。

在过去的这个星期,谷歌不再满足于仅在自己的云服务中使用自家芯片,启动了激进的“TPU@Premises”计划,允许客户将TPU芯片直接部署在自家数据中心。

这一转变被行业分析师形容为从“云房东”到“算力军火商”的战略转型。

更令市场震动的是,Meta正与谷歌进行深入谈判,考虑斥资数十亿美元在2027年前将谷歌TPU引入自己的数据中心。这一消息犹如在AI芯片市场投下了一枚震撼弹。

谷歌的底气来自其第七代Ironwood TPUv7的显著进步。在关键性能参数上,TPUv7已能与英伟达当前的旗舰产品Blackwell B200分庭抗礼。

在FP8精度下,TPUv7的峰值算力约为4.6PFLOPS,甚至略高于B200的4.5PFLOPS。在显存配置上,两者均配备了192GB的HBM3e高速内存。

英伟达长期以来最深的护城河,并非仅仅是硬件性能,更是其建立的CUDA软件生态系统。

数以百万计的开发者被绑定在这一平台上,形成了极高的转换成本。

然而,谷歌正在巧妙地拆除这道壁垒。它没有强推自己的JAX语言,而是选择拥抱由Meta发明的PyTorch。

通过新开发的“TPU CommandCenter”软件,谷歌让开发者能够像使用GPU一样,通过熟悉的PyTorch环境调用TPU算力。

这一策略极其精明——既利用了Meta的开源遗产,又大幅降低了潜在客户的迁移门槛。

谷歌云高管们甚至在内部预估,依靠这套“硬件性能+软件生态”的组合拳,他们有信心从英伟达手中夺取约10%的市场份额,价值高达数十亿美元。

在近期的一次发言中,黄仁勋从更宏观的角度阐述了当前算力革命的本质。他指出,世界正在经历三大计算平台的转型:摩尔定律的终结、生成式AI对推荐系统的重塑,以及AI智能体的兴起。

“你必须回到计算机科学和计算本身的第一性原理,去看清当下到底发生了什么。”黄仁勋表示。

他揭示了一个关键数据:六年前,全球TOP500超级计算机中90%使用CPU,而如今这一比例已降至不足15%,GPU加速计算的占比则从10%飙升至90%。

这一结构性转变,正是英伟达业务增长的深层动力。

黄仁勋强调,目前人们关注的ChatGPT等应用,其实只是建立在底层算力革命之上的“第三层红利”,而更基础的转变是数据处理和推荐系统正从CPU向GPU迁移。

当硬件军备竞赛愈演愈烈之际,AI领域却出现了对发展路径的深层思辨。

OpenAI联合创始人伊尔亚·苏茨克维近期提出,AI行业应告别简单的“规模化”堆积,重新回归到注重底层创新的“研究时代”。

“预训练数据的红利终将耗尽,数据是有限的。当你把规模扩大100倍后,单纯的量变可能不再带来质变。”苏茨克维指出。

他的观点挑战了当前“模型越大越智能”的行业共识,认为各组织已拥有大量计算资源,而核心瓶颈已从算力转向了算法突破。

无独有偶,清华大学的研究团队也提出了类似的“密度法则”概念,认为AI大模型变强不应只靠“体型”,更要靠“能力密度”。

他们发现,AI大模型的“能力密度”正以指数级速度增长,大约每3.5个月就翻一倍。

未来的竞争格局可能更加复杂。随着AI模型训练逐渐成熟,推理市场的增长潜力正在显现。

谷歌TPU在推理工作负载上的成本效益,尤其对寻求降低运营成本的云客户具有吸引力。

与此同时,英伟达并未放慢脚步。从Hopper到Blackwell,再到已公布的Rubin和Feynman架构,英伟达保持着“一年一迭代”的激进节奏。

这种策略实际上是在人为制造“算力折旧”,迫使客户不断升级。

但对于Meta这样的巨头而言,引入谷歌TPU不仅关乎成本,还涉及数据安全与业务自主性。

将核心AI业务建立在单一供应商的硬件上,无疑存在战略风险。多元化的算力来源,成为了他们的必然选择。

当芯片的物理性能差距逐渐缩小,生态与商业模式的竞争正成为主战场。

标签: 谷歌 英伟达 tpu 谷歌tpu meta
sitemap