新闻资讯-歌剧话剧

英伟达遇到对手了!谷歌狂造430万颗TPU,Meta让产能为其让路?

发布时间:2026-01-10 16:25:37  浏览量:14

2026年刚过没几天,AI芯片圈已经炸开了锅。

谷歌突然放出消息:

今年要造430万颗TPU!

这个数字比去年预估高出快一半。

更蹊跷的是,Meta居然主动把自家订好的先进封装产能让了出来。

周叔琢磨了好几天,发现这根本不是简单的扩产,而是一场精心策划的算力合谋。

430万颗是什么概念?相当于每天下线超过1.1万颗AI芯片。

据Global Semi Research今年初披露的数据,

这批TPU里,V8AX和V8X占了280万颗

,明显是主攻大模型训练和云服务。

老款V6、V7加起来才150万,基本用来填旧项目或边缘场景。

但问题来了:芯片设计可以快,制造却得排队。

尤其是CoWoS这种先进封装技术——它不负责做芯片,但决定芯片能不能变成能插进服务器的加速卡。

过去两年,全球就台积电能稳定量产,排期早就排到2027年。

可就在去年底,Meta悄悄把自己预留的CoWoS槽位转给了谷歌。

表面看是“让路”,实则早有铺垫。

2025年8月,两家签了份6年、超100亿美元的云服务协议;11月又传出Meta打算从2026年起通过谷歌云租用TPU,甚至计划2027年在自家数据中心直接部署。

说白了,Meta不是放弃自研,而是先借谷歌的船出海

更关键的是,谷歌内部正推进一个叫“TorchTPU”的项目,目标就是让TPU原生支持PyTorch。

而PyTorch正是Meta主导开发的深度学习框架。

软硬两端一打通,合作就不再是买卖,而是共建生态

别以为产能数字定了就能稳稳交付。周叔扒了供应链最新进展,发现真正的压力不在台积电,而在配套环节。

比如光互联。谷歌自研的OCS光交换系统需要大量高速光模块,主力供应商长芯博创(股票代码300548)目前还在调整产线方向。

到底是优先满足横向扩展需求,还是纵向升级带宽?决策一拖,整批TPU就得等。

再比如散热。TPU V7单集群功耗轻松突破10兆瓦,相当于一座小型工厂的用电量。

风冷压不住,必须上液冷。英维克等厂商虽已进入谷歌供应链,但液冷系统的安装调试周期长,管道布局、冷却液循环、故障冗余……

哪一环出岔子,服务器都可能过热停机。

还有OCS交换机本身。

核心供应商DriveNets(德克利)在泰国的新厂今年Q1才投产,中国基地要到Q2才能放量。

芯片造好了,却因为交换机没到位,只能堆在仓库——这种事在2025年就发生过

不过谷歌也不是第一次干这种事。它在德州砸下400亿美元建超级数据中心,早就把关键供应商的产能提前锁死。

德克利、长芯博创、英维克,2026年订单普遍翻倍。

这不是临时起意,是三年前就埋下的局

过去几年,提到AI训练,大家第一反应就是买英伟达。

但现实是,GB200/300这类芯片不仅贵,供货还看脸色。

业内测算,谷歌TPU在同等算力下,成本能低20%到50%。Anthropic、xAI、OpenAI、SSI这些顶级玩家,最近都在测试TPU集群。

Meta的动作更是耐人寻味。它一边继续打磨自研芯片,一边先用谷歌TPU过渡。

这不是退缩,而是“两条腿走路”的务实策略。

说到底,谁都不想把自己的命脉栓在一个供应商身上。

CUDA生态再强,也架不住风险集中。

谷歌这波430万颗的放量,等于给整个行业递了一把新钥匙——你不用立刻换锁,但至少知道,门还能从另一边打开。

430万颗TPU,不只是产量的跃升,更是AI基础设施走向多元化的标志性信号。

当巨头们开始共享资源、协同布局,技术竞争的重心正从“谁更强”转向“谁更稳”。

未来的算力世界,属于那些既能自立,又懂得联手的人。

标签: 谷歌 英伟达 tpu meta ocs
sitemap