新闻资讯-歌剧话剧

谷歌TPU终开卖!15-30倍提速碾压GPU,Meta砸数十亿美元抢购?

发布时间:2025-12-11 19:10:47  浏览量:17

声明:本文内容均是根据权威材料,结合个人观点撰写的原创内容,辛苦各位看官支持。

文丨侃侃

编辑丨小七

上个月科技圈的大赢家,谷歌说第二没人敢说第一。

靠着性能能打的Gemini3,股价一路上涨,不仅在AI模型领域对标OpenAI,还顺带让英伟达紧张了一把。

这一切的关键,都绕不开谷歌藏了十年的“杀手锏”,自研TPU芯片。

可能有人还不知道TPU是啥,其实它和英伟达的GPU是亲戚,只不过是专门为AI量身定做的版本。

这东西可不是突然冒出来的,早在2015年谷歌就开始琢磨了。

那时候谷歌正想把传统的搜推算法全换成深度学习,结果发现现成的GPU根本不好用。

GPU的架构太全能了,又是硬盘又是内存、显存,层层叠叠跟个复杂的工厂似的。

AI计算最核心的是矩阵乘法,每个步骤都固定好的,数据用完还得接着用。

但GPU非得把数据送回显存存着,等下一次用再取出来,这不纯纯浪费吗?

在芯片世界里,搬运数据的成本比计算本身还高。

就像你算完一道题,把草稿纸放回抽屉,下次接着算又得拿出来,来回折腾耽误时间。

GPU的电费大半都花在“送数据”的路上,最后全变成热量得靠风扇吹走,谷歌一看这不行,干脆自己造个AI专属工具人。

TPU把GPU那些用不上的图形处理、控制流模块全拆了,就盯着矩阵乘法优化。

它搞了个“脉动阵列”的设计,数据一旦开始计算,就在密密麻麻的计算单元之间传递,没用完绝不回存储单元。

这么一改效果立竿见影,初代TPU的能效比直接远超同期的GPU。

本来想GPU能一统AI算力市场,后来发现针对性优化的专用芯片,在特定场景里能把效率拉到新高度。

这也解释了为啥谷歌这么多年一直死磕TPU,毕竟省钱又高效的好事谁不喜欢。

虽然TPU早早就展现出优势,但谷歌一直把它当宝贝藏着,所有TPU只租不卖,还得绑定谷歌云使用。

大公司要是想用,就得把自己的业务全搬到谷歌云,相当于把身家性命交出去,心里肯定不踏实。

就算这样,苹果也没扛住低价高效的诱惑,悄悄租了些TPU用。

谷歌这波“硬控”,虽然保住了自己的竞争优势,却也限制了TPU的市场推广。

这么多年下来,英伟达靠着GPU和CUDA生态,还是稳稳坐着算力市场的头把交椅。

转折点出在第七代TPUIronwood身上,谷歌终于舍得把它拿出来卖了。

消息一出来,Meta直接找上门,洽谈数十亿美元的大合同,计划2027年开始在机房部署TPU,明年就先租着用。

这事儿直接影响了两家公司的股价,谷歌涨了不少,英伟达反而跌了一点。

谷歌内部甚至有人放话,这波可能要抢走英伟达几十亿美元的订单。

TPU开放售卖对市场的冲击确实不小,毕竟在AI大模型训练这块,它的性价比摆在那儿。

但要说TPU能取代GPU,那也不太现实,TPU是专用芯片,除了AI矩阵运算啥也不会。

赶上大模型的风口它能一飞冲天,可要是以后AI技术路线变了,它可能分分钟失业。

早期的TPU现在已经很难见到了,就是因为跟不上新的计算需求。

反观GPU,简直是全能选手,五年前的老显卡,现在还能用来跑小模型,就算AI这碗饭不香了,回去伺候游戏玩家和设计师照样活得滋润。

更关键的是英伟达的CUDA生态,开发者的代码、常用的库全是基于它写的,想转到TPU就得重构代码、适应新环境,对很多中小厂来说太麻烦了。

有意思的是,就算自己有TPU,谷歌还在大量采购英伟达的GPU。

毕竟谷歌云还有很多客户需要通用算力,总不能逼着所有人都用TPU。

如此看来,TPU和GPU不是非此即彼的关系,更像是分工不同。

未来的算力市场,大概率是TPU抢占头部大厂的专用AI训练需求,GPU继续统治通用市场。

但不管怎么说,巨头们竞争起来,最终受益的还是消费者和开发者。

算力价格可能会被打下来,AI技术的迭代速度也会更快。

谷歌TPU的逆袭,给算力市场提了个醒:没有永远的垄断者,只有不断适应需求的创新者。

专用芯片和通用芯片的博弈,会让整个行业更健康地发展。

对于我们普通人来说,以后能用到更便宜、更强大的AI服务,这才是最实在的好处。

不知道您对此有什么看法呢?欢迎在下方评论区留下你的想法,喜欢文章记得点赞关注我们下期再见。

标签: 谷歌 tpu 谷歌tpu meta gpu
sitemap