新闻资讯-歌剧话剧

芯片迎来新阶段!英伟达独大梦想破灭,AI格局再次发生巨变

发布时间:2025-11-28 17:19:39  浏览量:28

文|锐资

编辑|锐资

家人们,市场上总有种让人哭笑不得的事儿:有时候你吹得天花乱坠的目标,反而有人买账;可真当你掏出实话实说,大家反倒不淡定了。

这不,英伟达最近就出来给市场吃定心丸,这话里没半点水分,实打实说自己的芯片比谷歌的先进,通用性更是甩了对方几条街。但说句实在的,这波安抚大概率是白费劲儿。

客观来讲,英伟达这次还真没吹牛。

他们新一代的R系列芯片,采用了台积电N3P制程,晶体管密度达到1.8亿/mm²,单芯片FP4精度算力就有50PFLOPS,搭建的NVL144平台性能较前代提升3倍以上,不管是制程工艺还是核心功能,确实拿得出手。

而谷歌的TPU芯片,本质上是一款ASIC专用芯片,这种芯片天生就不是走通用性路线的,跟英伟达的GPU比通用能力,压根就不在一个赛道上。英伟达这番解释,每一条都有理有据,挑不出半点毛病。

可问题的关键压根不在芯片本身先进不先进、通用不通用。

最让市场慌神的是,谷歌最新一代的顶尖大模型,从头到尾都是用自家第七代TPU(Ironwood)芯片训练和推理的,全程没英伟达计算卡什么事儿。

更要命的是,这个模型的性能还创下了当下的最佳纪录。这一下直接打破了行业里默认的“英伟达依赖症”,以前大家都觉得,想做顶尖大模型,就必须用英伟达的卡,现在谷歌活生生撕开了一个口子。

这种时候,英伟达再强调自己的芯片多先进、通用性多强,根本解决不了市场的核心担忧。

他们现在最盼着的,恐怕就是哪家大厂能用自家芯片,赶紧搞出一个性能更能打的大模型,把场子找回来。这事儿有没有可能?当然有。

毕竟现在大模型行业就是风水轮流转,各家你追我赶,谁都能当一阵子领头羊。但就算真有这么一天,也抵消不了谷歌这波操作对英伟达长期预期的冲击。

这事儿远不止英伟达和谷歌两家的恩怨那么简单。其实在这波AI热潮里,不少美国大厂早就喊着要自研AI芯片了,可大多是雷声大雨点小,进度慢得让人着急。

这里面原因有俩:一是ASIC芯片不好做。别看它舍弃了通用性,可研发设计的门槛高得离谱。

谷歌为了TPU芯片,可不是临时抱佛脚,从2015年启动项目算起,2016年v1就投入使用支持翻译和搜索。

2021年v4实现4096颗芯片集群用于训练PaLM540B模型,2024年v6(Trillium)聚焦推理,能效比提升67%,如今都已经迭代到第七代了,今天的成就,是十几年磨一剑磨出来的。

二是大家都被英伟达“养懒了”。虽然嘴上喊着要自研,但真要放弃英伟达的生态,用自己的芯片去搞出领先模型,没一家有十足的把握,所以投入始终不温不火。

可现在不一样了,谷歌直接给全行业打了个样。有了这个成功案例,那些原本犹豫不决的大厂,肯定会卯足劲儿加码自研芯片。

可能有人会问,ASIC芯片舍弃了通用性,真的能行得通吗?还真别小瞧它。这种专用芯片的优势就在于,在相同的制程工艺和芯片面积下,能把特定场景的算力拉满。

就像谷歌自己也说了,他们不会完全放弃英伟达芯片,因为有些任务,高度特化的TPU还真搞不定。而且谷歌2024年也通过谷歌云开放了TPUv6的商用,走的是协同而非替代的路子。

但现在全球AI行业有个绕不开的现实:计算卡的增量市场,几乎全集中在大语言模型上。在这个特定赛道里,高度特化的芯片就成了香饽饽。

而且现在美国大厂在AI领域的投入都是百亿甚至千亿美元级别的,2025-2027年,AWS、微软、谷歌、Meta、甲骨文5家云厂商总资本开支预计近1.4万亿美元。

远超2022-2024年的4850亿美元,谷歌2025年更是将全年资本开支上调至910-930亿美元。

这么大的产量规模,足够支撑一家大厂在内部搭建一套专属的软件生态。在自己的生态里,这种定制化芯片的性价比,可比英伟达的通用GPU高多了。

至于谷歌会不会把TPU芯片卖给或租给其他公司,这事大概率成不了气候。老早就有人记得,在这波AI热之前,谷歌就试过对外出售TPU,结果雷声大雨点小,没搞起来。

核心原因还是ASIC芯片的通用性太差,TPU是照着谷歌自家模型量身定做的。别人家的大模型和谷歌的方案差异很大,对谷歌模型的优化,用到别家身上反而可能起反作用。

就算现在谷歌的模型最牛,美国其他大厂也不可能甘心当小弟,就连Meta都是考虑2026年通过谷歌云租用TPU算力,2027年再在自有数据中心部署,走的是“合作租用+自研模型并行”的路子,肯定还是要搞自己的一套模型。

这种各家模型各走各路的差异化局面,其实是这波大语言模型热潮里的“闭源风”闹的,而这股风也间接坑了英伟达一把。

英伟达的计算卡能有今天的地位,不光是硬件设计做得好,更关键的是靠全球开发者们硬生生用出来的生态。开发者们互相交流经验,一起做趋同优化,才让这套软件生态不断迭代升级。

这也是为什么在大语言模型火起来之前,欧美大厂都愿意搞开源,他们可不是慈善家,而是通过维护开源项目,牢牢攥住特定领域的软件生态优势。可现在呢?

美国互联网大厂们顶多开源一些小模型做做样子,根本撑不起一个完整的生态。长期这么下去,英伟达的生态护城河只会越来越窄。

要知道英伟达对未来预期可不低,计划到2026年底,Blackwell与RubinGPU总出货量达2000万颗,对应销售额5000亿美元,是上一代Hopper架构生命周期出货量的5倍,生态萎缩会直接影响这个目标的实现。

从咱们国产算力建设的角度来看,英伟达和谷歌这波争论,其实给我们提了个醒。

短期内,国产算力卡必须考虑兼容英伟达的生态,毕竟现在的开发者早就习惯了英伟达的那一套操作流程,强行切换不现实;但从长期来看,咱们的算力卡必须搭建自己的生态。

最近行业里关于AI泡沫的争论吵得沸沸扬扬,各方说法不一,谁也说服不了谁。

我没法给出一个标准答案,但有一点是肯定的:像现在这样,只有英伟达一家赚得盆满钵满,其他企业要么苦苦支撑要么被迫转型的AI经济模式,肯定是要变了。

AI行业的蛋糕不该这么分,未来的游戏规则,注定要重新改写。

标签: 谷歌 芯片 英伟达 tpu asic
sitemap