哈喽,大家好,小圆这篇国际评论,主要来分析最近AI芯片圈的一件大事,谷歌自研的TPU芯片势头正猛,甚至被传要抢走英伟达10%的年收入,而英伟达一边客套祝贺,一边高调宣称自己的GPU仍领先一代。
这波巨头之间的“客套式博弈”,看似是简单的商业竞争,实则牵动着整个AI产业的算力格局,想弄明白谷歌到底有没有能力撼动英伟达的地位,英伟达的底气又来自哪里?
可能有些朋友对TPU不太熟悉,简单说它是谷歌专为AI神经网络设计的专用芯片,和英伟达GPU的“通才”定位不一样,走的是“专才”路线,谷歌在这事儿上可不是一时兴起,足足布局了十余年,2018年就开始向部分客户开放云端使用,只是最近才放出“大招”。
真正让TPU出圈的,是谷歌前不久发布的Gemini 3大模型,要知道,这款大模型全程没用英伟达GPU,全靠TPU撑起来,这一下就给了谷歌向外界秀肌肉的资本,秀完肌肉后,谷歌立马开始“抢地盘”:有消息称它正给Meta、大型金融机构等推介本地部署TPU的方案。
其中Meta已经在谈用TPU训练新模型,计划2027年砸数十亿美元采购,明年还会先从谷歌云租用,更让英伟达紧张的是,谷歌云高管预测这业务能带来数十亿美元年收入,刚好对应英伟达10%的年营收。
谷歌能这么有底气,核心靠两个卖点:一是安全合规,本地部署能满足敏感数据的监管要求,这对金融机构来说吸引力不小;二是性能适配,像高频交易这种对延迟要求极高的场景,TPU的表现很亮眼。
为了打消客户的使用顾虑,谷歌还搞了“配套服务”:开发了被戏称为“谷歌版CUDA”的TPU command center,就算客户不精通TPU的专属编程语言Jax,也能通过PyTorch生态工具操作。
面对谷歌的挑战,英伟达CEO黄仁勋的应对可以用“软硬兼施”来形容,公开场合他先礼后兵,一边说谷歌TPU“值得尊重”,毕竟人家都迭代到第七代了;一边立马强调核心优势:英伟达是唯一能够兼容所有AI模型、覆盖所有计算场景的硬件平台。
比起TPU这种专用芯片,GPU的通用性和性能优势更突出,这话不是空口吹牛,要知道AI行业这么多模型,大多都是基于英伟达的CUDA生态开发的,换芯片意味着大量的适配成本,这对企业来说是笔不小的开销。
英伟达的钞能力反击更直接,谷歌刚宣布给Anthropic供应100万个TPU,黄仁勋立马砸数十亿美元投资Anthropic,换来了对方继续用GPU的承诺;听说OpenAI要租谷歌TPU,英伟达直接抛出千亿级投资方案,帮OpenAI建自己的数据中心,还商量着租GPU给对方。
更关键的是,英伟达还有“隐性防线”:谷歌云自己还在租英伟达的服务器,而且这部分收入比TPU业务高多了,这说明就算谷歌想替代英伟达,短期内也做不到,毕竟GPU的通用性在很多场景下仍是刚需,TPU只能在特定领域发力。
黄仁勋的这些操作,看似是被动反击,实则是牢牢抓住了生态和客户这两个核心,英伟达和谷歌的攻防战打得火热,这波操作可不只是两家的私事,整个AI芯片行业的格局都在被搅动。
谷歌和英伟达的博弈,其实是AI芯片行业“百家争鸣”的缩影,除了谷歌,亚马逊、微软这些云巨头,还有OpenAI、Meta这些AI开发商,都在偷偷搞自研芯片,大家之所以这么拼,是因为AI发展越来越快,对算力的需求呈指数级增长。
依赖单一供应商不仅成本高,还可能被“卡脖子”,自研芯片既能降本,又能精准适配自己的模型,何乐而不为,有意思的是,英伟达最近交出了创纪录的财报,黄仁勋还驳斥了AI泡沫论,结果股价只涨了一天就跌了。
在内部大会上,他还吐槽“业绩差被说泡沫破了,业绩好被说助长泡沫,左右为难”,甚至自嘲“以前市值5万亿美元是好日子,现在几周就能蒸发5000亿,毕竟得先有那么高估值才亏得起”。这话听着像自嘲,其实也道出了英伟达的处境。
对整个AI产业来说,这种良性竞争太重要了,没有竞争就没有创新,以前大家都依赖英伟达GPU,算力成本居高不下,技术迭代也相对缓慢;现在新玩家不断涌现,不管是英伟达的GPU升级,还是谷歌TPU的场景深耕,最终都会让算力成本降低、效率提升。
至于谁能笑到最后?其实现在下结论还太早,英伟达的生态优势短期内难被超越,谷歌的专用芯片路线也有明确的场景红利。未来更可能出现的格局是“通才+专才”共存:GPU继续主导通用算力市场,TPU这类专用芯片在细分领域发光发热。