新闻资讯-歌剧话剧

挖角谷歌TPU创始人!英伟达豪掷200亿,破解推理市场困局

发布时间:2026-01-01 00:30:41  浏览量:14

文┃小夏

编辑┃叙言

2025年圣诞前夜,科技圈炸了个大新闻。

英伟达抛出重磅消息,豪掷200亿美元拿下AI芯片初创公司Groq的技术授权,还把对方的首席执行官在内的核心高管全挖走了。

这金额可不是小数目,堪称英伟达史上最大手笔的交易,几乎抵得上它过去所有并购案的总和。

200亿交易的核心门道

这笔交易最特别的地方,在于它不是完全收购,而是非排他性技术授权加人才挖角。

有媒体说这是资产收购,但更多报道都强调了“技术授权”这个核心,

这种操作挺精明的。

英伟达现在市值都快摸到3.5万亿美元了,监管机构盯着它的每一个大动作,要是直接全额收购,很可能触发反垄断审查。

非排他性授权就不一样了,既拿到了想要的核心技术,又避开了监管的敏感神经。

更关键的是,挖过来的Groq创始人兼CEO罗斯・詹尼恩,可不是一般人。

他是谷歌TPU的创始人之一,对AI芯片架构的理解,怕是硅谷绝大多数工程师都比不过。

把这样的人招入麾下,相当于从谷歌阵营里挖走了一员大将。

这200亿美元花出去,买的不只是技术专利,还有整个团队的技术积累和行业经验,这笔账算下来其实不亏。

很多人搞不清,一个成立才9年的小公司,凭什么能让英伟达砸200亿?答案就在它的核心产品LPU上,也就是语言处理单元。

这东西和英伟达的GPU压根不是一回事,是专门为AI推理设计的。

AI行业分训练和推理两个阶段,训练是教模型干活,推理是让模型实际干活。

英伟达的GPU在训练市场几乎垄断,但推理市场的风向正在变。

Groq的LPU采用了“确定性架构”,从零开始专为大语言模型实时推理设计。

传统GPU从图形处理演变而来,处理数据时要频繁调用内存,过程有不确定性,会拖慢速度。

而LPU把计算和数据流动做成了确定性的流水线,大幅减少内存调用,延迟低到每token几十微秒级别。

说它推理速度比英伟达的H100快10倍,成本只有十分之一,这数字看着像营销话术,但技术原理是站得住脚的。

对于聊天机器人、语音助手这些需要实时响应的场景,这种速度优势太关键了。

Groq的威胁还只是开始,英伟达现在面临的是群雄围剿的局面。

谷歌的TPU、亚马逊的Trainium、AMD的Instinct,都在疯狂抢占推理市场。

苹果、Anthropic这些科技巨头已经开始用TPU训练模型,Meta甚至计划2027年全面部署谷歌TPU,直接绕过英伟达的芯片。

很显然,英伟达在推理端的优势远不如训练端稳固。

它能垄断训练市场,很大程度靠的是CUDA软件平台,全球AI开发者几乎都在用,这种生态粘性很难撼动。

但推理任务相对标准化,对软件生态的依赖性没那么强。

谷歌、AWS这些云厂商趁机推自己的芯片和工具链,慢慢培养独立的开发者社区。

如此看来,英伟达的CUDA护城河在推理端正在被慢慢绕过。

更何况,AI芯片市场的竞争格局已经从一家独大变成了群雄逐鹿。

亚马逊最新发布的Trainium3芯片,性能直逼英伟达的旗舰产品。

AMD虽然起步晚,但靠着开源软件生态系统也在快速追赶,

博通则在幕后帮谷歌和Meta做定制AI芯片,市场份额也在慢慢增加。

英伟达的焦虑,从这200亿的交易金额里就能看得明明白白。

从战略角度看,英伟达这招确实走得聪明。

自己从零开发推理专用芯片,不仅耗时久,还不一定能赶得上行业节奏。

直接把最危险的潜在颠覆者收编,既能快速补全推理端的短板,又能消除一个大威胁。

Groq的LPU技术可以直接整合到英伟达现有的产品线里,再加上英伟达强大的分销渠道和生态系统,能让LPU技术迅速覆盖全球市场。

以前开发者想用Groq的芯片,只能找Groq公司,现在通过英伟达的平台就能获得,普及速度会快很多。

有分析师认为,这可能会重新吸引开发者的注意力,把采购动能拉回英伟达这边。

对超大规模云厂商来说,可能还会有自己的计算决策,但对中小型AI公司而言,英伟达加Groq的组合很可能成为最优选择。

毕竟,能以更低的成本获得更快的推理速度,没人会拒绝这样的优势。

说到底,英伟达这200亿美元买的就是一份“保险单”。

在AI芯片行业竞争越来越激烈的当下,它用这笔钱换来了在推理市场不被颠覆的保障,换来了技术领先的时间窗口。

AI芯片市场接下来会进入技术整合加生态博弈的新阶段,而英伟达的这步棋,无疑为行业树立了一个战略并购的新标杆。

毫无疑问,全球算力竞争的白热化,才刚刚开始。

声明:本文内容均是根据权威材料,结合个人观点撰写的原创内容,辛苦各位看官支持,请知悉。

标签: 谷歌 英伟达 tpu 谷歌tpu 推理
sitemap