前几天,科技圈发生了一件极具象征意义的事。
谷歌,凭借其自研芯片TPU的强大算力储备,在与英伟达采购GPU的谈判桌上,硬生生迫使英伟达降价30%。
这件事,可能让很多人感到震惊。
震惊什么?
震惊的是,
那个曾经让全球科技巨头排队求货的英伟达,居然也会被压价。
过去几年,英伟达的H100、H200可是“硬通货”,是有钱都买不到的“核弹”。黄仁勋是绝对的卖方市场霸主。有多夸张?你下单了,可能要等半年才能拿到货。而且,爱买不买,价格我说了算。
但现在,买家开始有了谈判的筹码。
这是一个极其危险的信号。它意味着:
大模型“训练市场”的红利,可能正在见顶。
当大厂们都买够了显卡,当自研芯片开始替代,英伟达的高增长神话,会不会戛然而止?
带着这个问题,我们再看正在举办的2026年CES(国际消费类电子产品展览会)。
你会发现,英伟达的风向,全变了。
不再只谈万卡集群,不再只谈数据中心。黄仁勋开始频繁提及“RTX AIPC”、“机器人工厂”、“Ace数字人”。
那个曾经只在云端“卖铲子”的英伟达,
正在把手伸向你的桌面,伸向你的汽车,伸向物理世界。
我认为,这背后藏着英伟达精心打造的第二条增长曲线。
这条曲线的名字叫:
推理(Inference)与端侧(Edge)。
为什么这么说?几点思考,和你分享。
那么,AI市场到底分为哪两部分?
如果你问我,我会告诉你:
上半场是“训练”,下半场是“推理”。
什么是训练?
训练就像是“读书上学”。你把海量的数据喂给大模型,让它学习规律、提炼知识。
这是一个低频、集中、极其昂贵的过程。
就像培养一个博士,只需要几年时间,而且全球能养得起这种博士的,只有那几家科技巨头——Google、Meta、Microsoft、OpenAI。
这也是过去几年英伟达赚得盆满钵满的原因。
那些科技巨头们,为了训练出更强大的大模型,疯狂采购英伟达的H100、H200。一个万卡集群,动辄几亿美元。
黄仁勋呢?
坐在那里数钱就行了。
就像卖军火的。
但是,
这个市场是有天花板的。
全球能买得起万卡集群的公司,两只手都能数过来。当这些公司都买够了,当模型训练进入“收益递减”阶段,英伟达还能靠什么继续增长?
所以,
英伟达必须找到第二个战场。
那什么是推理?
推理就像是“工作干活”。
博士毕业了,要进入社会解决具体问题。你问ChatGPT一个问题,它回答你;你的车看到行人,自动刹车;你用AI生成一张海报。
每一次交互,都是一次“推理”。
这是一个
高频、分散、且无限持久的过程。
你看,
如果说训练是“挖金矿”,那么推理就是“卖水和电”。
挖金矿的生意,看起来暴利,但挖完了就没了。而卖水卖电,虽然单次利润不高,但只要社会在运转,这个需求就永远存在。
当几十亿台手机、几亿台PC、几千万辆汽车、无数个摄像头开始跑AI时,这个市场的规模,将是训练市场的十倍,甚至百倍。
你看,英伟达看得很清楚:
守着金矿主,迟早会没饭吃;只有做全社会的水电煤,才是长久的生意。
这就是英伟达正在做的事:
从“让AI发生”,转向“让AI无处不在”。
那么,英伟达是怎么做的?
你可能会想,既然推理市场这么大,那就全面出击呗。
但黄仁勋很聪明,他的策略是六个字:
两头堵,中间挖。
什么意思?
**所谓“两头堵”,就是守住云端,放弃轻端。
对于那些最复杂、最重量级的任务,比如Sora级别的视频生成、超大规模的科学计算,依然离不开云端的超强算力。这是英伟达的基本盘,必须守住。
但对于手机、眼镜这种“轻端侧”,英伟达很聪明。他知道自己的芯片是“核弹”,功耗太高,塞不进手机里。那是高通和苹果的地盘,硬碰硬没意义。所以,
他选择战略性放弃。
真正的重头戏,在于“中间挖”。
英伟达要把中间这块“重型端侧”(Heavy Edge)彻底挖透。
什么是重型端侧?
就是那些“带电源线”或者“有大电池”的设备。
首先是PC。
这是英伟达最恐怖的底牌。全球有1亿多台装了RTX显卡的存量PC。
这些PC,原本是用来打游戏、做设计的。但现在,英伟达要把它们重新定义为
一台台“个人AI工作站”。
怎么做?
英伟达在下一盘很大的棋。
首先,
收购Groq。
这家专注推理加速的公司,能让大模型在端侧跑得更快。
其次,
发布Nemotron-3 Nano
。这是一个专门为端侧优化的小模型,可以在普通PC上流畅运行,不需要云端支持。
更关键的是,拉来产业伙伴站台。
在CES大会上,联想集团总裁杨元庆站到了黄仁勋身边,公开表示:
联想将全力支持英伟达,把大模型部署到AIPC上。
你看,这意味着什么?意味着全球最大的PC厂商之一,正在和英伟达一起,
把AI直接塞进你的电脑里。
让开发者觉得,只有在RTX上跑AI,才是最快的。让中小企业觉得,买一台AIPC部署私有模型,比租云服务器更划算、更安全。
你想想,一个设计师,原本要把一张4K图片传到云端处理,等半天才能下载回来。网速慢的时候,喝杯咖啡都不够。
现在,在本地RTX显卡上,几秒钟就能生成。
这种体验的提升,是质的飞跃。
而且,对于那些对数据安全敏感的企业——比如律所、医院、金融机构——
把AI模型部署在本地,远比放在云端更放心。
你看,英伟达正在把每一台游戏电脑,变成一台AI工作站。
其次是
物理世界。
汽车和机器人,就是“行走的计算机”。
在CES上,英伟达展示了大量基于Thor芯片的自动驾驶方案,以及基于Jetson的机器人方案。
把AI塞进汽车里,塞进工厂的机器狗里,塞进物流的AGV里。
这是英伟达的绝对腹地。
为什么?因为这些设备,第一有足够的电池支撑高性能芯片;第二需要实时反应,不能依赖云端;第三,对可靠性要求极高,不能出错。
而这些,恰恰是英伟达的强项。
通过掌控这些“重型设备”,英伟达正在构建一个庞大的分布式算力网络。
这张网,将成为英伟达第二曲线的基石。
你看,当别人还在争夺云端的那几个大客户时,
英伟达已经开始编织一张覆盖全球的“算力之网”。
但是,你可能会问:竞争对手也不傻啊。AMD、Intel、高通,哪个不是巨头?他们凭什么让英伟达轻松拿下这块市场?
是的。
这就要说到英伟达的护城河了。
你可能注意到了,英伟达最近在疯狂推一个东西:
NIM
(NVIDIA Inference Microservices)。
这是一个推理微服务工具。
这东西有什么用?
以前,开发者想把大模型部署到本地,非常痛苦。要适配各种硬件,调各种参数,优化各种性能。一个模型,在A的电脑上能跑,到B的电脑上就跑不动了。
现在,英伟达说:
用我的NIM,你可以“一键部署”。无论是在云端的服务器上,还是在你自己的笔记本上,瞬间搞定。
这听起来是在送福利,帮开发者解决痛点。
但实际上,这是一把“软刀子”。
为什么?
因为NIM是基于英伟达CUDA生态优化的。一旦开发者习惯了用NIM开发应用,为了保证性能最优,最终用户最好还是买英伟达的硬件。
这就是
英伟达的“CUDA 2.0”护城河。
你看,以前英伟达的护城河,是靠硬件性能垄断,逼你用我的软件(CUDA)。现在,
英伟达的护城河,是靠软件便利性锁死,逼你买我的硬件。
这一招,才是让竞争对手最绝望的地方。
AMD可以做出性能接近的显卡,Intel可以做出便宜的处理器。但只要开发者生态被CUDA和NIM锁死,用户就很难逃出英伟达的手心。
这就像,你可以生产出比苹果更好的手机硬件,但只要开发者都在iOS上开发App,用户就离不开iPhone。
护城河,从来不只是技术领先,更是生态锁定。
说到这里,你可能会觉得,英伟达这第二曲线,看起来挺稳的啊。
但是,别高兴太早。
英伟达的转型,并非没有隐忧。相反,
他正处于一个“十面埋伏”的境地。
在云端,Google的TPU、AWS的自研芯片,都在试图“去英伟达化”。就像文章开头提到的,谷歌已经开始用TPU作为筹码来压价了。
在轻端侧(手机、眼镜),那是苹果和高通的天下。
M系列芯片和骁龙芯片,筑起了极高的“能效壁垒”。
英伟达的芯片因为功耗太高,根本进不去。
在PC端,Intel和AMD这两个老对手也联手了。他们强推NPU(神经网络处理单元),试图切走AIPC这块大蛋糕。
面对围剿,黄仁勋的策略很直接:
不跟你比短板,只跟你比长板。
他不跟苹果比省电,他跟苹果比“大力出奇迹”。
什么意思?
在端侧,英伟达强调的是“高性能推理”。他抓住的是游戏玩家、设计师、开发者这群核心用户。
当对手还在宣传NPU能做简单的背景虚化、语音降噪时,英伟达直接告诉你:我的RTX显卡能在本地跑大模型,能炼丹,能生成高清视频。
这是一种“降维打击”式的突围。
自上而下,先占领那些对性能最饥渴的用户,再慢慢渗透。
就像特斯拉,先做Roadster跑车抓住高端用户,再推Model 3进入大众市场。
英伟达的逻辑也是一样:
先让专业用户离不开RTX,再让普通用户慢慢习惯“PC上跑AI”这件事。
谷歌用TPU逼迫英伟达降价,
这说明“训练市场”的暴利时代正在过去。
但CES 2026告诉我们,黄仁勋并没有坐以待毙。
他正在从一个“军火商”(卖算力),转型为一个“生态主”(提供AI全流程服务)。
如果说英伟达的第一曲线,是“让AI发生”(Training);那么他的第二曲线,
就是“让AI无处不在”(Inference)。
未来的竞争,不仅仅是谁的卡更快,而是谁能让AI像电流一样,流淌在每一台PC、每一辆汽车、每一个机器人的血管里。
在这场关于“无处不在”的战争中,英伟达,才刚刚亮出他的第二张底牌。
而这张牌,可能比第一张更有杀伤力。
祝福。