以前想搞大模型,基本只有一条路:买英伟达的芯片,或者租别人云上配好的机器。
黄仁勋靠着这套“独家供货”的模式,稳坐AI圈头把交椅好多年。
可到了2025年下半年,情况变了!
谷歌不只想当房东收租了,它开始直接把高性能计算设备送到客户自家机房门口,让人自己装、自己用。
这一下,整个行业都紧张起来了。
过去,谷歌的自研芯片只能在它自己的云服务里用,外人根本碰不到。
但现在不一样了。据多家权威媒体报道,谷歌今年悄悄推了个新计划,允许像Meta这样的大公司,把它的高性能计算设备直接部署在自己的数据中心里。
说白了,就是从“只能租”变成“可以买+自己管”。
陈叔觉得,这事能成,关键是因为谷歌这次真拿出了硬货。
最新一代设备在速度、内存和多机协同能力上,已经跟英伟达目前最强的产品打了个平手,甚至某些地方还略胜一筹。
这意味着什么?它不再是“只能干点轻活”的配角,而是能扛起最复杂AI训练任务的主力选手。
更重要的是,客户确实有这个需求。
Meta正在跟谷歌谈一笔可能高达几十亿美元的合作,打算几年内把这套系统搬进自家机房。
为啥?因为数据太敏感,放在外面总不放心。
与其把命脉交给第三方,不如自己牢牢攥在手里。谷歌这回,正好递来了钥匙。
但光机器快还不够。
英伟达真正的护城河,其实是它那套被全球开发者用惯了的软件系统。
换别的平台,等于要重新学一套操作方式,很多人根本不愿意折腾。
谷歌这次没傻乎乎地推自己的那一套,反而做了一件聪明事:它主动适配了现在最流行的AI开发工具——PyTorch(由Meta主导)。
现在,开发者写代码几乎不用改,就能让程序跑在谷歌的设备上,体验跟用英伟达的差不多。迁移门槛一下子低了很多。
这招效果很明显。
今年以来,越来越多团队开始尝试在谷歌平台上跑主流项目。
连一些原本只认英伟达的公司,也开始悄悄测试谷歌的方案。
更狠的是,谷歌连“烧钱绑客户”的玩法都学会了。
比如它最近跟一家英国云服务商合作,不仅提供设备,还承诺:如果对方付不起电费或场地费,谷歌最高能垫32亿美元。
这不就是当年英伟达拉拢合作伙伴的套路吗?如今对手学会了,还玩得更猛。
而英伟达也没闲着。
黄仁勋今年频频砸钱投资热门AI公司,就为了让他们继续用自家产品。
可现实有点尴尬——有些拿了他钱的公司,转头就在用谷歌的算力训练模型。
连最铁的盟友都在“两边下注”,你说他能不着急?
说到底,这场变化背后,是科技巨头们对AI基础设施控制权的重新争夺。
谷歌不想永远当配角,Meta不想被卡脖子,小公司则希望多一条活路。
AI算力市场,正从“一家独大”慢慢变成“几家共舞”。
最新消息也显示,除了Meta,还有不少欧美和亚洲的大企业,已经开始测试把谷歌的设备放进自家机房。
就连一些低调的科技公司,其实早就在用谷歌的算力跑模型了。
当然,英伟达短期内还是老大。它的新一代产品依然很强,技术积累也深。
但当对手性能追上来了、软件兼容变好了、客户也开始“货比三家”了,垄断的墙就已经出现裂缝。
对咱们普通企业和开发者来说,这反而是好事。
选择多了,价格才能谈下来,技术路线也不用被绑死。未来的AI世界,不该只有一种“标准答案”。
结语当算力不再被一家掌控,创新才真正有了空间。
谷歌把高性能设备送出云端,不只是商业策略的转变,更是推动AI走向更开放、更多元的关键一步。
真正的技术进步,从来不是靠垄断,而是靠竞争与选择共同催生。