谷歌最近跟AI圈的Anthropic搞了个大动作,直接拍板给对方100万个专用AI芯片,叫张量处理单元(TPU),这单生意算下来得几百亿美元。
现在AI想玩得转,全靠算力撑着,不管是训练Claude这种大模型,还是让模型跑起来给用户用,都得有足够强的芯片当后盾。
这百万TPU一出手,等于直接给Anthropic的“战斗力”上了个保险,也让本来就热闹的AI算力竞赛更火了。
其实这俩不是第一次合作了,谷歌之前就给Anthropic投过钱,2023年拿了20亿,今年年初又补了10亿,前前后后加起来30亿。
这种持续砸钱再给硬件的操作,更像“深度绑定”而非单纯的合作,谷歌帮Anthropic解决钱和算力的问题。
Anthropic用这些资源搞模型研发,反过来还能帮谷歌测试TPU好不好用,毕竟TPU是谷歌自己设计的芯片,专门用来加速AI工作的。
这次交易里说,这些TPU要到2026年才部署,还能给Anthropic带来超过1千兆瓦的计算容量。
本来想觉得2026年挺远的,但转念一想,AI模型迭代多快啊,现在不囤够算力,等明年后年模型要升级了,再临时找芯片根本来不及。
Anthropic的CFO也说了,这波合作能帮他们“继续提升AI前沿的计算能力”,这话听着官方,但确实是大实话,没有算力,再牛的算法也没法落地。
不过有意思的是,不管是谷歌还是Anthropic,都没说清楚Anthropic要怎么付钱用这些TPU,是按时间算还是按使用量算,这事至今没个准信。
Anthropic能拿到谷歌的百万TPU,还有个隐藏原因,想少依赖点英伟达的GPU。
现在AI圈里,英伟达的GPU几乎是“硬通货”,但问题是又贵又难抢,很多小公司根本抢不到。
谷歌的TPU算是除了英伟达之外,技术最先进的芯片之一了,有了这个选择,Anthropic就不用把宝全压在英伟达身上。
当然,Anthropic也没把另一个“大腿”丢了,那就是亚马逊。
亚马逊对Anthropic可比谷歌大方,直接承诺投80亿,还通过AWS给Anthropic提供定制芯片,甚至在印第安纳州建了个2.2GW的数据中心,专门帮Anthropic训练模型。
本来想不通Anthropic为啥敢同时跟谷歌、亚马逊这两个云服务巨头合作,后来发现这才是聪明做法。
要是只靠一家,万一对方哪天调整策略,不给算力或者涨价了,自家的Claude模型不就断粮了?
之前彭博社刚报道谷歌和Anthropic在谈这单交易时,股市就有反应了:亚马逊股价跌了点,谷歌股价反而涨了。
这反应挺真实的,市场都看出来,谷歌这步棋能加强自己在AI硬件领域的地位,而亚马逊的“核心合作方”地位可能会受影响。
不过Anthropic也会做人,马上出来说“仍致力于和亚马逊的合作”,算是给亚马逊吃了颗定心丸。
现在整个AI行业都在抢算力,不止Anthropic,它的对手OpenAI也没闲着,跟英伟达、AMD、Oracle这些公司搞了一堆合作,总价值差不多1.5万亿美元。
大家都怕在算力竞赛里落后,你有100万芯片,我就得找200万,不然模型训练速度慢了,产品不如别人,用户就跑了。
这种“军备竞赛”式的竞争,也让不少人担心AI行业有泡沫。
就说Anthropic吧,今年刚完成一轮130亿的融资,估值直接冲到1830亿,几乎翻了两倍。
但据我了解,它今年的营收也就30亿左右,估值是营收的60多倍,这差距跟天堑似的。
更别说行业里还出现了“互相投资、互相当客户”的循环,A公司投B公司,B公司用A公司的硬件,A公司再用B公司的模型,这种闭环看着热闹,但万一其中一家出问题,很可能连锁反应。
当然,也不能光说风险,算力竞赛也有好处。
现在巨头们愿意花大价钱建数据中心、造芯片,相当于在完善AI的“基础设施”,等这些算力都落地了,以后AI在医疗、教育、企业服务这些领域的应用,才能真正跑起来。
谷歌给Anthropic百万TPU这事儿,不是孤立的交易,而是AI算力竞赛升级的缩影。
未来,巨头和AI初创公司的绑定会更紧密,算力会越来越值钱,但也希望行业能有点理性,别光顾着抢算力、炒估值,忘了AI最终是要解决实际问题的。
要是只追求表面的“规模”,不落地到具体应用,再大的算力、再高的估值,也撑不了太久。