新闻资讯-歌剧话剧

谷歌高管:公司未来“每六个月”,将其人工智能服务能力翻一番

发布时间:2025-11-27 01:11:07  浏览量:20

最近硅谷科技圈的瓜有点大,不是哪个明星产品发布,而是谷歌内部一份演示文件被CNBC扒了出来。

里面写着个狠目标,未来四五年,AI服务能力要实现1000倍增长。

这话是谷歌负责机器学习、系统和云AI的副总裁阿明·瓦赫达特说的,一下子让整个行业都坐不住了。

毕竟现在AI发展正猛,谁先把服务能力提上去,谁就可能抢到下一个十年的船票。

刚开始看到“1000倍增长”这几个字,我第一反应是:谷歌怕不是要把全球的芯片都包圆了?

后来仔细看了文件才搞明白,人家说的不是物理硬件数量翻1000倍,而是“服务容量”,就是实际能处理多少用户请求、跑多少模型推理的能力。

这个思路挺聪明,不是盲目堆服务器,而是要让现有资源“更能干”。

谷歌特意澄清了“计算容量”和“服务容量”的区别。

前者是服务器、芯片这些硬件家底,后者才是用户能真正用到的AI服务能力。

打个比方,计算容量是厨房有多少口锅,服务容量是这些锅一天能炒多少菜。

谷歌要做的,就是让同样的锅,每天能多炒1000倍的菜。

怎么做到呢?核心就两条:硬件升级和模型“减肥”。

硬件方面靠谷歌自研的TPU芯片,最新的Trillium系列,专门为AI任务优化,比上一代处理速度快不少。

跟英伟达的H100比,在AI推理场景各有优势,谷歌的芯片更适配自家的TensorFlow框架。

你还别说,自己的孩子自己疼,定制芯片就是比通用芯片顺手。

模型“减肥”也很关键,现在的大模型参数动不动上万亿,跑起来又慢又费电。

谷歌打算用量化技术把模型参数压缩一下,比如把32位浮点数变成8位整数,体积小了,速度自然快。

还有稀疏激活模型,让模型只“动”需要的部分,不用从头到尾跑一遍。

这些技术听着复杂,说白了就是让AI“少干活多办事”。

光有技术方案还不够,真要实现1000倍增长,谷歌得过好几关。

第一关就是钱,最近科技巨头们在AI基建上都下了血本,微软、亚马逊、谷歌、Meta加起来,未来12个月的资本支出预计要突破4000亿美元。

谷歌云业务虽然开始赚钱了,但这么砸钱扩AI服务,利润压力肯定不小。

第二关是电力,AI服务器就是个“电老虎”,跑起来耗电跟个小型工厂似的。

为了找便宜电,谷歌的数据中心开始往偏远地区搬。

但这又引来新麻烦,社区抵制。

弗吉尼亚州劳登县的居民就不乐意了,说数据中心太费水,夏天空调外机嗡嗡响,吵得人睡不着。

爱尔兰都柏林更夸张,当地人直接上街抗议,担心影响生活质量。

建个数据中心还得哄着邻居,谷歌也是挺无奈。

为了解决电力问题,谷歌最近跟KairosPower签了个有意思的协议,要买小型模块化核反应堆(SMR)发的电。

这种反应堆比传统核电站小,建得快,还能灵活调整发电量。

不过这技术还不算完全成熟,能不能按时用上电,现在还是个未知数。

还有个绕不开的难题叫“杰文斯悖论”,简单说就是,你越提高效率,反而可能用掉更多资源。

比如AI服务能力强了1000倍,大家就会开发更耗算力的应用,从文字生成到视频生成,从语音翻译到实时3D建模。

到时候单位算力能耗是降了,但总耗电量说不定比现在还高。

这就像以前觉得省油的车会少用油,结果大家开车更多了,总油耗反而涨了。

现在整个AI行业都在等“杀手级应用”爆发。

要是服务能力上去了,却没多少人愿意花钱用这些AI服务,那谷歌建的服务器不就成了摆设?产能过剩可不是闹着玩的,到时候不仅赚不回钱,还得养着一堆闲置设备。

行业边界也越来越模糊了,以前硬件商做芯片,云服务商租服务器,模型公司搞算法,各干各的。

现在不行了,得绑在一起玩。

谷歌自己做芯片、搞云服务、开发模型,就是想把整个链条打通。

未来十年,谁能最高效地把电力变成智能,谁就能当科技圈的老大。

谷歌这1000倍增长计划,听着像科幻故事,但其实是AI行业从“实验室阶段”迈向“工业化阶段”的必经之路。

要让AI真正走进千家万户,就得有这么强的服务能力。

只是这条路不好走,技术、钱、能源、社区关系,哪一环出问题都可能掉链子。

说到底,科技公司的竞争早就不只是技术比拼,而是对资源、效率和可持续发展的综合考验。

谷歌能不能啃下这块硬骨头,我们拭目以待。

毕竟,这场关乎未来的极限挑战,每一步都走得不容易。

标签: 谷歌 人工智能 服务器 高管 翻一番
sitemap