哈喽,大家好,今天我就来拆解OpenAI前首席科学家苏茨克沃提出的 “算力悖论”,谷歌大模型的最新突破竟成其观点的最佳佐证,AI行业靠砸钱堆算力的时代真的要落幕了吗?
OpenAI前首席科学家伊利亚・苏茨克沃为其初创公司 SSI(安全超级智能公司)进行的一场访谈,近期成为 AI 行业的热议焦点。
这位曾亲手打造AlexNet、GPT-3,推动 “规模就是王道” 理念盛行十年的科学家,如今却直言 AI 行业的算力扩张路径已走到尽头。
算力扩张的天花板
苏茨克沃在访谈中指出,过去十年 AI 行业将 “Scaling”(规模扩张)奉为圭臬,通过固定比例混合算力、数据和模型参数,就能实现性能稳定提升。
这种确定性吸引了海量资本涌入,OpenAI一年仅实验开支就高达 50-60 亿美元,但如今这一 “配方” 已濒临失效。
一方面互联网高质量文本数据几乎被搜刮殆尽,合成数据的收益递减拐点已至。另一方面算力扩张的成本压力愈发凸显。
2025年中国智能算力规模预计达 1037.3EFLOPS,同比增长 43%,但数据中心的能耗、散热瓶颈让 “算力上天” 成为新探索方向,谷歌甚至启动 “太阳捕手” 计划,试图在太空搭建 TPU 算力网络。
苏茨克沃直言,现有路径只能让 AI 模型 “再走一段,却成不了真正的智能”。
当前大模型的典型困境是,在编程竞赛中能碾压人类,却在修复代码漏洞时陷入 “旧错未改、新错又生” 的死循环。这种矛盾的本质,是模型泛化能力的缺失,强化学习为了特定奖励信号过度优化,研究者又不自觉地 “为考核而训练”,最终导致基准测试与实际应用严重脱节。
理论突破让算力模式重构
谷歌成为苏茨克沃观点的最佳验证者。
2025年第三季度,谷歌发布的Gemini 3模型完全基于第七代 TPU 芯片(Ironwood)训练,其单芯片 FP8 峰值算力达 4614 TFLOPS,首次在推理性能上反超英伟达 B200 芯片。
更关键的是谷歌通过 “算法 + 硬件” 的软硬一体设计,将顶级模型的训练成本降至依赖英伟达 GPU 的对手的一半,甚至与Anthropic达成百万片 TPU 采购协议,推动TPU芯片出货量在 2026 年有望突破 300 万片。
这一突破印证了苏茨克沃的核心判断,理论研究的突破,不仅能让算力需求可控,更能重构算力模式 ,从依赖通用 GPU 转向定制化 TPU。
野村证券的预测显示,2026年ASIC芯片出货量将首次超越GPU,而谷歌的TPU正是这一趋势的核心推手。
这意味着“硬件设计 + 算法突破” 的一体化竞争,将成为 AI 企业的必由之路。
用300亿估值押注 “研究优先”
苏茨克沃的 SSI 公司成为这场行业转型的标志性样本。
这家估值 300 亿美元的初创企业,既无产品也无推理负载,唯一目标就是验证泛化能力的技术理论。
面对 “30 亿美元融资如何对抗 OpenAI 的百亿开支” 的质疑,苏茨克沃指出,大型实验室的预算大多被推理基础设施、产品开发等分散,真正用于核心研究的资金占比极低。
历史早已证明真正的范式突破从不依赖极致算力,AlexNet 仅用 2 块 GPU 训练,2017 年的初代 Transformer 模型也只用到 64 块 GPU。
苏茨克沃认为,AI行业需要找回 “研究品味”,有希望的技术方向必然简洁、优美,且能从生物智能中获得灵感。
这种 “自上而下的信念”,是任何算力规模都无法替代的。
他甚至预测,具备类人泛化能力的AI系统将在 5-20 年内出现,而超级智能的部署将从 “一次性造好” 转变为 “持续教育” 的过程。
AI安全的新共识
苏茨克沃的访谈还揭示了 AI 行业的另一重转变,随着技术能力的提升,安全问题正成为行业共识。
OpenAI 与 Anthropic 已宣布在 AI 安全上展开合作,苏茨克沃则提出更激进的对齐目标。
让 AI关心所有感知生命,而非仅针对人类。他认为,人类的跨物种共情源于大脑神经机制的共性,这一特性或许能为机器对齐提供新思路。
尽管这一理论仍存争议,但反映出行业对 AI 伦理的思考已从技术层面深入到生物智能本质。