新闻资讯-歌剧话剧

突发,谷歌大消息!OSC光交换机,周一要启动?新热点?(附股)

发布时间:2025-09-21 22:39:31  浏览量:30

周末,两个信号被市场再次关注起来。

一是hw在“全联接大会2025”上,罕见地系统披露了昇腾AI集群的底层互联技术——灵衢全光互联。这不是PPT概念,而是已部署在万卡级集群中的真实架构。

二是国际光博会,行业内一些公司集中展示了各自的OCS(Optical Circuit Switch,光电路交换机) 产品方案。

特别是是谷歌在大规模部署基于MEMS的OCS方案,所以一场关于“连接”的产业逻辑正在加速。

对于AI方向,笔者跟踪了比较长时间,今天我们将从以下三个问题来讨论:

先说结论:OCS不是光模块,也不是传统交换机的升级版。

它的核心原理很简单:

通过MEMS微镜、硅光开关或液晶阵列,直接改变光信号的物理传输路径,实现端到端的光路连接,全程无需“光-电-光”转换

简单来说,就是连接的更好了。

一个万卡GPU集群,训练一个大模型,GPU之间要频繁同步梯度。

这种通信是高带宽、长持续、全连接的。

传统电交换机每跳都要光电转换,带来微秒级延迟和巨大功耗,网络本身成了拖累算力的“堵点”。

OCS的思路很“物理”:

与其在电域里“拆包-转发-重组”,不如在光域里直接搭一条专用通道

一旦建立,数据像光一样直通,延迟从μs降到ns,功耗下降超40%,且带宽可支持800G/1.6T。

可能不好理解,举一个栗子,就是传统交换机是城市地铁,站站停。OCS是点对点高铁,一车直达。

它不处理数据包,只建立物理连接。

适合AI训练这类“一旦建好,持续传输”的场景。

1、 谁在用?

很明确是谷歌。

从2019年开始,谷歌就在其TPU v4/v5集群中大规模部署自研的MEMS方案OCS,用于连接数千颗TPU芯片。

据第三方报道,谷歌累计出货量已超1.5万台,是当前全球最大的OCS应用案例。

为什么是谷歌?

因为它最早意识到,当算力规模突破万卡,网络必须从“通用分组交换”转向“专用电路交换”

公开信息显示,Meta、微软、华为等也在相关领域布局

2、谁在做?

早期OCS是巨头自研(如谷歌),但2025年7月,一个关键信号出现:

开放计算项目(OCP)正式成立OCS子项目,成员包括谷歌、微软、英伟达、Lumentum、华为等。

这意味着OCS正在从“封闭定制”走向“开放标准”。

一旦标准化,规模化和成本下降将加速。

3、市场有多大?

据Cignal AI预测,到2028年,全球OCS市场规模将突破10亿美元,2031年预计达20.22亿美元,年复合增长率17.12%。

别小看这个数字。

因为一旦进入,客户粘性极强。

更重要的是,OCS硬件可跨代复用

当电交换每升级一代就要换芯片,OCS只需升级端侧光模块,长期TCO(总拥有成本)比高端电交换低30%以上。

OCS不是单一产品,而是一套系统。

1、光器件与光模块厂商:最直接的受益者

OCS仍需高性能光模块实现光链路连接。虽然不进行光电转换,但发射端和接收端仍依赖光模块

2. 全光互联系统集成商:最有价值的方向

OCS的价值不在单点,而在系统集成。

比如前面提到hw昇腾384超节点的“灵衢”,据公开资料数据来看,其本质是OCS + 控制软件 + AI集群调度的整合方案。它不卖盒子,而是卖“连接效率”。

未来,谁能提供端到端的光调度解决方案,谁就掌握AI集群的网络主导权。

3、硅光与先进封装:下一代技术制高点

MEMS是当前主流,但硅光才是未来。它可实现更高集成度、更小体积、更低功耗。

这方面来看,硅光芯片设计、制造、封装环节,将可能受益。

另外类似CPO(共封装光学)的技术积累,可迁移至OCS光引擎开发。

写在最后

在AI大模型训练动辄消耗数万GPU、单次训练成本超千万美元的今天,降低通信延迟10%、节省功耗20%,就或许意味着巨大的经济与时间优势

特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。

如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是小猎豹坚持的动力~

标签: 谷歌 突发 交换机 ocs osc
sitemap