当ChatGPT这类千亿参数大模型持续“吞噬”算力时,数据中心里的服务器正面临一场“带宽焦虑”——传统光模块与芯片分离的架构,已经跟不上每秒数十TB级的数据传输需求。这时,CPO(Co-Packaged Optics,共封装光学)技术站到了聚光灯下。
和传统“芯片+外置光模块”的分离设计不同,CPO直接把光引擎(负责光信号转换的关键部件)与交换机芯片封装在同一个模块里,相当于让“数据传输的高速公路”直接连到“计算核心的家门口”。这种“零距离”整合,能大幅降低信号传输中的损耗:相比传统方案,CPO的功耗可降低30%以上,延迟也能压缩到原来的1/5;同时,封装后的体积更小,让服务器能在有限空间内塞进更多传输通道,轻松支撑400G、800G甚至1.6T的超高带宽。
如今,谷歌、微软等云计算巨头已在AI数据中心测试CPO服务器,国内华为、中兴也在布局相关技术。当大模型训练需要数万张GPU同时“协同工作”时,只有CPO能扛住这种“数据洪流”的冲击。从“分离”到“共封装”,CPO不仅是服务器带宽瓶颈的“破局者”,更可能成为未来算力基础设施的“标配”——当我们享受AI带来的智能服务时,背后或许正是CPO在默默“加速”数据的流动。

文章版权声明:除非注明,否则均为婉秋博客原创文章,转载或复制请以超链接形式并注明出处。