近年來,在人工智能計算需求不斷增長的推動下,對GPU和其他計算硬件的需求急劇飆升。僅今年一年,英偉達的股價就上漲了200%以上,這一點顯而易見。此外,由于數據中心的人工智能訓練需要高速數據傳輸,對人工智能服務器集群的需求也急劇上升。隨著數據中心基礎設施的不斷擴大,光模塊的使用量呈指數級增長。目前,200G和400G光模塊已經大規模部署,800G光模塊已經開始進入量產和引進階段。
為什么需要800G光模塊?
數據中心內的數據傳輸主要分為南北流量和東西流量兩個方向。南北向流量是指數據中心外用戶與內部服務器之間的數據傳輸,東西向流量是指數據中心之間以及數據中心內服務器之間的數據傳輸。隨著ChatGPT引爆的AI大模型市場,數據中心的東西流量和內部服務器流量比例增加。
更新數據中心拓撲結構
數據中心計算規模和東西向流量不斷擴大,數據中心網絡架構也在不斷變化。在傳統的三層拓撲結構中,服務器之間的數據交換需要經過接入交換機、匯聚交換機和核心交換機。這給匯聚交換機和核心交換機帶來了巨大的工作壓力。
三層拓撲:如果采用傳統的三層拓撲,進一步擴大服務器集群的規模,則需要在核心層和匯聚層部署高性能設備,設備成本將大幅增加。
兩層Spine-Leaf拓撲:Leaf-Spine拓撲將傳統的三層架構扁平化為兩層架構。在這種設置中,葉子交換機(類似于傳統三層架構中的訪問層交換機)直接連接到服務器。骨干交換機,相當于核心層交換機,直接連接到葉交換機,每個骨干交換機連接到所有葉交換機。
AI計算和800G光模塊
與傳統的三層拓撲結構相比,脊葉結構需要大量的端口。因此,無論是服務器還是交換機,都需要更多的光模塊來進行光纖通信。對于使用gpu的廣泛AI訓練應用,在NVIDIA的DGX H100服務器中,集成了8個H100 gpu,對計算和存儲網絡的需求相當于大約12個800G光模塊和18個400G光模塊。更多信息可以在這篇文章中找到:NVIDIA DGX H100簡介。
這表明在葉脊架構下,數據中心對高速光模塊的需求呈指數級增長。隨著數據中心規模的擴大,特別是對AI大型模型訓練的需求,以及GPU服務器對更高傳輸速率的需求增加,800G光模塊的采用速度正在加快。
加速部署800G光模塊
在人工智能計算進步的背景下,800G模塊的需求正在穩步上升,全球領先的制造商加大了部署力度。
例如,星際光學公司已經在2023年上半年開始增加800G光模塊的生產,與gpu匹配的800G產品一起穩定地向海外主要客戶交付。
在OFC 2023上,海信寬帶推出了業界首款800G QSFP-DD BiDi SR4.2光模塊產品,并展示了800G QSFP-DD SR8、800G OSFP SR8、800G OSFP 2xFR4/DR8、800G QSFP-DD 2xFR4/DR8等基于PAM4信令的800G系列光模塊產品,展示了全面的產品系列。
總結
隨著GPU訂單驅動需求的確定性,800G光模塊的批量出貨階段將從今年下半年開始。800G光模塊作為人工智能計算能力的重要一環,在數據中心規模不斷擴大和人工智能培訓需求持續增長的推動下,市場增長和部署速度將加快。
圖文轉自千家網