AI集群組網可分為前端(FrontEnd)和后端網 AI模型參數持續增長,AI訓練集群帶來 GPU互聯需求,新增后端網絡組網需求。傳統數據中心架構下,傳統服務器與交換機之間通過網卡互相通信,網卡可直連 CPU進行數據交換;AI服務器比傳統服務器新增 GPU模組,服務器內部 GPU 之間通過 PCIe Switch芯片或 NVSwtich 芯片實現內部互聯,GPU 模組通過對應的網卡與其他服務器的網卡互聯,實現各節點之間的通信。因此相比傳統網絡架構,AI 服務器組網增加后端網絡組網(Back End),增加了每臺服務器的網絡端口數量,拉動對高速交換機、網卡、光模塊、光纖光纜等組件的需求。 行業數據 下載Excel 下載圖片 原圖定位