
前兩大主流網絡互連技術,以太網于1980年投入商業使用并于1983年首次標準化為 IEEE 802.3,此后經過改進可以支持更高速率、更多節點和更長鏈路距離,保留了很好的向后兼容性,取代大多數其他有線LAN技術,應用廣泛,400/800Gbps已經部署,1.6Tbps正在開發。為了應對 PCI 總線限制 I/O 性能進而導致系統發展問題,InfiniBand 由微軟、Intel、IBM 等 IT 巨頭組成的 IBTA 提出,目的取代 PCI、以太網等成為統一互連方案,采用不同于以太網的拓撲結構,主要用于計算機集群互連和存儲設備連接等,2012 年起隨著高性能計算發展,市場份額快速提升,根據 Top500,2015 年占比首次過半,超越以太網,目前已成為大規模 GPU 互連首選技術。Mellanox(2019 年英偉達收購)領導InfiniBand 市場,2016 年引入 SHARP 技術,在交換芯片中集成計算引擎單元,實現在網計算,降低聚合通信延遲,減少網絡擁塞并提高機群系統可擴展性。InfiniBand 主要特點之一是利用遠程直接內存訪問(RDMA)以減少 CPU 資源負荷,實現高吞吐量傳輸數據和低延遲。RDMA 區別于傳統 TCP/IP,可以在兩臺服務器主系統內存之間提供直接訪問,不涉及操作系統、高速緩存或存儲,是降低智算集群中多機多卡間端到端通信時延的關鍵技術。