
? AI服務器拉升英偉達云端 AI 芯片需求:這幾年因為 Nvidia 英偉達的 GPU大量被使用在人工智能的云端辨識系統,從每臺服務器加兩片高速運算GPU 卡,4 片到 8 片 GPU 卡都有,讓 Nvidia 在數據中心芯片市場的份額從 2018-2019 年的不到 10%, 到 2021 年的超過 20%,全球人工智能服務器占比也逐年提升至 2021 年近 10%,但光就 AI 推理及訓練加速器而言, 英偉達應該有超過 95%以上的份額。英偉達的 4nm芯片 H100, 芯片面積雖然達 812mm2,最大耗電量達 700W, 但其在浮點半精度,單精度,雙精度稀疏及理論峰值運算都明顯優于同業,為了讓 H100 的 DGX 人工智能服務器系統發揮效能,還要另外配備非常昂貴的 320-640GB HBM (高頻寬內存) 給 AI GPU 使用,為了控制使用價格昂貴的 HBM 讓總成本不要失控,英偉達決定在 2023 年初推自家的設計的 ARM CPU (Grace)配合其高速NVlink 通訊網絡(500GB/秒傳輸速率), 可以讓 CPU/GPU 共同分享DDR4/5/HBM存儲器達到快取一致性(Cache Coherency), 我們認為未來哪家公司能率先推出 AI服務器達到 Cache Coherency ,這就是未來 AI服務器競爭者的決勝點之一。