圖5全球大模型參數量變化趨勢 均利用率為50%左右,則需要的GPU卡數為1038卡;根據Nvidia近期舉辦的GTC大會披露的消息顯示,ChatGPT-4.0的參數規模約為1.8萬億,訓練端需要8000個Hopper GPU工作約3個月。 其它 下載Excel 下載圖片 原圖定位