國內主流大模型對海外大模型各項數據對比差距有限 2.1.3國內大模型訓練量與參數量逐步提升,或在中文領域更具優勢相比GPT-4等國際頂尖大模型,國內大模型隨起步較晚,但隨著國內大模型的加速發展,參數量、訓練量的堆積,部分國內大模型已經可以與國外大模型同臺競技。從參數量來看,智譜旗下的Chat GLM2-130B的參數量達到1.3萬億,僅次于GPT-4,文心一言4.0的參數量也躋身萬億級別;從性能來看,文心一言、商量等大模型在CLiB測評中的表現要好于Meta的LLaMA-2-70B大模型,與GPT-4的差距較小。 行業數據 下載Excel 下載圖片 原圖定位