
通過技術優化,DeepSeek 極大程度降低了大模型訓練和使用成本。得益于技術路線優化,DeepSeek-V3 僅使用 2048 塊 NVIDIA H800 GPU,累計訓練278.8 萬個小時,耗費 557.6 萬美元(假設單位訓練成本為 2 美元/小時)。作為對比,GPT-4o 訓練成本約為 1 億美元,Llama 3.1-405B 訓練時長達到 3080 萬GPU 小時,DeepSeek 超高的模型訓練效率打破了大模型領域對于算力堆疊的過度依賴。憑借低訓練成本的優勢,DeepSeek 大模型的使用成本也大幅降低,DeepSeek-V3 的 API 服務價格較 GPT-4o 減少 90%以上,DeepSeek-R1 的 API服務價格較 o1 正式版減少 96%以上。