
近日,深度求索 Deepseek 公司發布了 DeepSeek-V2 版本的模型,V2 版本的 Deepseek 模型使用 MoE(混合專家模型)技術路線,MoE 的基本理念是將輸入數據根據任務類型分割成多個區域,并將每個區域的數據分配一個或多個專家模型。每個專家模型可以專注于處理輸入這部分數據,從而提高模型的整體性能。Deepseek-V2 采用大量的小參數專 家進行建模,并在模型的訓練和推理過程上加 入了更多的優化。和以往一樣,Deepseek公司對模型(基座和對話對齊版本)進行了完全的 mit 協議開源,MIT(麻省理工學院許可協議)與其他常見的軟件許可協議相比開源使用條件相對寬松。MIT 協議允許使用者任意的使用、復制、修改原 MIT 代碼庫,可以支持模型開源商用。同時,對于算力并不充足的用戶,Deepseek 官方提供了 API 調用的方案,該方案的 API 價格在目前所有大模型中最低,每百萬輸入 Tokens 1 元,每百萬輸出 Tokens 2 元。圖表 1 通過比較各類模型的中文能力和 API 價格,充分體現了 Deepseek-V2 的 API 性價比。