
我們認為,全球頭部閉源模型的參數目前呈現的規律是:跨代際更新,模型參數進一步加 大;同代 際更新,隨著模型技術架構優化和軟硬件資源 協同能力提高,在模型性性能不降的情況下,參數或做的更小。Google 和 OpenAI 的最新模型都呈現了這個趨勢。24 年 5月 13 日,OpenAI 發布了 GPT-4o 模型,在多模態端到端的架構基礎上,實現了更快的推理速度,以及相比于 GPT-4 Turbo 50%的成本下降,我們推測其模型參數或在下降。5 月14 日 Google 發布了 Gemini 1.5 Flash,官方明確指出 Flash 是在 Pro 的基礎上,通過在線蒸餾的方式得到,即 Flash 的參數小于 Pro。