
Open AI 領投的人形機器人公司 1X Technologies AI 副總裁 Eric Jang 在《我們如何讓機器人更像生成模型?》中提到,機器人相比生成式模型發展相對落后的原因在于大多數研究者仍在使用相對落后的 ResNet18 深度學習架構,而非在生成模型的巨大的數據集上進行模型訓練。但隨著生成模型的迅速發展,Robot GPT 進程有望加快。2018 年 6 月,OpenAI 發布 GPT-1 模型,參數達 1.1 億。同年11 月,GPT-2 模型發布,參數提升至 15 億。2020 年 5 月,GPT-3 的 beta 版本推出,模型參數迅速提升至 1750 億。隨后大模型發展開始進入到百花齊放階段。2021年 1月,谷歌推出 Switch Transformer,參數量達 1.6 萬億,是史上首個萬億級語言模型;同年 12 月,谷歌推出了 1.2 萬億參數的通用稀疏語言模型 GLaM。2022 年 5 月,Meta AI 發布超大規模語言模型-OPT-175B,是參數超過千億級別的開放模型。2023 年 12 月,谷歌 Gemini 原生多模態大模型發布,模型分為 Ultra、Pro 和 Nano 三個規格,目前 Gemini Pro 模型已整合到 Google AI Studio 和 Vertex AI 中,可供企業在開發中使用。