
? 上下文窗口擴展至 100 萬 token,模型記憶能力提升,將更了解用戶。上下文窗口越長。用戶給模型的輸入越多,能夠給模型提供更多精確數據,使模型表現更好。2023 年 5 月,Anthropic 發布的 Claude 模型將上下文窗口拓展至 100K token,較發布前市場上主流的 token 擴大 10 倍;2023 年 11 月 Claude 模型將上下文窗口提升至 200K token,2025年 3 月谷歌 Gemini2.0 將上下文窗口拓展至百萬級別,相當于能夠同步處理多達 1,500 頁的文本或 3 萬行代碼,使模型能夠處理更大規模的信息。目前研究領域有觀點認為,得上下文者得天下,特別是對用戶端交互數據的積累,隨使用時間沉淀,能幫助模型更好理解用戶需求,使用戶遷移成本變高,有望最終形成 C端產品的競爭壁壘。