思維鏈(CoT)在1000億參數模型上才能帶來顯著提升 Prompting Elicits Reasoning in Large Language Models》,思維鏈僅對1000億以上參數模型的推理有顯著提升;此前,為節省推理算力消耗,大多數模型通過蒸餾等方式縮小模型參數量,而思維鏈反向限定模型參數量下限,進而拉動推理階段算力需求增長。 行業數據 下載Excel 下載圖片 原圖定位