
以情感分類任務為例,使用兩種預訓練模型進行處理,比如利用模型寫影評、書評、讀后感等。如果使用傳統 Fine-tune,需要人力來準備一個微調數據集,里面必須包含各種對電影/書籍的評價,以及這些評價人工閱讀后的感受(是積極的還是消極的)。這個下游微調數據集必須足夠大,才能應對復雜的任務。微調數據集的大小可能遠超過了預訓練數據集,乃至失去了預訓練的意義;而 prompt使用預訓練語言模型最擅長的完形填空模式等方式,讓模型根據輸入句,輸出對MASK 位置單詞的預測,推測出評價用戶對這部作品究竟是持 Positive(積極)還是 Negative(消極)的態度。