在學完傳統的「完整微調」(Full Fine-tuning)後,我們知道其成本高昂。而參數高效調整 (PEFT, Parameter-Efficient Fine-Tuning) 正是為了解決這個瓶頸,讓普通用戶和企業也能高效地微調巨大的 LLM。
PEFT 的核心理念:只調整或新增極少數參數(通常不到 1%),在大幅降低計算與儲存成本的同時,仍能保持接近甚至超越完整微調的性能。
隨著 LLM 參數規模不斷擴大(數百億甚至上萬億),傳統的 Full Fine-tuning 面臨著無法持續的挑戰:
PEFT 解決了這些問題,讓預訓練模型的主體知識保持凍結,只訓練額外的輕量化模組。
PEFT 家族的核心區別在於:在哪個位置、以什麼方式插入或調整少量參數。
LoRA 是目前最受歡迎、應用最廣泛的 PEFT 方法之一。
Prefix Tuning 透過調整輸入層的提示(Prompt)來控制模型行為。
Adapter 是 PEFT 領域較早的方法,透過插入小型網路來實現參數高效調整。
特性 | LoRA | Prefix Tuning | Adapter | Full Fine-tuning |
---|---|---|---|---|
調整位置 | Transformer 權重矩陣 | Transformer 輸入層(每層之前) | Transformer 層之間 | 全部權重 |
參數量 | ~ 0.1%-1% | ~ 0.01% | ~1%-3% | ~100% |
儲存需求 | 低 | 極低 | 低 | 高 |
特點 | 最常用、簡單高效、不增加推理延遲 | 適合多任務切換、參數量極少 | 模組化強、插拔方便 | 效果最準確,但資源最昂貴 |
結論: PEFT 技術透過 LoRA、Prefix Tuning、Adapter 等方法,成功地讓 LLM 的微調變得資源友好,實現了大型模型的大規模、低成本應用。