微調 (Fine-tuning):把一個已預訓練的模型(例如 BERT、GPT-2、LLaMA)拿來,在你自己的標註資料(或任務資料)上再訓練(更新權重),使模型專精於那個任務或領域
提示(Prompting):不改變模型權重,而是設計輸入(prompt),用 prompt 指示模型如何完成任務,可分成 zero-shot、few-shot、chain-of-thought 等技巧
如何選擇
微調 (Fine-tuning) :
提示 (prompting)
微調 (Fine-tuning) :
提示 (prompting)
微調 (Fine-tuning)
提示 (prompting)
RAG(Retrieval-Augmented Generation):把檢索到的文件內容放進 prompt,再讓 LLM 生成答案。適合知識更新頻繁但不想頻繁微調的場景
微調小模型 + prompt:把小模型微調成“領域專家”,同時在 inference 用 prompt 控制輸出格式。
PEFT / LoRA:若資源少,使用 LoRA 類參數有效微調技術,只更新少量參數即可達到接近 full-fine-tune 的效果(節省 VRAM 與時間)