iT邦幫忙

2025 iThome 鐵人賽

DAY 8
0
佛心分享-IT 人自學之術

學習 LLM系列 第 8

Day 8 微調 (Fine-tuning) vs 提示 (Prompting)

  • 分享至 

  • xImage
  •  
  • 微調 (Fine-tuning):把一個已預訓練的模型(例如 BERT、GPT-2、LLaMA)拿來,在你自己的標註資料(或任務資料)上再訓練(更新權重),使模型專精於那個任務或領域

  • 提示(Prompting):不改變模型權重,而是設計輸入(prompt),用 prompt 指示模型如何完成任務,可分成 zero-shot、few-shot、chain-of-thought 等技巧

如何選擇

  • 微調 (Fine-tuning) :

    • 大量資料且需要高準確度、控制輸出
    • 需要頻繁的更新知識或不能傳資料到外部 API -> 微調 & 部屬私有模型
  • 提示 (prompting)

    • 資料少且想快速驗證、節省訓練成本,或使用商用 API
    • 計算資源有限 (優先提示)
      優點
  • 微調 (Fine-tuning) :

    • 高準確度(專門化)
    • 可控制行為
    • 較穩定
    • 適合線下批量部署與離線隱私場景
  • 提示 (prompting)

    • 快速
    • 沒訓練成本
    • 可立即用 API
    • 靈活(容易改 prompt)
      缺點
  • 微調 (Fine-tuning)

    • 需要 GPU
    • 訓練成本高
    • 需標註資料
    • 模型大小與部署成本問題
  • 提示 (prompting)

    • 有時不穩定
    • 對 prompt 很敏感
    • 若使用商業 API 長期成本高
    • 難以完全控制細節行為
      常見搭配
  • RAG(Retrieval-Augmented Generation):把檢索到的文件內容放進 prompt,再讓 LLM 生成答案。適合知識更新頻繁但不想頻繁微調的場景

  • 微調小模型 + prompt:把小模型微調成“領域專家”,同時在 inference 用 prompt 控制輸出格式。

  • PEFT / LoRA:若資源少,使用 LoRA 類參數有效微調技術,只更新少量參數即可達到接近 full-fine-tune 的效果(節省 VRAM 與時間)


上一篇
Day 7 詞向量與句子向量的練習
系列文
學習 LLM8
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言