iT邦幫忙

2024 iThome 鐵人賽

DAY 17
0

今天就要來 Fine Tune 了。需要注意的是,不是每個 workspace 所在的區域都有 Fine Tune 的。舉例來說,我們這個範例所在的 westus3,可以 Fine Tune Llama,但是不能 Fine Tune Phi3.5。想要 Fine Tune Phi-3.5 的話,就要開到 eastus2 才可以。

  1. 我們先進到 Model Catalog 裡的 Meta-Llama-3.1-8B-Instruct 的頁面,如下圖所示。

我們可以看到價格部份:

每小時 $34.57,用於進行模型的 Fine Tune。

推理成本(輸入和輸出 tokens):

預訓練模型和微調模型的輸入 token 成本一樣,都是 $0.0003 per 1000 tokens。
輸出 token 的成本也相同,為 $0.00061 per 1000 tokens。

值得注意的是,還有一筆微調模型的托管費用:

如果使用微調過的模型進行推理,還需要支付每小時 $0.74 的托管費用,以確保模型可以被隨時使用。

生成式 AI 時代下的 Azure Machine Learning 教學圖文

  1. 接著我們點上圖中 Fine-Tune 的選項,選擇 Pay-as-you-go 的選項。接著我們就選擇下圖中的 Continue to fine-tune 的選項。

生成式 AI 時代下的 Azure Machine Learning 教學圖文

  1. 接著就會開始出現 fine tune 的選單,我們輸入一些基本資訊,如下圖所示。

生成式 AI 時代下的 Azure Machine Learning 教學圖文

  1. 再來,就是上傳我們昨天做好的 JSONL 檔了。注意在 training data 的欄位裡,選擇 upload files ,然後上傳檔案吧!

生成式 AI 時代下的 Azure Machine Learning 教學圖文

  1. 再來 validate data 的部份,我們就選 automatic 自動分割 data 吧!他會自己幫你把資料集的 data 分出來。

生成式 AI 時代下的 Azure Machine Learning 教學圖文

  1. 接著我們來設定 fine tune 時的參數。如果資料集較小,可以選擇較多的 epoch,我們這裡設定為 10。如果您選擇的 batch size 大於您的資料集大小,這意味著模型每次訓練更新時可能會把所有資料都用完。這樣的情況下,相當於一次性的全量更新,這叫做「全局訓練」(full-batch training),但對於小數據集來說,這樣的方式會導致模型缺乏隨機性(stochasticity),容易陷入局部最小值或者無法獲得足夠的泛化能力,這裡我們選 2 就好了。

生成式 AI 時代下的 Azure Machine Learning 教學圖文

  1. 最後,我們就送出 fine tune 吧!

生成式 AI 時代下的 Azure Machine Learning 教學圖文

送出 fine tune 後,這裡我們會等上數個小時,明天我們再來玩他吧!


上一篇
Day16-產生 Fine Tune 用的資料
下一篇
Day18-使用 Fine Tune 的 Meta-Llama-3.1-8B-Instruct
系列文
生成式 AI 時代下的 Azure Machine Learning30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言