iT邦幫忙

2024 iThome 鐵人賽

DAY 11
0
AI/ ML & Data

Web仔從數學角度學習 AI/ ML & Data系列 第 11

Day 11 - Web仔從數學角度學習 前饋式神經網路 過適化問題

  • 分享至 

  • xImage
  •  

註:本文同步更新在Notion!(數學公式會比較好閱讀)

什麼是過適化?⁽⁽ଘ( ˙꒳˙ )ଓ⁾⁾

過適化的核心問題在於模型過度擬合訓練數據,使其對訓練集中的噪聲或不具普遍性的特徵過於敏感。當模型過於複雜時,它會過度學習訓練數據中的每一個細節,導致在新的數據上無法進行有效的泛化。

https://ithelp.ithome.com.tw/upload/images/20240923/20168898md6D0sO0Hh.png

過適化的特徵是訓練損失持續下降,但測試損失在某個點之後開始上升。這意味著模型已經過度擬合訓練數據,而無法對測試數據進行有效的預測。


過適化的數學解釋

過適化可以從模型的**偏差-方差權衡(Bias-Variance Tradeoff)**的角度來理解。

  • 偏差(Bias):模型的簡單性導致無法完全擬合數據的趨勢,即模型對訓練數據的過於簡單的近似,會導致高偏差。
  • 方差(Variance):模型的複雜性使其對訓練數據中的小波動和噪聲過於敏感,導致高方差。

過適化往往出現在高方差的模型中,因為這些模型對訓練數據中的每一個特徵過度擬合,從而無法很好地應用到新的數據。偏差-方差權衡表示我們需要在模型的複雜度和泛化能力之間取得平衡。


過適化的原因

  1. 模型過於複雜:當模型的參數數量過多時,特別是神經網路中的層數和神經元數量較多時,容易導致過適化。
  2. 訓練數據不足:模型如果在較小的數據集上訓練,其對訓練數據的擬合程度會過強,導致泛化能力下降。
  3. 訓練時間過長:過度訓練模型會導致過適化,因為模型可能會開始學習訓練數據中的噪聲。
    https://ithelp.ithome.com.tw/upload/images/20240923/20168898oaxmRMeXYl.png

如何避免過適化?

1. 正則化(Regularization)

正則化是防止過適化的常見手段,通過在損失函數中加入對模型參數的懲罰項來限制模型的複雜度。常見的正則化方法包括:

  • L2 正則化(Ridge Regularization)
    https://ithelp.ithome.com.tw/upload/images/20240923/20168898KSfyAq2dKT.png

  • L1 正則化(Lasso Regularization)
    https://ithelp.ithome.com.tw/upload/images/20240923/20168898LQWrdTDjNo.png

2. 提前停止(Early Stopping)

提前停止是另一種防止過適化的方法。當訓練過程中發現測試損失開始上升時,可以停止訓練,從而避免過度擬合訓練數據。

3. 交叉驗證(Cross-Validation)

交叉驗證通過將數據集分成多個部分,反覆訓練和測試模型,來評估模型的泛化性能。常用的交叉驗證方法有K 折交叉驗證,將數據分成 K 個子集,每次選擇一個子集作為測試集,剩下的作為訓練集。

4. 減少模型複雜度

過於複雜的模型容易過適化,減少模型中的層數和神經元數量,或者選擇更簡單的模型結構,可以幫助模型提升泛化能力。

5. 增加訓練數據

更大的訓練數據集有助於模型更好地學習數據中的普遍特徵,減少過適化的風險。數據擴增(Data Augmentation)技術可以生成更多的訓練數據來幫助模型訓練。

6. Dropout

Dropout 是深度學習中特有的一種技術。它在每一個訓練步驟中,隨機「關閉」一部分神經元,迫使網路不依賴於某些特定神經元,而更具泛化性。

數學上,在每次訓練中,我們以一定的概率 p 隨機將部分神經元的輸出設為零。這樣每次訓練網路的結構都不完全相同,從而避免網路過於依賴某些特徵。


前饋式神經網路中的過適化示例

假設我們有一個三層的前饋式神經網路,並且我們在一個較小的數據集上進行訓練,這時模型有可能過度擬合訓練數據。通過繪製訓練損失和測試損失隨著訓練輪數變化的曲線,我們可以發現:

  • 訓練損失隨著訓練次數逐漸下降
  • 測試損失開始時也下降,但在某一點後開始上升

此時,模型已經過度擬合訓練數據,我們應該停止訓練或者調整模型的結構來解決這一問題。


上一篇
Day 10 - Web仔從數學角度學習 前饋式神經網路的梯度下降方式
下一篇
Day 12 - Web仔從數學角度學習 卷積神經網路CNN
系列文
Web仔從數學角度學習 AI/ ML & Data30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言