iT邦幫忙

2023 iThome 鐵人賽

DAY 10
0
自我挑戰組

深度學習的學習 & ASR 中文語音辨識系列 第 10

【Day 10】深度學習的學習:Regularization

  • 分享至 

  • xImage
  •  

上一篇提到的 Variance 過高可能會發生 Overfitting 的問題,為了解決 Overfitting,因此我們採用正規化( Regularization)來處理

Regularization

以結果而言,Regularization 就是在 Loss function 加上一個 penalty(一個數字),來限制範圍
這邊分成兩種:

  • L1-Regularization
  • L2-Regularization

L1, L2 其實只差在要用哪個 Norm 來計算 penalty
我這句話會不會反而讓大家更搞混 :P

L1-Regularization

我在想能不能表示:
https://ithelp.ithome.com.tw/upload/images/20230925/20163287u1eEI5Rc7Y.jpg
Cost function 就是 Loss function 的總和
後面的 L1 即為 penalty term = Regularization Term ,控制模型的複雜性

L2-Regularization

也被稱作 Weight Decay

用的是 L2-norm 同時也叫做 Forbenius norm
https://ithelp.ithome.com.tw/upload/images/20230925/20163287CnJTA5hNgK.jpg

Dropout Regularization

這是另外一個正規化的方法,目的是減少 Neuron 的數量,以避免 Overfitting
以這張圖為例:
https://ithelp.ithome.com.tw/upload/images/20230925/20163287cN1DYsXSfO.png
左邊是原本的 NN,我們每一層保留的機率設為 50%,因此平均下來砍掉了一半的 Neuron

小心得

寫得很淺很淺
這邊打 https://chart.googleapis.com/chart?cht=tx&chl=%5CLaTeX 真的很出車禍,終於懂為何大家都用圖片了


上一篇
【Day 09】深度學習的學習:Bias & Variance
下一篇
【Day 11】深度學習的學習:Normalization
系列文
深度學習的學習 & ASR 中文語音辨識30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言