iT邦幫忙

2023 iThome 鐵人賽

DAY 11
0
自我挑戰組

深度學習的學習 & ASR 中文語音辨識系列 第 11

【Day 11】深度學習的學習:Normalization

  • 分享至 

  • xImage
  •  

正規化

Normalization

當你現在想找出兩個(以上)數據或特徵的之間關係時,為了不要被單位影響,會把這兩者的數據範圍放到同一個尺度下以利觀察,這就是正規化(Normalize)的基本目的
主要還是為了

  • 統一不同資料的範圍
  • 能夠提升 Gradient Descent 的速度和準確程度

假如你現在想觀察資料的兩個特徵,但這兩個特徵(w, b)的變化量差異極大,變化幅度不同
以下圖為例:
https://ithelp.ithome.com.tw/upload/images/20230926/20163287sZpWWgUA3u.png
左圖沒有經過正則化的原始數據,右邊則是經過正則化後的樣子
底下兩張則是在做 Gradient Descent 的圖,可以看到沒有正則化前的路線比較曲折,沒那麼順暢
正則化後也能加速 GD 的進行過程

常見的正規化方法

Min-Max normalization

https://ithelp.ithome.com.tw/upload/images/20230926/20163287lCXXFTy9RE.jpg
X hat 為正規化後的數據,用這個方法可以將 X hat 通通打到 [0, 1] 區間裡面

Z-Score normalization

https://ithelp.ithome.com.tw/upload/images/20230926/201632873dj6e1pivl.jpg

  • https://chart.googleapis.com/chart?cht=tx&chl=%5Cmu平均數
  • https://chart.googleapis.com/chart?cht=tx&chl=%5Csigma標準差

這方法則是可以將正則化後的數據平均數變成0,標準差變成1

以上就是簡短的介紹


上一篇
【Day 10】深度學習的學習:Regularization
下一篇
【Day 12】深度學習的學習:mini-batch / Stochestic Gradient Descent
系列文
深度學習的學習 & ASR 中文語音辨識30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言