iT邦幫忙

2022 iThome 鐵人賽

DAY 8
0
AI & Data

上課了!李宏毅老師 機器學習 (2021)系列 第 8

類神經網路訓練不起來怎麼辦之四s:損失函數 (Loss) 也可能有影響

  • 分享至 

  • xImage
  •  

這邊很快地介紹分類問題(Classification)。先講分類的問題轉乘迴歸的分法來做。在這邊要注意的是,不同的類別是否有相似的程度,例如說,用身高體重來預測小朋友的年級,這就是不同的類別之間,有距離的關係。

一般來說,可以用獨熱向量(one-hot vector)來表示,並且將網路改成有相同數量的輸出。又因為輸出只有 0 或 1,所以可以把 softmax 來將數值限制在 0 到 1 之間。softmax 除了做 normalized 外,還會讓大的數值和小的數值差別更大。softmax 的輸入稱為 logit。

在兩個類別的時候,也是可以用 softmax。通常會用 sigmoid。這兩個方法是做同一件事情(沒有聽很懂,一個坑)。

Loss of Classifiction

這裡可以用

  1. Mean Square Error(MSE)
  2. Cross-entropy

「找最小的 cross-entropy」就等於「找最大的 likelihood」。在分類問題上,Cross-entropy 更常與在分類問題上。其原因是 cross-entropy 的 loss 變化較為較為明顯,MSE 的 Loss 有可能很平坦以致模型訓練比較困難。

由此可以知道,Loss function 可以影響模型的訓練。


上一篇
類神經網路訓練不起來怎麼辦 之三:自動調整學習速率
下一篇
類神經網路訓練不起來怎麼辦之五: 批次標準化 (Batch Normalization) 簡介
系列文
上課了!李宏毅老師 機器學習 (2021)16
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言