這邊很快地介紹分類問題(Classification)。先講分類的問題轉乘迴歸的分法來做。在這邊要注意的是,不同的類別是否有相似的程度,例如說,用身高體重來預測小朋友的年級,這就是不同的類別之間,有距離的關係。
一般來說,可以用獨熱向量(one-hot vector)來表示,並且將網路改成有相同數量的輸出。又因為輸出只有 0 或 1,所以可以把 softmax 來將數值限制在 0 到 1 之間。softmax 除了做 normalized 外,還會讓大的數值和小的數值差別更大。softmax 的輸入稱為 logit。
在兩個類別的時候,也是可以用 softmax。通常會用 sigmoid。這兩個方法是做同一件事情(沒有聽很懂,一個坑)。
這裡可以用
「找最小的 cross-entropy」就等於「找最大的 likelihood」。在分類問題上,Cross-entropy 更常與在分類問題上。其原因是 cross-entropy 的 loss 變化較為較為明顯,MSE 的 Loss 有可能很平坦以致模型訓練比較困難。
由此可以知道,Loss function 可以影響模型的訓練。