iT邦幫忙

2022 iThome 鐵人賽

DAY 12
0
AI & Data

【30天之新手學習筆記】PyTorch系列 第 12

Day 12 - 損失函式(loss function)的介紹

  • 分享至 

  • xImage
  •  

時間過得非常的快,從我鐵人賽開賽到今天已經過了三分之一的時間了,這段時間裡我每天過著如鐵人一般被學習筆記追殺的日子(還敢說),但我認為我能堅持量產一篇相關技術方面的學習筆記值得給自己說一聲你很棒了XD,好了說完前面的閒聊之後,接下來我必須要說一些技術上的內容,在前兩天的文章中我主要提到關於神經網路中激勵函式的部分,而今天我主要想要學習神經網路另外一個很重要的部分損失函式.

損失函式

在大部分的機器學習中的算法主要都是希望最大化或最小化一個函式或是指標,這個函式被稱為目標函式,而在深度學習中神經網路用到的目標函式指的都是損失函式.損失函式可以被分為分類與回歸兩個面相,而基本上與成本有關的問題,目標是將損失函式最小化.損失函式的損失就是「實際值和預測值的殘差(residual)」.

常用的損失函式

  • 回歸上的損失函式
  1. 均方誤差(MSE)
    https://ithelp.ithome.com.tw/upload/images/20220925/20152671aFXroPjs0T.png

  2. 平均絕對值誤差(MAE)
    https://ithelp.ithome.com.tw/upload/images/20220925/201526716zzUGYF5yz.png

  3. 根均方誤差(RMSE)
    https://ithelp.ithome.com.tw/upload/images/20220925/20152671eEsqAjgdel.png

  • 分類上的損失函式
  1. 交叉熵(cross-entropy)
    https://ithelp.ithome.com.tw/upload/images/20220925/20152671qaCUCtHDVM.png
  2. 二元交叉熵(binary cross-entropy)
    https://ithelp.ithome.com.tw/upload/images/20220927/20152671nXzg103Hwv.png

參考資料:


上一篇
Day 11- 激勵函數的實作
下一篇
Day 13 - 損失函式的實作
系列文
【30天之新手學習筆記】PyTorch30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言