iT邦幫忙

2022 iThome 鐵人賽

DAY 13
0
AI & Data

【30天之新手學習筆記】PyTorch系列 第 13

Day 13 - 損失函式的實作

  • 分享至 

  • xImage
  •  

昨天的文章中提到了神經網路中很重要的一部分損失函式,相信大部分的人看完我昨天的文章加上下面大神們寫的文章後(大神才是重點),大家都對於在不同的深度學習問題上要利用不同種類的損失函式有一個大概的底了吧,而我寫學習筆記的作風就是在寫完對一個專業名詞相關的介紹後,在能力所及的範圍內寫出一個簡單的實際操作,那麼下面的部分就來進行實作的部分.

MAE(L1 Loss)

平均絕對誤差(MAE)主要是用於回歸上的損失函式,主要是計算輸出與目標間的絕對值誤差之和,值的範圍會在0至∞之間.
https://ithelp.ithome.com.tw/upload/images/20220926/20152671nitCsJkJOQ.png
在Jupyter Notebook上實際操作:
https://ithelp.ithome.com.tw/upload/images/20220926/20152671Scjwh1WNC1.png

MSE(L2 Loss)

均方誤差(MSE)主要是用於回歸上的損失函式,主要是計算輸出與目標間的誤差平分之和,值的範圍會在0至∞之間.
https://ithelp.ithome.com.tw/upload/images/20220926/20152671Oqiic89h78.png
在Jupyter Notebook上實際操作:
https://ithelp.ithome.com.tw/upload/images/20220926/20152671EpBu3nTN3U.png

交叉熵損失(Cross-Entropy Loss)

交叉熵損失(CE)主要是用於分類上的損失函式.
https://ithelp.ithome.com.tw/upload/images/20220926/20152671LeFUFubRUK.png
在Jupyter Notebook上實際操作:
https://ithelp.ithome.com.tw/upload/images/20220927/20152671UryqureLhM.png

二元交叉熵損失(Binary Cross-Entropy Loss)

二元交叉熵損失(BCE)主要是用於分類上的損失函式.
https://ithelp.ithome.com.tw/upload/images/20220927/20152671EHyFeiEVeB.png
在Jupyter Notebook上實際操作:
https://ithelp.ithome.com.tw/upload/images/20220927/20152671qOlTJHvgel.png


參考資料:


上一篇
Day 12 - 損失函式(loss function)的介紹
下一篇
Day 14 - 自然語言處理(NLP)介紹及相關應用
系列文
【30天之新手學習筆記】PyTorch30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言