iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 11
0

11天了,快要一半了,加油!!

接下來講講最適化~

這邊會講到損失函數

機器學習通常用損失函數表示好壞

https://ithelp.ithome.com.tw/upload/images/20190912/20120126huG80vkVJa.png

損失函數的定義就是樣本跑出來與真正值之間的差別,平方是為了去負號(跟標準差一樣)

若是損失函數越小,那當然越好囉,代表與真實質之間差別越少,所做出的機器學習越好,反之亦然

公式如下:

https://ithelp.ithome.com.tw/upload/images/20190912/201201265BikcAbuzf.png

再來是最重要的Gradient Descent

用來評估損失函數

https://ithelp.ithome.com.tw/upload/images/20190912/20120126W16FXI5b1b.png

若是降到底部,以這個函數為例,代表差距越小

但還是有可能下錯車

https://ithelp.ithome.com.tw/upload/images/20190912/20120126my7vjuedQf.png

所以做的結果也不一定對。

今天先這樣 掰掰


上一篇
Day10 machine learning
下一篇
Day12 machine learning
系列文
非本科生的機器學習之旅25
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言