iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 12
0

在知道ML的應用和基礎,如何實際上陣面對現實問題仍需要讓ML模型在學習中不斷進步,因此我們需要能有評估效能的方法,並利用loss function作為梯度下降等演算法的依據不斷優化模型。


我們定義loss function做為我們優化模型的指標,因為以一個三維空間的山谷模型來看,谷底是我們最佳的答案則
https://ithelp.ithome.com.tw/upload/images/20191001/20120115mGmGUGPCc0.jpg
我們該往哪走?一步走多遠?引入微積分梯度的基礎概念與數學運算,則梯度下降(Gradient Descent)方法誕生引領我們找到答案
https://ithelp.ithome.com.tw/upload/images/20191001/20120115jLGt3HNxtH.jpg
當然這是最陽春的方法,勢必有不少挑戰仍要修正,走錯路也是有可能,跑太快也是(像下圖)
https://ithelp.ithome.com.tw/upload/images/20191001/20120115TqNDT3RCnn.jpg


上一篇
Day11 ML歷史-後
下一篇
Day13 TensorFlow Playground
系列文
想使自身成長就先從連續30天的機器學習開始吧!31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言