iT邦幫忙

0

課堂筆記 - 深度學習 Deep Learning (19)

  • 分享至 

  • xImage
  •  
  • Gradient Descent Method

統整一下到底要如何Gradient Descent去計算Logistic Regression:
首先我們有輸入值x1,x2,y,用輸入值帶入active function可以得到y-hat:
https://ithelp.ithome.com.tw/upload/images/20211030/20142783rPkNuAXqM4.png

還有error function的參數w1,w2,b,https://ithelp.ithome.com.tw/upload/images/20211030/20142783pQqSGUIaCI.png

然後就可以用梯度下降去獲得Net input了(也就是上一篇的那個偏微分) eta表示learning rate (校正幅度)
https://ithelp.ithome.com.tw/upload/images/20211030/20142783OopSlDGsBR.png

如何找到梯度下降的偏微分曲線>>https://ithelp.ithome.com.tw/upload/images/20211030/20142783GYBHtEvPet.png

首先找到E,也就是error function:https://ithelp.ithome.com.tw/upload/images/20211030/20142783P7zc5NMpEx.png

有了E,接下來找y-hat:https://ithelp.ithome.com.tw/upload/images/20211030/20142783KBuJBXX5vD.png

最後就可以得到:https://ithelp.ithome.com.tw/upload/images/20211030/20142783BtXbG7rYO1.png

接下來就會發現他們的相互關係然後用y跟y-hat去替換:
https://ithelp.ithome.com.tw/upload/images/20211030/201427835T4G3y1M60.png

也就是說梯度下降的偏微分曲線長這樣:
https://ithelp.ithome.com.tw/upload/images/20211030/20142783rTeM5BYawc.png

數學式表示:
https://ithelp.ithome.com.tw/upload/images/20211030/20142783KKcZOpC9Dv.png

向量式表示:
https://ithelp.ithome.com.tw/upload/images/20211030/20142783j1t7jgP5sW.png

這就是如何用Gradient Descent去計算Logistic Regression了。


圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言