iT邦幫忙

0

課堂筆記 - 深度學習 Deep Learning (17)

  • 分享至 

  • xImage
  •  

在向量中求各個方向的梯度下降:

  • Gradients and Directional Derivatives

假設F(x,y) = x^2 * y^3,
則梯度在x,y方向則是分別對x.y做偏微分:
https://ithelp.ithome.com.tw/upload/images/20211029/20142783KeVI2zBpXh.png

因此當我們帶入一個點時就可以得知這個點在梯度上的走勢:
https://ithelp.ithome.com.tw/upload/images/20211029/20142783OUq7Suhcgn.png

當我們做偏微分的時候其實是在計算之後帶入的點x何y分別的走向,
https://ithelp.ithome.com.tw/upload/images/20211029/201427833KxQhzJVCG.png

所以假設今天有一個單位向量v = [a,b],且要用f(x,y)去預測走勢時:
https://ithelp.ithome.com.tw/upload/images/20211030/20142783al7z6uA6NL.png

即可帶入公式,也就是用項v跟f(x,y)的偏微分作內積,至於為什麼作內積下一篇會講:
https://ithelp.ithome.com.tw/upload/images/20211029/20142783JpHJ0dT4Pd.png

最後的結果就是向量的校正值。

例題
https://ithelp.ithome.com.tw/upload/images/20211029/20142783CQF76Ck4Sf.png

忘了先發這篇...就發Q&A了 趕快偷補


圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言