iT邦幫忙

2022 iThome 鐵人賽

DAY 17
0

今日大綱

  • 微分
  • 積分

微積分 (Calculus)是由微分 (Differentiation)與積分 (Integration)所組成的,而這兩個互為逆運算。

微分

微分所計算的是函數上某個點的斜率 (Slope)或梯度 (Gradient),及變化的速度,而二次為分為加速度。
假設一條線其公式為y=2x+5,其斜率為2,代表每增加x一單位,y將會上升2單位,5則為截距 (intercept)。
https://ithelp.ithome.com.tw/upload/images/20220930/20145688vNKE3hiyxM.jpg

微分公式

  • f(x)一階導數的表示法為f'(x)或 dy/dx
  • 若f(x) = k,且k為常數,則f’(x) = 0。
  • 設c為常數,若f(x)可微分,且f(x)=cg(x),那f’(x) = cg’(x)
  • https://ithelp.ithome.com.tw/upload/images/20220930/20145688iur2PRHRRG.png
  • 設f(x)與g(x)皆為可微分函數,且h(x) = f(x) + g(x),則h’(x) = f’(x) + g’(x)
  • 設f(x)與g(x)皆為可微分函數,且h(x) = f(x) * g(x),則h’(x) = f’(x)g(x) + f(x)g’(x)
  • 設f(x)與g(x)皆為可微分函數,且h(x) = f(x) / g(x),則h’(x) =
    https://ithelp.ithome.com.tw/upload/images/20220930/20145688P7GQ2ZfME3.png
  • https://ithelp.ithome.com.tw/upload/images/20220930/20145688LNvbeluiMr.png

偏微分 (Partial differentiation)

在機器學習與深度學習的方法中常使用偏微分,計算每個特徵的梯度,進一步計算最佳的權重。梯度與斜率的概念相似,差別在斜率為單一變數的變化量,梯度為多個變數的斜率。

梯度下降法 (Gradient Descent)就是利用偏微分,計算每個變數的梯度,讓函數沿著特定的方向前進,找出最佳解。
https://ithelp.ithome.com.tw/upload/images/20220930/20145688Br8evF9zDx.png

積分

積分計算的是長度、面積或是體積,它也可以計算累積機率密度函數 (Probability density function, PDF)。
積分常見的數學表示式如下:
https://ithelp.ithome.com.tw/upload/images/20220930/20145688pMjWIJdMR9.png

以下為簡單的例子
https://ithelp.ithome.com.tw/upload/images/20220930/20145688WgarBcOKHY.png

感謝您的瀏覽
/images/emoticon/emoticon29.gif


上一篇
【Day 16】深度學習理論基礎 - 線性代數篇
下一篇
【Day 18】深度學習理論基礎 - 統計篇
系列文
從機器學習到深度學習 - 30天搞懂常見演算法的基礎理論30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言