iT邦幫忙

1

課堂筆記 - 深度學習 Deep Learning (12)

  • 分享至 

  • xImage
  •  
  • Logistic regression的介紹

Logistic regression就跟其他的回歸分析一樣,都是預測的分析,不一樣的是他預測的結果會用二進位來顯示。
所用的Error Function是cross-entropy,大多用於二進位output或是一個/多個屬性的output。

注意:雖然它名字有 regression 但是它是屬於 classification 噢... :D

  • 三個簡易模型
    還記得前面篇章的激發/抑制嗎? 這三種模型是用不一樣的Activation Function:
  1. Binary Classification (sign function)
    https://ithelp.ithome.com.tw/upload/images/20211026/20142783V0fWeRM12O.png
    前面的PLA就是用來計算這個的演算法

  2. Linear Regression (linear function)
    https://ithelp.ithome.com.tw/upload/images/20211026/20142783Ze8sCUvRhF.png
    用gradient descent(梯度下降)計算

  3. Logistic Regression (sigmoid function)
    https://ithelp.ithome.com.tw/upload/images/20211026/20142783Www8YieuhU.png
    用gradient descent(梯度下降)計算

  • Sigmoid function
    https://ithelp.ithome.com.tw/upload/images/20211026/20142783r8lWXPU6Am.png

前面介紹線性函數的時候有提到過,這邊順便做簡單的數學推導:
https://ithelp.ithome.com.tw/upload/images/20211026/20142783CEEjobXWHZ.png

當n=0:https://ithelp.ithome.com.tw/upload/images/20211026/201427833WdJ67MPJg.png

當n趨近於無限大:https://ithelp.ithome.com.tw/upload/images/20211026/201427835eihVSis8r.png

當n趨近於負無限大:https://ithelp.ithome.com.tw/upload/images/20211026/20142783BsopBvNGTY.png

可以看到它是一個連續的函數在(0,1)之間,也可以被稱為機率值。

重點筆記
https://ithelp.ithome.com.tw/upload/images/20211026/20142783Op0SWhZJOX.png

總之先記起來...


圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言