iT邦幫忙

2019 iT 邦幫忙鐵人賽

DAY 8
1
AI & Data

機器學習模型圖書館:從傳統模型到深度學習系列 第 9

09 從線性迴歸到羅吉斯迴歸

我們從前面的模型演化可以了解一個機器學習模型可以怎麼樣衍生出其他的變體來解決問題。

現在我們要切換到另外一條跑道上,我們一樣是從線性迴歸模型出發,我們或許可以換成其他的不同的分佈。

常態分佈

其實我們在前面的文章中有提到我們的線性迴歸模型假設了誤差是會呈現一個常態分佈。

對於誤差的假設這件事情其實很大程度影響了我們模型的長相,也會影響這個模型所適用的資料。

像是線性迴歸模型適用的是連續型變數的資料,更進一步來說,他是要求他的應變量(y)要是連續型的,看起來是這樣的。

https://chart.googleapis.com/chart?cht=tx&chl=%5Cmathbb%7BE%7D%5By%5D%20%3D%20%5Cmathbb%7BE%7D%5BNormal(Y%3Dy%3B%20%5Cmu%2C%20%5Csigma)%5D%20%3D%20%5Cmu%20%3D%20%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b

https://chart.googleapis.com/chart?cht=tx&chl=Normal(Y%3Dy%3B%20%5Cmu%2C%20%5Csigma):代表常態分佈,以 https://chart.googleapis.com/chart?cht=tx&chl=%5Cmu 為平均數,https://chart.googleapis.com/chart?cht=tx&chl=%5Csigma 為標準差,輸入是應變量(y),輸出是機率。

事實上,當你把你的一些 feature 輸入這個模型後,預測出來的是應變量的期望值或是平均數(https://chart.googleapis.com/chart?cht=tx&chl=%5Cmathbb%7BE%7D%5By%5D)。

如果我們要預測的應變量是二元的類別資料,那也就是把問題轉換成分類問題,我們就需要用不同的分佈。

白努力分佈與二項式分佈

當我們的資料是分成兩類:0, 1,那麼他會對應到白努力分佈(Bernoulli distribution)。

當你蒐集了一群二元分類的資料,那麼就會對應到二項式分佈(Binomial distribution)。

如果你要預測的是一筆二元分類的資料,你應該要假設你的應變量(y)是白努力分佈。

https://chart.googleapis.com/chart?cht=tx&chl=%5Cmathbb%7BE%7D%5By%5D%20%3D%20%5Cmathbb%7BE%7D%5BBer(Y%3Dy%3B%20p)%5D%20%3D%20%5Cmu%20%3D%20%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b

https://chart.googleapis.com/chart?cht=tx&chl=Ber(Y%3Dy%3B%20p):代表白努力分佈,以 p 為成功機率,輸入是應變量(y),輸出是機率。

羅吉斯迴歸

羅吉斯迴歸的模型是以下這個樣子:

https://chart.googleapis.com/chart?cht=tx&chl=y%20%3D%20%5Csigma(%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b)

其中的 https://chart.googleapis.com/chart?cht=tx&chl=%5Csigma 是 sigmoid function,由這個函數輸出的就是成功機率了:

https://chart.googleapis.com/chart?cht=tx&chl=p%20%3D%20%5Csigma(s)%20%3D%20%5Cfrac%7B1%7D%7B1%20%2B%20e%5E%7B-s%7D%7D

那這跟我們前面提的分佈看起來都不太一樣阿!我們來反推一下,其實我們前面提到的分佈應該是跟 sigmoid function 的反函數有關係:

https://chart.googleapis.com/chart?cht=tx&chl=%5Csigma%5E%7B-1%7D(y)%20%3D%20%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b

我們從白努力分佈開始,當 https://chart.googleapis.com/chart?cht=tx&chl=y%20%5Cin%20%5C%7B0%2C%201%5C%7D 時:

https://chart.googleapis.com/chart?cht=tx&chl=Ber(Y%3Dy%3B%20p)%20%3D%20p%5Ey%20(1-p)%5E%7B(1-y)%7D

也就是,當 y 是 0 的時候,只會剩下後面那一項,當 y 是 1 的時候,只會剩下前面那一項。

那們我們要預測的其實是一個事件發生的機率 p,可是我們由 https://chart.googleapis.com/chart?cht=tx&chl=%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b 計算出來的是連續的數值。那要怎麼將這兩者接起來呢?

在統計學裡有一個叫作 logit function 的東西,中文翻譯叫作邏輯函數,但是跟邏輯沒什麼關係就是了。

https://chart.googleapis.com/chart?cht=tx&chl=y%20%3D%20log%20%5Cfrac%7Bx%7D%7B1%20-%20x%7D

如果將裡頭的 x 想成成功機率的話,分子就是成功的機率,分母就是失敗的機率,就非常像一個東西叫作勝算(odds),所以他又叫作 log odds。

用勝算的話就是一個連續的數值,同時也可以表達成功機率的含意,我們就從這邊開始吧!一路朝著 sigmoid function 邁進。

https://chart.googleapis.com/chart?cht=tx&chl=s%20%3D%20ln%20%5Cfrac%7Bp%7D%7B1%20-%20p%7D

https://chart.googleapis.com/chart?cht=tx&chl=-s%20%3D%20ln%20%5Cfrac%7B1%20-%20p%7D%7Bp%7D

https://chart.googleapis.com/chart?cht=tx&chl=e%5E%7B-s%7D%20%3D%20%5Cfrac%7B1%20-%20p%7D%7Bp%7D

https://chart.googleapis.com/chart?cht=tx&chl=p%20%2B%20e%5E%7B-s%7Dp%20%3D%201

https://chart.googleapis.com/chart?cht=tx&chl=(1%20%2B%20e%5E%7B-s%7D)p%20%3D%201

https://chart.googleapis.com/chart?cht=tx&chl=p%20%3D%20%5Cfrac%7B1%7D%7B1%20%2B%20e%5E%7B-s%7D%7D

看到了嗎?他是 sigmoid function!

也就是說,如果用線性迴歸預測的是 log odds,那就會跟羅吉斯迴歸一樣!

https://chart.googleapis.com/chart?cht=tx&chl=ln%20%5Cfrac%7Bp%7D%7B1%20-%20p%7D%20%3D%20%5Csigma%5E%7B-1%7D(y)%20%3D%20%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b

你如果把 sigmoid function 還原回來的話:

https://chart.googleapis.com/chart?cht=tx&chl=y%20%3D%20%5Cfrac%7B1%7D%7B1%20%2B%20e%5E%7B-%20%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20-%20b%7D%7D%20%3D%20%5Csigma(%5Cmathbf%7Bw%7D%5ET%5Cmathbf%7Bx%7D%20%2B%20b)

就是羅吉斯迴歸的樣子了!


上一篇
08 l2-regularized 線性模型
下一篇
10 從線性迴歸到 Poisson 迴歸
系列文
機器學習模型圖書館:從傳統模型到深度學習31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言