我們把線性模型們都大統一了。
接下來就要進入到令人興奮的神經網路模型了!
首先,我們先來介紹著名的感知器...嗯...前面不是介紹過了?
喔喔!對喔!他長這個樣子:
其中 是我們熟悉的線性模型,然後 就是所謂的 activation function。
不覺得這看起來跟上面的很相似嗎?
我們動點手腳:
是的!發現了嗎?其實 就是在廣義線性模型裡的鏈結函數阿!他會是 activation function 的反函數!
這樣是不是又了結了一樁心事了呢?
在神經網路當中,我們會把一個一個神經元並排起來,數學上看起來就是把預測單一個 y 擴張成多個維度:
所以在權重 W 的部份也隨之從一個向量擴張成一個矩陣,b 的部份也是,可以自己驗算看看。
但是預測多維向量並不是讓模型強大的地方,讓模型強大是因為把很多個這樣的模型頭尾接起來。
當中的這些函數們就是我們說的層。
神經網路模型之所以強大的原因是因為將模型頭尾相接,並不是因為他是模擬生物系統,只是靈感是從生物系統上得來的而已。
搭配上 activation function 的非線性轉換,就可以模擬很多非線性的現象。
model | link function | activation function |
---|---|---|
linear regression | identity function: | identity function: |
logistic regression | logit function: | sigmoid function: |
Poisson regression | log function: | exponential function: |
礙於 IThome 對 markdown 與 latex 的支援問題,取得較佳觀看體驗請到 我的部落格 觀賞。