今天去看總統府光雕,人感覺不多
然後玩廣角是爽快ㄉ(#
草稿沒ㄌ
進補充名詞單元(各種回頭,傳說中的什麼螺旋學習by教育部
(幹話王上路)
好ㄉ今天來看個
啟用函式
初始:無論你的神經網路有多少層,輸出都是輸入的線性組合,與沒有隱藏層效果相當,這種情況就是最原始的感知機(Perceptron)
進化-更好地學習和表示輸入輸出之間非線性的複雜的任意函式對映:決定引入非線性函式作為激勵函式。激勵函式用於神經網路的層與層之間,上一層的輸出通過激勵函式的轉換之後輸入到下一層中。這樣深層神經網路幾乎可以逼近任何函式。
注意:你可以創造自己的激勵函式來處理自己的問題, 不過要確保的是這些激勵函式必須是可以微分的,因為在backpropagation誤差反向傳遞的時候,只有這些可微分的激勵函式才能把誤差傳遞回去。
form here
其實這篇文的重點在後面列舉的函式,大家有空可以看看(?
然後今天就醬。
認真覺得各種雷,害我超晚回家(小翻白眼
希望週末那個莫名其妙行程不會害我斷賽。
我的兩天假嗚嗚嗚......