昨天提到了生成模型(Generative Model),要去計算事前機率(Prior Probability),還有從類別取樣出 的機率(Probabilit...
步驟一:Function Set 昨天的最後我們提到我們要找一個事後機率(Posterior Probability),如果它大於 0.5 就輸出 ,否則就輸出...
Discriminative v.s. Generative Logistic Regression的方法稱之為 判別(Discriminative) 的方法...
深度學習歷史 深度學習三步驟 定義一個模型 衡量函式的好壞 找到最好的函式 步驟一:定義一個模型 類神經網路(Neural Network) 可以使用...
比Gradient Descent更有效率的演算法 連鎖律(Chain Rule) 反向傳播(Backpropagation) 計算Loss對某一項參...
深度學習流程 我們知道深度學習是三個步驟,首先定義一個function set和structure,之後決定Loss function,接著就可以用Grandi...
Vanishing Gradient Problem 昨天我們提到當你的Network很深的時候,設定同樣的Learning rate,就會產生輸入還是幾乎隨機...
昨天提到了ReLU還有它的一些variant,那接下來要講的是另外一個更進階的想法,叫做Maxout Network。 Maxout Maxout Netw...
昨天說在做深度學習的時候,我們可能會卡在Local minimum、saddle point、甚至是plateau,所以接下來我要介紹一個heuristic的方...
今天要介紹的是,假設你已經在訓練資料上得到很好的結果,但是在測試資料上卻得到不好的結果的3種解決方法。 Early Stopping 假設你的Learning...