還記得我們的八天寫的內容嗎?建立神經網路模型的結構時,通常需要三個主要層次:輸入層、至少一層的隱藏層,以及輸出層。 輸入層 輸入層的神經元數量應該要對應處理的...
我們今天來回顧前面架構出來的建議深度學習模型(手寫數字辨識),只要在構建好的模型後寫上「model.summary()」就可以印出模型摘要,如下圖 layer...
當神經網路訓練完成後我們想要知道到底成不成功,輸出的「準確率」可以告訴我們,但有沒有方法可以變得客觀呢?這時候我們就會使用到「損失函數(Loss Functio...
昨天介紹兩個常用的損失函數,今天要帶大家認識:如何最小化損失函數的值?我們可以用 「梯度下降法」 或是 「反向傳播」 這兩個方法調整機器學習模型的權重和參數讓誤...
昨天講到了梯度下降法則,今天要跟大家介紹的是反向傳播,它們兩個在神經網路中各自承擔著不同的任務。介紹完反向傳播後會帶入學習率的概念給的大家。 梯度下降法主要是計...
訓練神經網路是一個複雜的過程,稍微調整一個參數,訓練出來的結果與過程中的效率就不會不一樣,所以我們在訓練前需要仔細思考各種因素,確保可以成功地建立和訓練一個有效...
今天要來帶大家把我們之前在第8天做出來的神經網路模型升級一下,話不多說馬上來看 這段與第八天的內容都一樣,這次我們要升級的地方是增加一層隱藏層,還有修改一些小...
前言:今天要跟大家介紹權重初始化(Weight Initialization),並且嘗試用不同權重初始化方式來大帶大家認識。 權重初始化 權重初始化通常會是解...
前言:昨天帶大家看了權重初始化的標準常態分佈,今天會帶大家介紹Glorot分佈,明天會解決梯度不穩定的問題。 程式碼的部分中我們需要在匯入套件的地方就先imp...
前言:「梯度不穩定」(unstable gradient)是我們在深度學習或機器學習中,訓練模型時遇到的一種問題,當我們的隱藏層越來越多就可能會遇到。 梯度不...