iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

30天深度學習-從零到英雄 系列

幫助初學者從基礎知識開始,逐步掌握深度學習的技術,成為真正的AI深度學習英雄。

鐵人鍊成 | 共 30 篇文章 | 3 人訂閱 訂閱系列文 RSS系列文
DAY 11

密集神經網路

還記得我們的八天寫的內容嗎?建立神經網路模型的結構時,通常需要三個主要層次:輸入層、至少一層的隱藏層,以及輸出層。 輸入層 輸入層的神經元數量應該要對應處理的...

2023-09-23 ‧ 由 yuhua__ 分享
DAY 12

回顧深度學習模型

我們今天來回顧前面架構出來的建議深度學習模型(手寫數字辨識),只要在構建好的模型後寫上「model.summary()」就可以印出模型摘要,如下圖 layer...

2023-09-24 ‧ 由 yuhua__ 分享
DAY 13

損失了什麼?損失函數(Loss Function)

當神經網路訓練完成後我們想要知道到底成不成功,輸出的「準確率」可以告訴我們,但有沒有方法可以變得客觀呢?這時候我們就會使用到「損失函數(Loss Functio...

2023-09-25 ‧ 由 yuhua__ 分享
DAY 14

梯度下降法(Gradient Descent)

昨天介紹兩個常用的損失函數,今天要帶大家認識:如何最小化損失函數的值?我們可以用 「梯度下降法」 或是 「反向傳播」 這兩個方法調整機器學習模型的權重和參數讓誤...

2023-09-26 ‧ 由 yuhua__ 分享
DAY 15

反向傳播與學習率

昨天講到了梯度下降法則,今天要跟大家介紹的是反向傳播,它們兩個在神經網路中各自承擔著不同的任務。介紹完反向傳播後會帶入學習率的概念給的大家。 梯度下降法主要是計...

2023-09-27 ‧ 由 yuhua__ 分享
DAY 16

工欲善其事必先利其器-訓練神經網路的小細節

訓練神經網路是一個複雜的過程,稍微調整一個參數,訓練出來的結果與過程中的效率就不會不一樣,所以我們在訓練前需要仔細思考各種因素,確保可以成功地建立和訓練一個有效...

2023-09-28 ‧ 由 yuhua__ 分享
DAY 17

升級吧!神經網路模型

今天要來帶大家把我們之前在第8天做出來的神經網路模型升級一下,話不多說馬上來看 這段與第八天的內容都一樣,這次我們要升級的地方是增加一層隱藏層,還有修改一些小...

2023-09-29 ‧ 由 yuhua__ 分享
DAY 18

權重初始化

前言:今天要跟大家介紹權重初始化(Weight Initialization),並且嘗試用不同權重初始化方式來大帶大家認識。 權重初始化 權重初始化通常會是解...

2023-09-30 ‧ 由 yuhua__ 分享
DAY 19

Glorot分佈

前言:昨天帶大家看了權重初始化的標準常態分佈,今天會帶大家介紹Glorot分佈,明天會解決梯度不穩定的問題。 程式碼的部分中我們需要在匯入套件的地方就先imp...

2023-10-01 ‧ 由 yuhua__ 分享
DAY 20

梯度不穩定(unstable gradient)&正規化

前言:「梯度不穩定」(unstable gradient)是我們在深度學習或機器學習中,訓練模型時遇到的一種問題,當我們的隱藏層越來越多就可能會遇到。 梯度不...

2023-10-02 ‧ 由 yuhua__ 分享