iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

30天深度學習-從零到英雄 系列

幫助初學者從基礎知識開始,逐步掌握深度學習的技術,成為真正的AI深度學習英雄。

鐵人鍊成 | 共 30 篇文章 | 3 人訂閱 訂閱系列文 RSS系列文
DAY 21

過度配適(Overfitting)那就抑制吧!

過度配適(Overfitting)是指機器學習模型在訓練過程中過度擬合訓練數據,例如:練誤差很低,但測試誤差很高、損失值(Loss)不減反增。這些情況會導致機器...

2023-10-03 ‧ 由 yuhua__ 分享
DAY 22

優化器(Optimizer)👉進化神經網路

前言:今天會介紹優化器,以及使用前幾天提到的dropout(丟棄法)跟批次正規化繼續升級我們的神經網路 優化器(Optimizer) 優化器(Optimi...

2023-10-04 ‧ 由 yuhua__ 分享
DAY 23

回歸模型(regression)-加州房價預測

前言:前幾次我們做的神經網路都是在做分類(classification)問題(類別變項),也就是根據輸入特徵分類出輸出類別(數字1的機率、數字2的機率),所以...

2023-10-05 ‧ 由 yuhua__ 分享
DAY 24

用TensorBoard視覺化訓練資訊

前言:現代人講求效率,不再閱讀龐大繁雜的文字資料,而俗話說:「一張好的圖要讓人三秒就能理解。」資料視覺化,透過圖表來說明資訊和資料,在這邊我們也可以用視覺化幫助...

2023-10-06 ‧ 由 yuhua__ 分享
DAY 25

卷積神經網路簡介&計算特徵相符程度

前言:我們前面講用密集神經網路處理MNIST手寫圖片數字,第一步驟就是把28 * 28的二維降為一維陣列,還記得當初說每個像素值都被視為一個特徵,需要784個神...

2023-10-07 ‧ 由 yuhua__ 分享
DAY 26

卷積神經網路中的捲積操作和超參數

多層濾鏡 通常情況下每一個卷積層都包含多個濾鏡(或稱卷積核),每個濾鏡有其特定的功能或是專精的地方,可能擅長辨識某一類特徵。例如,某些濾鏡可能對垂直線條非常敏感...

2023-10-08 ‧ 由 yuhua__ 分享
DAY 27

池化層(pooling layer)

前言:昨天說過 CNN = 卷積層 + 池化層 + 密集神經網路,所以我們今天就要來介紹池化層 池化層 通常在 CNN 神經網路後面還會搭配池化層 (pool...

2023-10-09 ‧ 由 yuhua__ 分享
DAY 28

架設卷積神經網路CNN

前言:今天我們要來仿做史上第一個卷積神經網路LeNet-5,並且加入一些我們前面學過的技巧。 LeNet-5 有兩個卷積層,分別有6與16個濾鏡,池化層也有兩...

2023-10-10 ‧ 由 yuhua__ 分享
DAY 29

殘差神經網路 (redidual network)

前言:昨天我們架設的卷積神經網路使用了 2 個卷積層 + 1 個最大池化層。 昨天架設的CNN只是最基本的,事實上兩個卷積層與一個最大池化層,這樣的組合可以稱...

2023-10-11 ‧ 由 yuhua__ 分享
DAY 30

機器視覺的各種應用&文字預處理

機器視覺:目標是讓計算機能夠「看」和「理解」視覺數據,並幫我們完成分類與辨識。 機器視覺應用 人臉識別: 用於身份驗證、安全系統、社交媒體標記等。人臉辨識...

2023-10-12 ‧ 由 yuhua__ 分享