iT邦幫忙

鐵人檔案

2021 iThome 鐵人賽
回列表
AI & Data

30 天在 Colab 嘗試的 30 個影像分類訓練實驗 系列

本系列文將借用 Google 提供的 Colab 平台,在上面執行 30 個影像分類訓練任務,每個主題都會探討在不同的狀況或不同的超參數對於同一個任務會有什麼影響,在面對不同的領域時,機器學習運作起來就像個黑箱子,很難第一次訓練就得到最佳解,只能透過不斷的調教來慢慢修正,本篇系列文會拿我在機器學習工作中,有時想到但沒有時間細察的假設問題來當主題,並且在 Colab 上實際執行看結果如何,會有滿滿的假設與實作!

鐵人鍊成 | 共 31 篇文章 | 8 人訂閱 訂閱系列文 RSS系列文
DAY 21

【21】不同的模型權重初始化 (Weight Initialization) 對應的使用方式

Colab連結 有關權重如何初始化也是個各派不同的訓練方法,從 tf.keras 官方文檔就看到一大堆的初始化方式,對於開始接觸的人來說,還真是頭痛。 我們知道...

2021-10-05 ‧ 由 Capillary J 分享
DAY 22

【22】正規化方法 L1 與 L2 Regularizers 的比較實驗

Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...

2021-10-06 ‧ 由 Capillary J 分享
DAY 23

【23】Batch Normalization 使得 Regularizers 無效化?談談這兩者的交互影響

Colab連結 昨天我們探討了 L1 與 L2 Regularizers 的問題,但其實啊,Regularizers 還有一個和 Batch Normaliza...

2021-10-07 ‧ 由 Capillary J 分享
DAY 24

【24】如果把 Dropout 放在 CNN 之後會發生什麼事

Colab連結 不知道大家有沒有發現,目前現在主流的網路結構中已經愈來愈少看到 Dropout 了,在早期 VGG 還當紅時,Dropout 在 Dense L...

2021-10-08 ‧ 由 Capillary J 分享
DAY 25

【25】ReLU 家族評比 個別使用ReLU LeakyReLU PReLU SELU 來訓練

Colab連結 今天要來實驗不同的 ReLU 家族的評比,挑戰者有 基本 ReLU 尾巴翹起來的 Leaky ReLU 帶有參數控制尾巴的 PReLU 比較新...

2021-10-09 ‧ 由 Capillary J 分享
DAY 26

【26】你都把 Batch Normalization 放在 ReLU 前面還是後面

Colab連結 Batch Normalization 到底要放在激勵函數之前還是之後呢?這是之前我在自己練習規劃架構時遇到的問題,我把這個問題拿去網路上查時,...

2021-10-10 ‧ 由 Capillary J 分享
DAY 27

【27】遇到不平衡資料(Imbalanced Data) 時 使用 Undersampling 解決實驗

Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...

2021-10-11 ‧ 由 Capillary J 分享
DAY 28

【28】遇到不平衡資料(Imbalanced Data) 時 使用 Oversampling 解決實驗

Colab連結 昨天我們使用了降低多數樣本 Undersampling 的方式來解決少數樣本的問題,今天我們要用複製少數樣本 Oversampling 方式來實...

2021-10-12 ‧ 由 Capillary J 分享
DAY 29

【29】遇到不平衡資料(Imbalanced Data) 時 使用 SMOTE 解決實驗

Colab連結 今天要介紹處理不平衡資料的方法叫 SMOTE (Synthetic Minority Oversampling Technique),其原理就是...

2021-10-13 ‧ 由 Capillary J 分享
DAY 30

【30】使用混合精度(Mixed precision) 對訓練產生的影響

Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...

2021-10-14 ‧ 由 Capillary J 分享