iT邦幫忙

鐵人檔案

2021 iThome 鐵人賽
回列表
AI & Data

30 天在 Colab 嘗試的 30 個影像分類訓練實驗 系列

本系列文將借用 Google 提供的 Colab 平台,在上面執行 30 個影像分類訓練任務,每個主題都會探討在不同的狀況或不同的超參數對於同一個任務會有什麼影響,在面對不同的領域時,機器學習運作起來就像個黑箱子,很難第一次訓練就得到最佳解,只能透過不斷的調教來慢慢修正,本篇系列文會拿我在機器學習工作中,有時想到但沒有時間細察的假設問題來當主題,並且在 Colab 上實際執行看結果如何,會有滿滿的假設與實作!

鐵人鍊成 | 共 31 篇文章 | 8 人訂閱 訂閱系列文 RSS系列文
DAY 11

【11】二分類問題下 Binary Cross Entropy 的使用注意事項

Colab連結 接著昨天討論到的 Cross Entropy ,今天把重點放到了 BinaryCrossEntropy 上,顧名思義,之所以叫 Binary 就...

2021-09-25 ‧ 由 Capillary J 分享
DAY 12

【12】新手容易忽略的 logit 與 loss 之間的搭配

Colab連結 通常在 model.compile() 時,我們要指定這個訓練應該要使用哪種 loss 來計算,前面幾天我們比較了各種 cross entrop...

2021-09-26 ‧ 由 Capillary J 分享
DAY 13

【13】模型套不套用資料增強 (Data Augmentation) 的比較實驗

Colab連結 資料增強(Data Augmentation),是一個當今天資料集樣本不多時,透過調整亮度、剪裁、角度等手法來增加多樣性的好方法,Tensorf...

2021-09-27 ‧ 由 Capillary J 分享
DAY 14

【14】如果不做圖片標準化(Normalization)會怎麼樣

Colab連結 圖片標準化 Image Normalization 不做可以嗎?小實驗實測差別 一般我們在處理大部分的機器學習問題時,我們都會將輸入的資料特徵做...

2021-09-28 ‧ 由 Capillary J 分享
DAY 15

【15】圖片標準化 [0,1] 與 [-1,+1] 的差別實驗

Colab連結 昨天我們實驗了有無做 Normalization 的差異,但我在 stackoverflow 剛好看到一篇精彩的討論,主要爭論的點是我應該把圖片...

2021-09-29 ‧ 由 Capillary J 分享
DAY 16

【16】如果把圖片從RGB轉成HSV和灰階再拿去訓練會怎樣

colab連結 普遍我們拿來訓練的圖片都是RGB,普遍都是機器學習的CNN層找到一些局部特徵來做分類,這些局部特徵對我們人來說,即使是轉成視覺化的特徵值,依然是...

2021-09-30 ‧ 由 Capillary J 分享
DAY 17

【17】訓練到一半遇到 nan 嗎? 梯度爆炸與梯度消失的測試實驗

Colab連結 今天大家介紹 Gradient Exploding (梯度爆炸) 與 Gradient Vanishing (梯度消失),並會簡單做個實驗觸發這...

2021-10-01 ‧ 由 Capillary J 分享
DAY 18

【18】GlobalAveragePooling 與 Flatten 的差異與比較

Colab連結 今天要探討的主題在模型從CNN Layer 轉變成 Dense Layer 時,使用 GlobalAveragePooling (GAP) 與...

2021-10-02 ‧ 由 Capillary J 分享
DAY 19

【19】使用 Pooling 和 Conv 來把圖片變小 (subsampling) 的比較實驗

Colab連結 早期剛學深度學習時,我們 AlexNet 學到了幾個基本的 CNN, Dense, Pooling, Dropout Layers,其中 Poo...

2021-10-03 ‧ 由 Capillary J 分享
DAY 20

【20】從頭自己建一個 keras 內建模型 (以 MobileNetV2 為例)

Colab連結 雖然 Tensorflow 提供了幾個預訓練模型讓我們可以很快的完成訓練任務,但是有時候想做一需實驗時(比如說微調 mobilenet 的 CN...

2021-10-04 ‧ 由 Capillary J 分享