這是一場新手上路的 30 天鐵人挑戰。身為剛踏進深度學習世界的新手玩家,我會和大家一起從零開始,像在遊戲裡從「入門村」出發,一步步練功、解鎖技能,直到挑戰最終 BOSS!前期我打算先搞懂基礎任務:什麼是神經元?梯度下降怎麼讓模型學習?接著升級到卷積神經網路 (CNN),挑戰影像辨識副本。隨著等級提升,會遇到更高難度的關卡。至於最終 BOSS,可能是圖像辨識、生成式 AI、可能是大型語言模型,也可能是一路上發現的新挑戰。讓我們一起開始吧~
各位夥伴,從 Day 6 到 Day 10,我們已經徹底拆解並在 Playground 中見證了 DNN (深度神經網路) 的所有核心要素。今天,我們將對這些基...
昨天我們正式向 DNN 告別,因為它在處理高解析度圖片時,無法避免參數爆炸與空間資訊丟失這兩大致命傷。今天,我們就要實際走一遍 CNN 的完整流程,看看這個「圖...
CNN 的學習循環:圖片來自:https://anstekadi.com/article/Detail/3315 Forward Pass:輸入 → 特徵提取...
Day 14:卷積 (Convolution) 的核心概念 在 CNN 的結構中,卷積 (Convolution) 是最關鍵的操作。理解它,才能真正知道為什麼...
昨天我們聊了卷積 (Convolution) 的運算原理,知道 CNN 是靠小小的矩陣 —— Filter (濾波器) 在圖片上滑動,產生特徵圖 (Featur...
前幾天我們拆解了卷積運算 Filter 如何擷取特徵。真正實戰時,還需要兩個關鍵輔助層來「整理」與「交接」:Max Pooling 負責資訊濃縮,Flatten...
經過前幾天的 CNN 核心機制與現代架構練功,我們知道從零開始訓練高性能模型既耗資料又吃算力。遷移學習就是把在大型資料集上學到的通用視覺知識,轉移到你的新任務,...
各位夥伴,昨天我們學習了遷移學習的概念,知道我們可以站在 VGG 或 ResNet 這些巨人的肩膀上。今天,我們就要確定要讓這些巨人為我們做什麼——規劃你的專案...
昨天,我鎖定了我的實戰專案目標:自然災害影像分類,並確定了資料集的結構要求。今天將展開實戰的第一個關卡——資料準備。由於市面上沒有現成的、符合我專案需求的資料集...
我們完成了資料的爬蟲採集和人工清洗。今天,我們要將這些乾淨的圖片「精加工」:先進行結構化分割,然後實作 PyTorch/Fast.ai 的資料DataLoade...