我們完成了資料的爬蟲採集和人工清洗。今天,我們要將這些乾淨的圖片「精加工」:先進行結構化分割,然後實作 PyTorch/Fast.ai 的資料DataLoade...
昨天,我鎖定了我的實戰專案目標:自然災害影像分類,並確定了資料集的結構要求。今天將展開實戰的第一個關卡——資料準備。由於市面上沒有現成的、符合我專案需求的資料集...
各位夥伴,昨天我們學習了遷移學習的概念,知道我們可以站在 VGG 或 ResNet 這些巨人的肩膀上。今天,我們就要確定要讓這些巨人為我們做什麼——規劃你的專案...
經過前幾天的 CNN 核心機制與現代架構練功,我們知道從零開始訓練高性能模型既耗資料又吃算力。遷移學習就是把在大型資料集上學到的通用視覺知識,轉移到你的新任務,...
前幾天我們拆解了卷積運算 Filter 如何擷取特徵。真正實戰時,還需要兩個關鍵輔助層來「整理」與「交接」:Max Pooling 負責資訊濃縮,Flatten...
AI 代理與安寧長照的法律邊界:當科技替人決定「最後一哩路」
在高齡化的台灣,長照與安寧議題不再只是醫療問題,而是「決策」問題。當AI開始進入病房與照護中心,它...