Colab連結 今天的主題是要探討優化器(Optimizer)對模型學習的影響,有關優化器該用哪個好,也是一個蠻令人頭痛的問題,大部分的時候優化器都可以讓你成功...
Colab連結 昨天我們介紹了 Shuffle 這支 API 的使用方式,其中特別提到了如果今天資料集本身沒有先打散的話,你後面再做 shuffle 時,如果...
Colab連結 今天的主題比較特殊一些,要來探討 tensorflow 中的 Dataset api : shuffle, batch 和 repeat 的順序...
Colab連結 有沒有人發現幾乎每個在開源的專案上,Batch size 都是2的N次方,像32, 128, 256等,經過我在 stackoverflow 查...
Colab連結 昨天探討了 Batch size 的問題和前天的 Warm-up 問題後,其實在我心中還是有個好奇的問題,也就是 Batch size 和 Le...
Colab連結 相信每個人在學習ML時,都會遇到超參數 Batch size 應該要設置多少才好的問題,一般大家在教科書上學到的大部分是:當 Batch siz...
Colab連結 Warm-up 訓練是由這篇 Paper 提出的一種方法,主要的想法是提供模型在正式訓練前,做一個類似暖機的動作,由於模型在初始狀態時,過高的學...
Colab連結 大家應該聽到爛了,學習率(Learning rate)指的是模型每做完一次 back propagation 後產生的 gradient 再乘上...
關於: 本系列文將借用 Google 提供的 Colab 平台,在上面執行 30 個影像分類訓練任務,每個主題都會探討在不同的狀況或不同的超參數對於同一個任務會...
就在前天 8/31 進行了 Day 1 的醫療專班課程,大概因為大部分成員為醫護人員為主,所以下午主要課程請到了政大應數系副教授 蔡炎龍 老師! 真的是被教職耽...