iT邦幫忙

colab相關文章
共有 41 則文章
鐵人賽 AI & Data DAY 9

技術 【9】各種優化器(Optimizer) 大車拼實驗

Colab連結 今天的主題是要探討優化器(Optimizer)對模型學習的影響,有關優化器該用哪個好,也是一個蠻令人頭痛的問題,大部分的時候優化器都可以讓你成功...

鐵人賽 AI & Data DAY 8

技術 【8】資料集有沒有事先 shuffle 對訓練所產生的影響

Colab連結 昨天我們介紹了 Shuffle 這支 API 的使用方式,其中特別提到了如果今天資料集本身沒有先打散的話,你後面再做 shuffle 時,如果...

鐵人賽 AI & Data DAY 7

技術 【7】Dataset 的三個API : Shuffle Batch Repeat 如果使用順序不同會產生的影響

Colab連結 今天的主題比較特殊一些,要來探討 tensorflow 中的 Dataset api : shuffle, batch 和 repeat 的順序...

鐵人賽 AI & Data DAY 6

技術 【6】為什麼 Batch size 通常都是設成2的n次方

Colab連結 有沒有人發現幾乎每個在開源的專案上,Batch size 都是2的N次方,像32, 128, 256等,經過我在 stackoverflow 查...

鐵人賽 AI & Data DAY 5

技術 【5】超參數 Batch size 與 Learning rate 的關係實驗

Colab連結 昨天探討了 Batch size 的問題和前天的 Warm-up 問題後,其實在我心中還是有個好奇的問題,也就是 Batch size 和 Le...

鐵人賽 AI & Data DAY 4

技術 【4】實驗 Batch size大小對訓練模型的影響

Colab連結 相信每個人在學習ML時,都會遇到超參數 Batch size 應該要設置多少才好的問題,一般大家在教科書上學到的大部分是:當 Batch siz...

鐵人賽 AI & Data DAY 3

技術 【3】訓練前先暖身 - 學習率 Warm-up 策略

Colab連結 Warm-up 訓練是由這篇 Paper 提出的一種方法,主要的想法是提供模型在正式訓練前,做一個類似暖機的動作,由於模型在初始狀態時,過高的學...

鐵人賽 AI & Data DAY 2

技術 【2】學習率大小的影響與學習率衰減(Learning rate decay)

Colab連結 大家應該聽到爛了,學習率(Learning rate)指的是模型每做完一次 back propagation 後產生的 gradient 再乘上...

鐵人賽 AI & Data DAY 1

技術 【1】做不做遷移式學習(Transfer Learning)的差異

關於: 本系列文將借用 Google 提供的 Colab 平台,在上面執行 30 個影像分類訓練任務,每個主題都會探討在不同的狀況或不同的超參數對於同一個任務會...

鐵人賽 AI & Data DAY 2
不經醫事,不長醫智 系列 第 2

技術 監不監督的學習?!

機器學習的學習方式可以簡單地分為以下兩種: 監督式學習(Supervised learning) 非監督式學習(Unsupervised learning)...

鐵人賽 AI & Data DAY 1
不經醫事,不長醫智 系列 第 1

技術 人工智慧軍校醫療專班第一期-Day 1

就在前天 8/31 進行了 Day 1 的醫療專班課程,大概因為大部分成員為醫護人員為主,所以下午主要課程請到了政大應數系副教授 蔡炎龍 老師! 真的是被教職耽...