第十一屆 佳作

google-dev-ml
How to Train Your Model 訓模高手:我的 Tensorflow 個人使用經驗系列文
Capillary J

系列文章

DAY 11

【11】從 tensorboard 來觀察:dropout 原理篇

昨天花費了不少時間談了 batch_normalization,今天來介紹 dropout 在 tensorflow 中的實作,drop 其實比 batch_n...

DAY 12

【12】tensorflow 資料集應用:製作 tfrecord 篇

這次要介紹的是另一個比較偏向 Dataset 的主題,當你用 tensorflow 久了,你可能就會發現 tensorflow 就像一把瑞士刀,除了最主要的訓練...

DAY 13

【13】tensorflow 資料集應用:讀取 tfrecord 篇

昨天介紹了如何產生 tfrecord,今天要介紹的當然就是如何讀取 tfrecord啦! 上次我們將每個人的資料都包成一個 example 後塞入 record...

DAY 14

【14】tensorflow 資料集應用:利用 TFRecordDataset 達成 Data Augmentation 篇

如果說,我今天要訓練輸入是圖片,而且我想做資料擴增(data augmentation),那有沒有一個比較好的讀取方式呢?今天就要來跟大家介紹 TFRecord...

DAY 15

【15】tensorflow 訓練技巧:control_dependencies 篇

在 tensorflow 中,我們知道要先建立好 tensor 和 operation 後,再透過 session 來執行,而在 training 時,若有使用...

DAY 16

【16】tensorflow 訓練技巧:用 piecewise_constant 達成可變動 learning rate 篇

今天要介紹的是 tensorflow 中的 piecewise_constant 功能,但在介紹之前,先來介紹 global step ,global step...

DAY 17

【17】tensorflow 訓練技巧:運用 GraphKeys.UPDATE_OPS 來更新 Batch Normalization 權重篇

今天要介紹的東西,可能很多新手寫錯了都還不知道,包括我早期使用時,大家可以檢視一下自己的模型。不知道大家還不記得 day10 所介紹的 batch normal...

DAY 18

【18】tensorflow 訓練技巧:模型如何輕鬆又方便地做 regularization 篇

相信稍微研究 ML 領域的大家都不陌生 regularization,只是在使用 tensorflow 時,可能有些人就直接忽略它不做,所以!今天就來為大家介紹...

DAY 19

【19】tensorflow 訓練技巧:用 tf.GraphKeys.TRAINABLE_VARIABLES 評估模型效能篇

當你擁有越來越多建構模型的經驗後,下個該注意的重點就是評估這個模型的效能,以我最常處理的影像來說,很常會考量運算是放在雲端還在邊緣裝置,這都會需要測試模型的 b...

DAY 20

【20】tensorflow 訓練技巧:觀念一次就搞懂 Gradient Descent, Momentum, Adagrad, RMSProp, Adam 五種 optimizer 差異篇

在模型更新時,我們可以利用 損失函數 (cost function) 來得到誤差,再來我們會根據這個函數的微分去做權重更新,而權重值更新的策略如何,就是看你使用...