昨天花費了不少時間談了 batch_normalization,今天來介紹 dropout 在 tensorflow 中的實作,drop 其實比 batch_n...
這次要介紹的是另一個比較偏向 Dataset 的主題,當你用 tensorflow 久了,你可能就會發現 tensorflow 就像一把瑞士刀,除了最主要的訓練...
昨天介紹了如何產生 tfrecord,今天要介紹的當然就是如何讀取 tfrecord啦! 上次我們將每個人的資料都包成一個 example 後塞入 record...
如果說,我今天要訓練輸入是圖片,而且我想做資料擴增(data augmentation),那有沒有一個比較好的讀取方式呢?今天就要來跟大家介紹 TFRecord...
在 tensorflow 中,我們知道要先建立好 tensor 和 operation 後,再透過 session 來執行,而在 training 時,若有使用...
今天要介紹的是 tensorflow 中的 piecewise_constant 功能,但在介紹之前,先來介紹 global step ,global step...
今天要介紹的東西,可能很多新手寫錯了都還不知道,包括我早期使用時,大家可以檢視一下自己的模型。不知道大家還不記得 day10 所介紹的 batch normal...
相信稍微研究 ML 領域的大家都不陌生 regularization,只是在使用 tensorflow 時,可能有些人就直接忽略它不做,所以!今天就來為大家介紹...
當你擁有越來越多建構模型的經驗後,下個該注意的重點就是評估這個模型的效能,以我最常處理的影像來說,很常會考量運算是放在雲端還在邊緣裝置,這都會需要測試模型的 b...
在模型更新時,我們可以利用 損失函數 (cost function) 來得到誤差,再來我們會根據這個函數的微分去做權重更新,而權重值更新的策略如何,就是看你使用...