第十一屆 佳作

google-dev-ml
How to Train Your Model 訓模高手:我的 Tensorflow 個人使用經驗系列文
Capillary J

系列文章

DAY 21

【21】tensorflow 訓練技巧:使用 tf.summary 搭配 tensorboard 儀表板篇

在 day2 時,我們介紹了如何用 tf.summary.FileWriter() 產生 tfevent 來觀察 graph,但 tfevent 可以存的東西可...

DAY 22

【22】tensorflow 訓練技巧觀念混合運用篇

前面幾天已經介紹了不少和訓練有關的技巧啦,今天則是會來個大雜燴,把所有技巧全部串接起來做出一個訓練模型的流程,算是總複習! 但在訓練之前,當然先要有資料集啦,大...

DAY 23

【23】tensorflow 模型優化手術:ensure_graph_is_valid 篇

昨天的文章把訓練的技巧做了一個總複習,從今天開始到結束前的文章,我會著重在優化模型上,這是我摸索了好大一段時間才有理解的方法,文章內容相對進階,請大家期待囉!...

DAY 24

【24】tensorflow 模型優化手術:把一般輸入改成 pre processing 輸入篇

今天要介紹的是我們優化模型的第一步:processing 欲處理的部份,在原先的訓練中,我們把圖片預處理這一塊放到 Dataset API 去做,因此每次要做推...

DAY 25

【25】tensorflow 模型優化手術:每次推論都要對 training node 設 false 很麻煩,如何鎖住 training node 篇

昨天介紹了對模型加入預處理的修改,今天要介紹的就是 training 節點的修改啦,原本的模型中,我們已用了 placeholder_with_default...

DAY 26

【26】tensorflow 模型優化手術:推論時經過 dropout 很多餘?如何去掉 dropout layer 篇

介紹完預處理後,這次要來介紹的是 dropout 的去除,dropout 是訓練過程中,一種會隨機使輸出變成 0 的 layer,但如果我們目的只有推論的話,那...

DAY 27

【27】tensorflow 模型優化手術:除去冗贅的 Merge、Switch 運算節點,模型再剪枝篇

既然 dropout 已經被去除了,接下來我們把目標瞄準到 batch normalization 優化吧,那該優化什麼呢?我們先來看看 batch norma...

DAY 28

【28】tensorflow 模型優化手術:給我折下去!模型 folding batch normalization 篇

昨天我們去除了 batch normalization 上冗贅的節點,但...其實呢... batch normalization 還可以做一種優化將它 fol...

DAY 29

【29】tensorflow 模型優化手術:優化前 vs 優化後評比篇

前面幾個篇章對模型做了不少的修改,今天就來是實測看看,能有多少個改進,我們先來看看優化前的graph: 優化過後的 graph: 可以看到下列幾個變化: 多了...

DAY 30

【30】tensorflow 模型優化手術:移動端的部署 tf.lite 篇

這是第三十篇文章,今天想和大家分享的是 tf.lite,身處在大家人手一台智慧型手機的時代,神經網路能運用的地方無所不在,如果你今天想將模型部署到手機上面,那使...