在 day2 時,我們介紹了如何用 tf.summary.FileWriter() 產生 tfevent 來觀察 graph,但 tfevent 可以存的東西可...
前面幾天已經介紹了不少和訓練有關的技巧啦,今天則是會來個大雜燴,把所有技巧全部串接起來做出一個訓練模型的流程,算是總複習! 但在訓練之前,當然先要有資料集啦,大...
昨天的文章把訓練的技巧做了一個總複習,從今天開始到結束前的文章,我會著重在優化模型上,這是我摸索了好大一段時間才有理解的方法,文章內容相對進階,請大家期待囉!...
今天要介紹的是我們優化模型的第一步:processing 欲處理的部份,在原先的訓練中,我們把圖片預處理這一塊放到 Dataset API 去做,因此每次要做推...
昨天介紹了對模型加入預處理的修改,今天要介紹的就是 training 節點的修改啦,原本的模型中,我們已用了 placeholder_with_default...
介紹完預處理後,這次要來介紹的是 dropout 的去除,dropout 是訓練過程中,一種會隨機使輸出變成 0 的 layer,但如果我們目的只有推論的話,那...
既然 dropout 已經被去除了,接下來我們把目標瞄準到 batch normalization 優化吧,那該優化什麼呢?我們先來看看 batch norma...
昨天我們去除了 batch normalization 上冗贅的節點,但...其實呢... batch normalization 還可以做一種優化將它 fol...
前面幾個篇章對模型做了不少的修改,今天就來是實測看看,能有多少個改進,我們先來看看優化前的graph: 優化過後的 graph: 可以看到下列幾個變化: 多了...
這是第三十篇文章,今天想和大家分享的是 tf.lite,身處在大家人手一台智慧型手機的時代,神經網路能運用的地方無所不在,如果你今天想將模型部署到手機上面,那使...