現在終於要來學最近最火紅的tensorflow,這邊參考莫凡的教學網站來學習,基本上tensorflow就是google為python做的套件~ 首先先來看一下...
Batch Normalization 與 Dropout 是兩個預防模型過擬合的方法,雖然在訓練時,只要簡單幾行就能將之裝上去,但我這次想介紹的是以更深入細節...
前言 上一篇簡單介紹 TensorBoard 的功能,並且測試以下功能: 追蹤損失和準確率等效能衡量指標(Metrics)。 將圖片寫入 Log。 這次,我...
人家一般宅宅玩美少女養成,我們宅宅2.0當然要煉不一樣的養成道路,挑戰真正的玩意兒能去接送你心中的女神(如果她願意上車...我是說真的改裝車嘿) 像這樣,今年的...
如果說可以讓模型縮小10倍,精度還維持水準,這是什麼巫術? 延續 Day 20 的模型優化作法,本次再結合剪枝技術做到更輕量的模型效果。 什麼是剪枝 Pru...
Colab連結 大家應該聽到爛了,學習率(Learning rate)指的是模型每做完一次 back propagation 後產生的 gradient 再乘上...
隨著 ML/DL 模型研究屢有突破,現今模型訓練成果已經相當具有水準,但如果需要藉由手動選擇最佳的模型確實較花時間,因此已經出現取多自動化機械學習 AutoM...
(!!! 這篇是重複了,請參見同日前一篇為準。這篇是因前一篇發文送出後,發生頁面重新導向錯誤且無回應,再重新按發文送出而重複。現在不知能不能刪、刪了會不會變成喪...
關於: 本系列文將借用 Google 提供的 Colab 平台,在上面執行 30 個影像分類訓練任務,每個主題都會探討在不同的狀況或不同的超參數對於同一個任務會...
Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...
Colab連結 有關權重如何初始化也是個各派不同的訓練方法,從 tf.keras 官方文檔就看到一大堆的初始化方式,對於開始接觸的人來說,還真是頭痛。 我們知道...
今天依然來用莫凡python教學網站來學習,跟著流程做一遍~ 把先前的例題用tensorflow的結構重寫一遍,code的下載位置 from __future_...
前面幾天已經介紹了不少和訓練有關的技巧啦,今天則是會來個大雜燴,把所有技巧全部串接起來做出一個訓練模型的流程,算是總複習! 但在訓練之前,當然先要有資料集啦,大...
前言 前一篇介紹了強化學習初步的概念,並且採隨機策略測試一下,隨機等於沒有策略,這次我們實際擬定一些策略,說明強化學習的真正作法。之後再介紹各種演算法的進化及其...
前言 本篇文章說明TensorFlow-最大池化器( MaxPooling)之原理 說明 如下圖,用一個 2x2 的矩陣來掃過輸入 (stride = 2),然...
Colab連結 圖片標準化 Image Normalization 不做可以嗎?小實驗實測差別 一般我們在處理大部分的機器學習問題時,我們都會將輸入的資料特徵做...
今天要介紹的是 tensorflow 中的 piecewise_constant 功能,但在介紹之前,先來介紹 global step ,global step...
Colab連結 昨天我們介紹了 Shuffle 這支 API 的使用方式,其中特別提到了如果今天資料集本身沒有先打散的話,你後面再做 shuffle 時,如果...
前言:Hi 我是Jason Kuan,這是我第二次參加鐵人賽,兩年前決定轉職機器學習工程師後,就選擇了tensorflow 作為專精的工具,這幾年機器學習特夯,...
Colab連結 昨天探討了 Batch size 的問題和前天的 Warm-up 問題後,其實在我心中還是有個好奇的問題,也就是 Batch size 和 Le...
今天來認識一下tensorflow的code怎麼寫,跟著練習題走一遍~參考網站1參考網站2 Tensorflow流程圖 首先先創建一條線y=0.1x+0.3的...
這次要介紹的是另一個比較偏向 Dataset 的主題,當你用 tensorflow 久了,你可能就會發現 tensorflow 就像一把瑞士刀,除了最主要的訓練...
參考網站1李宏毅教授視頻對Gradient descent也有詳盡解說真心推薦這一系列 看完了李教授大神的視頻後,理解Gradient descent是如何找...
前言 「指月錄」卷二十八有道: 「見山是山,見水是水;見山不是山,見水不是水;見山仍是山,見水仍是水。」 這乃是學習深度學習時三種不同的境界,從只看表面、看...
昨天花費了不少時間談了 batch_normalization,今天來介紹 dropout 在 tensorflow 中的實作,drop 其實比 batch_n...
今天要介紹的是我們優化模型的第一步:processing 欲處理的部份,在原先的訓練中,我們把圖片預處理這一塊放到 Dataset API 去做,因此每次要做推...
Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...
Colab連結 Warm-up 訓練是由這篇 Paper 提出的一種方法,主要的想法是提供模型在正式訓練前,做一個類似暖機的動作,由於模型在初始狀態時,過高的學...
Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...
既然 dropout 已經被去除了,接下來我們把目標瞄準到 batch normalization 優化吧,那該優化什麼呢?我們先來看看 batch norma...