iT邦幫忙

tensorflow相關文章
共有 240 則文章
鐵人賽 自我挑戰組 DAY 15
Machine Learning 學習筆記 系列 第 15

技術 [第十五天] Tensorflow 淺介

現在終於要來學最近最火紅的tensorflow,這邊參考莫凡的教學網站來學習,基本上tensorflow就是google為python做的套件~ 首先先來看一下...

技術 【09】從 tensorboard 來觀察:batch_normalization 和 dropout 的建模篇

Batch Normalization 與 Dropout 是兩個預防模型過擬合的方法,雖然在訓練時,只要簡單幾行就能將之裝上去,但我這次想介紹的是以更深入細節...

鐵人賽 AI & Data DAY 9

技術 Day 09:再探TensorBoard

前言 上一篇簡單介紹 TensorBoard 的功能,並且測試以下功能: 追蹤損失和準確率等效能衡量指標(Metrics)。 將圖片寫入 Log。 這次,我...

鐵人賽 Big Data DAY 7

技術 OpenSoure自動駕駛車Self-Driving Car實做專案之一:Udacity開放課程,有錢繳學費還不一定能參加;跟Nvidia、Google、雙B工程師實作,堪稱真正精實鐵人

人家一般宅宅玩美少女養成,我們宅宅2.0當然要煉不一樣的養成道路,挑戰真正的玩意兒能去接送你心中的女神(如果她願意上車...我是說真的改裝車嘿) 像這樣,今年的...

鐵人賽 AI & Data DAY 21
從 AI 落地談 MLOps 系列 第 21

技術 Day 21 : 模型優化 - 剪枝 Pruning

如果說可以讓模型縮小10倍,精度還維持水準,這是什麼巫術? 延續 Day 20 的模型優化作法,本次再結合剪枝技術做到更輕量的模型效果。 什麼是剪枝 Pru...

鐵人賽 AI & Data DAY 2

技術 【2】學習率大小的影響與學習率衰減(Learning rate decay)

Colab連結 大家應該聽到爛了,學習率(Learning rate)指的是模型每做完一次 back propagation 後產生的 gradient 再乘上...

鐵人賽 AI & Data DAY 19
從 AI 落地談 MLOps 系列 第 19

技術 Day 19 : 深度學習(神經網絡)自動建模術 - AutoMLs

隨著 ML/DL 模型研究屢有突破,現今模型訓練成果已經相當具有水準,但如果需要藉由手動選擇最佳的模型確實較花時間,因此已經出現取多自動化機械學習 AutoM...

鐵人賽 Big Data DAY 7

技術 OpenSoure自動駕駛車Self-Driving Car實做專案之一:Udacity開放課程,有錢繳學費還不一定能參加;跟Nvidia、Google、雙B工程師實作,堪稱真正精實鐵人

(!!! 這篇是重複了,請參見同日前一篇為準。這篇是因前一篇發文送出後,發生頁面重新導向錯誤且無回應,再重新按發文送出而重複。現在不知能不能刪、刪了會不會變成喪...

鐵人賽 AI & Data DAY 1

技術 【1】做不做遷移式學習(Transfer Learning)的差異

關於: 本系列文將借用 Google 提供的 Colab 平台,在上面執行 30 個影像分類訓練任務,每個主題都會探討在不同的狀況或不同的超參數對於同一個任務會...

鐵人賽 AI & Data DAY 27

技術 【27】遇到不平衡資料(Imbalanced Data) 時 使用 Undersampling 解決實驗

Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...

鐵人賽 AI & Data DAY 21

技術 【21】不同的模型權重初始化 (Weight Initialization) 對應的使用方式

Colab連結 有關權重如何初始化也是個各派不同的訓練方法,從 tf.keras 官方文檔就看到一大堆的初始化方式,對於開始接觸的人來說,還真是頭痛。 我們知道...

鐵人賽 自我挑戰組 DAY 21
Machine Learning 學習筆記 系列 第 21

技術 [第21天] Tensorflow練習4

今天依然來用莫凡python教學網站來學習,跟著流程做一遍~ 把先前的例題用tensorflow的結構重寫一遍,code的下載位置 from __future_...

技術 【22】tensorflow 訓練技巧觀念混合運用篇

前面幾天已經介紹了不少和訓練有關的技巧啦,今天則是會來個大雜燴,把所有技巧全部串接起來做出一個訓練模型的流程,算是總複習! 但在訓練之前,當然先要有資料集啦,大...

鐵人賽 AI & Data DAY 29

技術 Day 29:深究強化學習

前言 前一篇介紹了強化學習初步的概念,並且採隨機策略測試一下,隨機等於沒有策略,這次我們實際擬定一些策略,說明強化學習的真正作法。之後再介紹各種演算法的進化及其...

鐵人賽 AI & Data DAY 30
當自動駕駛遇見AI 系列 第 30

技術 Day30-當自動駕駛遇見AI- 最大池化器( MaxPooling)

前言 本篇文章說明TensorFlow-最大池化器( MaxPooling)之原理 說明 如下圖,用一個 2x2 的矩陣來掃過輸入 (stride = 2),然...

鐵人賽 AI & Data DAY 14

技術 【14】如果不做圖片標準化(Normalization)會怎麼樣

Colab連結 圖片標準化 Image Normalization 不做可以嗎?小實驗實測差別 一般我們在處理大部分的機器學習問題時,我們都會將輸入的資料特徵做...

技術 【16】tensorflow 訓練技巧:用 piecewise_constant 達成可變動 learning rate 篇

今天要介紹的是 tensorflow 中的 piecewise_constant 功能,但在介紹之前,先來介紹 global step ,global step...

鐵人賽 AI & Data DAY 8

技術 【8】資料集有沒有事先 shuffle 對訓練所產生的影響

Colab連結 昨天我們介紹了 Shuffle 這支 API 的使用方式,其中特別提到了如果今天資料集本身沒有先打散的話,你後面再做 shuffle 時,如果...

技術 【01】前言、先備技能需求以及環境介紹

前言:Hi 我是Jason Kuan,這是我第二次參加鐵人賽,兩年前決定轉職機器學習工程師後,就選擇了tensorflow 作為專精的工具,這幾年機器學習特夯,...

鐵人賽 AI & Data DAY 5

技術 【5】超參數 Batch size 與 Learning rate 的關係實驗

Colab連結 昨天探討了 Batch size 的問題和前天的 Warm-up 問題後,其實在我心中還是有個好奇的問題,也就是 Batch size 和 Le...

鐵人賽 自我挑戰組 DAY 18
Machine Learning 學習筆記 系列 第 18

技術 [第十八天] Tensorflow 練習1

今天來認識一下tensorflow的code怎麼寫,跟著練習題走一遍~參考網站1參考網站2 Tensorflow流程圖 首先先創建一條線y=0.1x+0.3的...

技術 【12】tensorflow 資料集應用:製作 tfrecord 篇

這次要介紹的是另一個比較偏向 Dataset 的主題,當你用 tensorflow 久了,你可能就會發現 tensorflow 就像一把瑞士刀,除了最主要的訓練...

鐵人賽 自我挑戰組 DAY 17
Machine Learning 學習筆記 系列 第 17

技術 [第十七天] Gradient descent

參考網站1李宏毅教授視頻對Gradient descent也有詳盡解說真心推薦這一系列 看完了李教授大神的視頻後,理解Gradient descent是如何找...

鐵人賽 AI & Data DAY 6

技術 [Day 06] 特徵圖想讓人分群 ~模型們的遷移學習戰~ 第一季 (遷移學習)

前言 「指月錄」卷二十八有道: 「見山是山,見水是水;見山不是山,見水不是水;見山仍是山,見水仍是水。」 這乃是學習深度學習時三種不同的境界,從只看表面、看...

技術 【11】從 tensorboard 來觀察:dropout 原理篇

昨天花費了不少時間談了 batch_normalization,今天來介紹 dropout 在 tensorflow 中的實作,drop 其實比 batch_n...

技術 【24】tensorflow 模型優化手術:把一般輸入改成 pre processing 輸入篇

今天要介紹的是我們優化模型的第一步:processing 欲處理的部份,在原先的訓練中,我們把圖片預處理這一塊放到 Dataset API 去做,因此每次要做推...

鐵人賽 AI & Data DAY 30

技術 【30】使用混合精度(Mixed precision) 對訓練產生的影響

Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...

鐵人賽 AI & Data DAY 3

技術 【3】訓練前先暖身 - 學習率 Warm-up 策略

Colab連結 Warm-up 訓練是由這篇 Paper 提出的一種方法,主要的想法是提供模型在正式訓練前,做一個類似暖機的動作,由於模型在初始狀態時,過高的學...

鐵人賽 AI & Data DAY 22

技術 【22】正規化方法 L1 與 L2 Regularizers 的比較實驗

Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...

技術 【27】tensorflow 模型優化手術:除去冗贅的 Merge、Switch 運算節點,模型再剪枝篇

既然 dropout 已經被去除了,接下來我們把目標瞄準到 batch normalization 優化吧,那該優化什麼呢?我們先來看看 batch norma...