iT邦幫忙

tensorflow相關文章
共有 246 則文章

技術 使用 TFX、Kubeflow pipeline和 Cloud Build 的 MLOps 架構

此篇主要講述如何使用TXF(TensorFlow Extended) library的ML整體架構,並且在CI/CD還有CT的原則下使用 Cloud Build...

技術 梯度下降法(10) -- 總結

TensorFlow官網首頁的範例只有短短的10多行,但是每一行指令及參數都內含許多玄機,雖然我們在前面已回答及實驗許多核心問題,但還是有一些疑問待探討,以下就...

技術 梯度下降法(9) -- 損失函數

個人認為,損失函數是神經網路最重要的核心,當我們定義好一個損失函數,梯度下降法就會想辦法最小化損失函數,求得最佳解,例如第五篇的聯立方程式,定義每個方程式的損失...

技術 梯度下降法(8) -- Activation Function

Activation Function是將線性迴歸轉換為非線性函數,使神經網路更具通用性(Generalization),類似Kernel PCA及Kernel...

技術 梯度下降法(7) -- 優化器(Optimizer)

上篇探討學習率的調整,接著討論優化器對模型訓練的影響。 優化器(Optimizer) 優化(Optimization)是以最小化損失函數為目標,尋找模型參數的最...

技術 梯度下降法(6) -- 動態調整學習率

魔鬼藏在細節裡,要讓模型訓練更快速、更準確,必須進一步掌握模型的超參數(Hyperparameters)設定,包括如何動態調整學習率、選用各種優化器、損失函數、...

技術 徹底理解神經網路的核心 -- 梯度下降法的應用 (5)

前四篇介紹梯度下降法,對神經網路求解,這次再舉幾個例子,幫助我們更靈活的應用梯度下降法,包括: 以自動微分實作手寫阿拉伯數字辨識,結合TensorFlow/K...

技術 徹底理解神經網路的核心 -- 梯度下降法 (4)

上一篇自行開發梯度下降法找到最佳解,這次我們使用TensorFlow低階API進行自動微分(Automatic Differentiation),並實作多元線性...

技術 徹底理解神經網路的核心 -- 梯度下降法 (3)

前兩篇梯度下降法的求解都隱藏在一行程式碼 model.fit 中,這次使用自行開發實作梯度下降法,以瞭解內部求解的邏輯。 梯度下降法的作法 梯度下降法是利用正向...

技術 徹底理解神經網路的核心 -- 梯度下降法 (2)

上一篇介紹神經網路的基本概念,這次透過簡單的範例理解梯度下降法的運作。 最簡單的神經網路 範例. 以神經網路建構攝氏與華氏溫度轉換的模型,我們收集7筆資料如下:...

技術 徹底理解神經網路的核心 -- 梯度下降法 (1)

神經網路(Neural Network)是深度學習的基石,不管是大語言模型(ChatGPT)或生成式AI(MidJourney、Stable Diffusion...

技術 Setup Mac for Machine Learning (Tensorflow)

Install Visual Studio Coderef: https://code.visualstudio.com1 Download and Insta...

技術 在Windows 11 使用autoKeras 並透過GPU加速 (內含不用另外下載檔案的tensorflow-gpu作法)

之所以寫這篇,是因為自己的linux系統是pop-os 22.04,tensorflow版本撞到翻(也有版本直接不支援這個OS...) 而也才發現Tensorf...

鐵人賽 AI & Data DAY 27

技術 機器學習 挑戰 - Day 6

續上一篇機器學習 挑戰 - Day 5,我們今天繼續詳細研究一下如何套用 tensorflow.keras.sequential 來預測BTC的價格。 我想嘗試...

鐵人賽 AI & Data DAY 26

技術 機器學習 挑戰 - Day 5

續上一篇機器學習 挑戰 - Day 4,我們今天繼續詳細研究一下如何套用 tensorflow.keras.sequential 來預測BTC的價格。 首先,我...

鐵人賽 AI & Data DAY 25

技術 機器學習 挑戰 - Day 4

續上一篇機器學習 挑戰 - Day 3,我們今天要詳細研究一下如何套用 tensorflow.keras.models的LSTM 來預測BTC的價格。 在應用t...

技術 RTX 30系顯卡 + TF 1.15

30系顯卡終於降價了,來回顧一下怎麼在30系甚至未來的40系的顯卡上繼續使用Tensorflow 1

技術 同時搞定TensorFlow、PyTorch (四):模型訓練

同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...

技術 同時搞定TensorFlow、PyTorch (三) :資料前置處理

同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...

技術 同時搞定TensorFlow、PyTorch (二) :模型定義

同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...

達標好文 技術 同時搞定TensorFlow、PyTorch (一) :梯度下降

同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...

鐵人賽 AI & Data DAY 30

技術 【30】使用混合精度(Mixed precision) 對訓練產生的影響

Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...

鐵人賽 AI & Data DAY 29

技術 【29】遇到不平衡資料(Imbalanced Data) 時 使用 SMOTE 解決實驗

Colab連結 今天要介紹處理不平衡資料的方法叫 SMOTE (Synthetic Minority Oversampling Technique),其原理就是...

鐵人賽 AI & Data DAY 28

技術 【28】遇到不平衡資料(Imbalanced Data) 時 使用 Oversampling 解決實驗

Colab連結 昨天我們使用了降低多數樣本 Undersampling 的方式來解決少數樣本的問題,今天我們要用複製少數樣本 Oversampling 方式來實...

鐵人賽 AI & Data DAY 27

技術 【27】遇到不平衡資料(Imbalanced Data) 時 使用 Undersampling 解決實驗

Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...

鐵人賽 AI & Data DAY 26

技術 【26】你都把 Batch Normalization 放在 ReLU 前面還是後面

Colab連結 Batch Normalization 到底要放在激勵函數之前還是之後呢?這是之前我在自己練習規劃架構時遇到的問題,我把這個問題拿去網路上查時,...

鐵人賽 AI & Data DAY 25

技術 【25】ReLU 家族評比 個別使用ReLU LeakyReLU PReLU SELU 來訓練

Colab連結 今天要來實驗不同的 ReLU 家族的評比,挑戰者有 基本 ReLU 尾巴翹起來的 Leaky ReLU 帶有參數控制尾巴的 PReLU 比較新...

鐵人賽 AI & Data DAY 24

技術 【24】如果把 Dropout 放在 CNN 之後會發生什麼事

Colab連結 不知道大家有沒有發現,目前現在主流的網路結構中已經愈來愈少看到 Dropout 了,在早期 VGG 還當紅時,Dropout 在 Dense L...

鐵人賽 AI & Data DAY 23

技術 【23】Batch Normalization 使得 Regularizers 無效化?談談這兩者的交互影響

Colab連結 昨天我們探討了 L1 與 L2 Regularizers 的問題,但其實啊,Regularizers 還有一個和 Batch Normaliza...

鐵人賽 AI & Data DAY 22

技術 【22】正規化方法 L1 與 L2 Regularizers 的比較實驗

Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...