此篇主要講述如何使用TXF(TensorFlow Extended) library的ML整體架構,並且在CI/CD還有CT的原則下使用 Cloud Build...
TensorFlow官網首頁的範例只有短短的10多行,但是每一行指令及參數都內含許多玄機,雖然我們在前面已回答及實驗許多核心問題,但還是有一些疑問待探討,以下就...
個人認為,損失函數是神經網路最重要的核心,當我們定義好一個損失函數,梯度下降法就會想辦法最小化損失函數,求得最佳解,例如第五篇的聯立方程式,定義每個方程式的損失...
Activation Function是將線性迴歸轉換為非線性函數,使神經網路更具通用性(Generalization),類似Kernel PCA及Kernel...
上篇探討學習率的調整,接著討論優化器對模型訓練的影響。 優化器(Optimizer) 優化(Optimization)是以最小化損失函數為目標,尋找模型參數的最...
魔鬼藏在細節裡,要讓模型訓練更快速、更準確,必須進一步掌握模型的超參數(Hyperparameters)設定,包括如何動態調整學習率、選用各種優化器、損失函數、...
前四篇介紹梯度下降法,對神經網路求解,這次再舉幾個例子,幫助我們更靈活的應用梯度下降法,包括: 以自動微分實作手寫阿拉伯數字辨識,結合TensorFlow/K...
上一篇自行開發梯度下降法找到最佳解,這次我們使用TensorFlow低階API進行自動微分(Automatic Differentiation),並實作多元線性...
前兩篇梯度下降法的求解都隱藏在一行程式碼 model.fit 中,這次使用自行開發實作梯度下降法,以瞭解內部求解的邏輯。 梯度下降法的作法 梯度下降法是利用正向...
上一篇介紹神經網路的基本概念,這次透過簡單的範例理解梯度下降法的運作。 最簡單的神經網路 範例. 以神經網路建構攝氏與華氏溫度轉換的模型,我們收集7筆資料如下:...
神經網路(Neural Network)是深度學習的基石,不管是大語言模型(ChatGPT)或生成式AI(MidJourney、Stable Diffusion...
Install Visual Studio Coderef: https://code.visualstudio.com1 Download and Insta...
之所以寫這篇,是因為自己的linux系統是pop-os 22.04,tensorflow版本撞到翻(也有版本直接不支援這個OS...) 而也才發現Tensorf...
續上一篇機器學習 挑戰 - Day 5,我們今天繼續詳細研究一下如何套用 tensorflow.keras.sequential 來預測BTC的價格。 我想嘗試...
續上一篇機器學習 挑戰 - Day 4,我們今天繼續詳細研究一下如何套用 tensorflow.keras.sequential 來預測BTC的價格。 首先,我...
續上一篇機器學習 挑戰 - Day 3,我們今天要詳細研究一下如何套用 tensorflow.keras.models的LSTM 來預測BTC的價格。 在應用t...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...
Colab連結 今天要介紹處理不平衡資料的方法叫 SMOTE (Synthetic Minority Oversampling Technique),其原理就是...
Colab連結 昨天我們使用了降低多數樣本 Undersampling 的方式來解決少數樣本的問題,今天我們要用複製少數樣本 Oversampling 方式來實...
Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...
Colab連結 Batch Normalization 到底要放在激勵函數之前還是之後呢?這是之前我在自己練習規劃架構時遇到的問題,我把這個問題拿去網路上查時,...
Colab連結 今天要來實驗不同的 ReLU 家族的評比,挑戰者有 基本 ReLU 尾巴翹起來的 Leaky ReLU 帶有參數控制尾巴的 PReLU 比較新...
Colab連結 不知道大家有沒有發現,目前現在主流的網路結構中已經愈來愈少看到 Dropout 了,在早期 VGG 還當紅時,Dropout 在 Dense L...
Colab連結 昨天我們探討了 L1 與 L2 Regularizers 的問題,但其實啊,Regularizers 還有一個和 Batch Normaliza...
Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...