Install Visual Studio Coderef: https://code.visualstudio.com1 Download and Insta...
之所以寫這篇,是因為自己的linux系統是pop-os 22.04,tensorflow版本撞到翻(也有版本直接不支援這個OS...) 而也才發現Tensorf...
續上一篇機器學習 挑戰 - Day 5,我們今天繼續詳細研究一下如何套用 tensorflow.keras.sequential 來預測BTC的價格。 我想嘗試...
續上一篇機器學習 挑戰 - Day 4,我們今天繼續詳細研究一下如何套用 tensorflow.keras.sequential 來預測BTC的價格。 首先,我...
續上一篇機器學習 挑戰 - Day 3,我們今天要詳細研究一下如何套用 tensorflow.keras.models的LSTM 來預測BTC的價格。 在應用t...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
同時搞定TensorFlow、PyTorch (一):梯度下降。 同時搞定TensorFlow、PyTorch (二):模型定義。 同時搞定Tensor...
Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...
Colab連結 今天要介紹處理不平衡資料的方法叫 SMOTE (Synthetic Minority Oversampling Technique),其原理就是...
Colab連結 昨天我們使用了降低多數樣本 Undersampling 的方式來解決少數樣本的問題,今天我們要用複製少數樣本 Oversampling 方式來實...
Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...
Colab連結 Batch Normalization 到底要放在激勵函數之前還是之後呢?這是之前我在自己練習規劃架構時遇到的問題,我把這個問題拿去網路上查時,...
Colab連結 今天要來實驗不同的 ReLU 家族的評比,挑戰者有 基本 ReLU 尾巴翹起來的 Leaky ReLU 帶有參數控制尾巴的 PReLU 比較新...
Colab連結 不知道大家有沒有發現,目前現在主流的網路結構中已經愈來愈少看到 Dropout 了,在早期 VGG 還當紅時,Dropout 在 Dense L...
Colab連結 昨天我們探討了 L1 與 L2 Regularizers 的問題,但其實啊,Regularizers 還有一個和 Batch Normaliza...
Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...
Colab連結 有關權重如何初始化也是個各派不同的訓練方法,從 tf.keras 官方文檔就看到一大堆的初始化方式,對於開始接觸的人來說,還真是頭痛。 我們知道...
Colab連結 雖然 Tensorflow 提供了幾個預訓練模型讓我們可以很快的完成訓練任務,但是有時候想做一需實驗時(比如說微調 mobilenet 的 CN...
-1. Google store link 這七天做的app上架囉! 歡迎下載https://play.google.com/store/apps/detail...
前言 有了App介面和tflite model with metadata之後,App的核心功能!靈魂!終於要被我實現了! 影像辨識程式碼實作 載入深度學習...
Colab連結 早期剛學深度學習時,我們 AlexNet 學到了幾個基本的 CNN, Dense, Pooling, Dropout Layers,其中 Poo...
0. 前言 距離真正完成表情辨識的App,只差把辨識圖像的功能實作出來,在這裡我們必須將Day21存好的TFLite模型拿出來,製作出含有metadata的TF...
Colab連結 今天要探討的主題在模型從CNN Layer 轉變成 Dense Layer 時,使用 GlobalAveragePooling (GAP) 與...
Colab連結 今天大家介紹 Gradient Exploding (梯度爆炸) 與 Gradient Vanishing (梯度消失),並會簡單做個實驗觸發這...
前言 注意力機制讓預測目標單詞之前比較其與所有來源單詞(在翻譯任務中精確地來說是詞向量)之間的語意關聯性來提高翻譯的準確度。今天就讓我們來快速回顧注意力機制的原...
colab連結 普遍我們拿來訓練的圖片都是RGB,普遍都是機器學習的CNN層找到一些局部特徵來做分類,這些局部特徵對我們人來說,即使是轉成視覺化的特徵值,依然是...
Colab連結 昨天我們實驗了有無做 Normalization 的差異,但我在 stackoverflow 剛好看到一篇精彩的討論,主要爭論的點是我應該把圖片...