iT邦幫忙

colab相關文章
共有 41 則文章

技術 如何在Google Colab和Replit中請AI解說Python程式碼及相關天文觀念?

我寫的書《資料視覺化:用Python為星空作畫》有提到Google Colab和Replit這兩個線上程式編輯平台,但沒有提到它們其實可以用AI解說程式碼,所以...

技術 在 Colab 上無痛產出 llama.cpp gguf 量化模型

llama.cpp 是個相當受歡迎的語言模型推論框架,但一些相關的環境配置、編譯手法稍微困難一點,若不是有點技術底,一開始玩起來是頗痛苦。 好在後來作者都會定期...

鐵人賽 SideProject30 DAY 18

技術 #17 用 Colab 打造你的雲端機器學習運算平台 (2/2)

昨天我們實驗完了使用 colab 設定 openai 的 whisper,今天就要開始設定一整套的流程。 Flow 我們的流程將分為兩個部分: 爬蟲部分:從...

鐵人賽 SideProject30 DAY 17

技術 #16 用 Colab 打造你的雲端機器學習運算平台 (1/2)

在這個數位資訊爆發的時代,誰能掌握資訊,就如同在淘金潮中掌握金礦的勝利者一般,在這數位巨山中挖出有價值的資料。 在目前的聲音應用浪潮中,有能力將將聲音數據轉換...

鐵人賽 自我挑戰組 DAY 4

技術 Day 4 - NLP 相關開發環境與設定

這裡介紹的開發環境都是我自己有試過的。 由於是要訓練自然語言處理的模型,這會蠻耗時的,因此如果電腦有GPU是最好的,如果沒有的話沒關係大家可以使用我等等介紹的雲...

技術 Colab

我想請問下下面這行程式的意思老師上課時講到了一行程式predict=mode1.predict_classes(x_test)然後他對其的解釋是「這個指令是把所...

鐵人賽 AI & Data DAY 26

技術 【Day 26】客製化 YOLOv5 模型 (五):Colab 訓練 YOLOv5 模型

今天將使用「Google Colab」來訓練我們的模型,關於 Colab 的功能在此就不多做贅述了。我們使用的程式碼是由官方提供的 YOLOv5 Colab 程...

鐵人賽 AI & Data DAY 18

技術 【Day 18】Hello AI World (四):用 Colab 訓練植物分類模型

以 Jetson Nano 的邊緣裝置的定位,適合拿來做神經網路推論,並不適合(也不合理)跑神經網路訓練,即使可以跑也是會等到天荒地老。既然如此,拿 googl...

鐵人賽 AI & Data DAY 30

技術 【30】使用混合精度(Mixed precision) 對訓練產生的影響

Colab連結 一般我們在做機器學習任務時,在模型裡計算的資料型態採用的是 float32 (即佔用32的bits或4個bytes),而 Nvidia 與 Ba...

鐵人賽 AI & Data DAY 29

技術 【29】遇到不平衡資料(Imbalanced Data) 時 使用 SMOTE 解決實驗

Colab連結 今天要介紹處理不平衡資料的方法叫 SMOTE (Synthetic Minority Oversampling Technique),其原理就是...

鐵人賽 AI & Data DAY 28

技術 【28】遇到不平衡資料(Imbalanced Data) 時 使用 Oversampling 解決實驗

Colab連結 昨天我們使用了降低多數樣本 Undersampling 的方式來解決少數樣本的問題,今天我們要用複製少數樣本 Oversampling 方式來實...

鐵人賽 AI & Data DAY 27

技術 【27】遇到不平衡資料(Imbalanced Data) 時 使用 Undersampling 解決實驗

Colab連結 不平衡資料集(Imbalanced Dataset) 指的是當你的資料集中,有某部分的 label 是極少數的狀況,在這種狀況下,若單純只用準確...

鐵人賽 AI & Data DAY 26

技術 【26】你都把 Batch Normalization 放在 ReLU 前面還是後面

Colab連結 Batch Normalization 到底要放在激勵函數之前還是之後呢?這是之前我在自己練習規劃架構時遇到的問題,我把這個問題拿去網路上查時,...

鐵人賽 AI & Data DAY 25

技術 【25】ReLU 家族評比 個別使用ReLU LeakyReLU PReLU SELU 來訓練

Colab連結 今天要來實驗不同的 ReLU 家族的評比,挑戰者有 基本 ReLU 尾巴翹起來的 Leaky ReLU 帶有參數控制尾巴的 PReLU 比較新...

鐵人賽 AI & Data DAY 24

技術 【24】如果把 Dropout 放在 CNN 之後會發生什麼事

Colab連結 不知道大家有沒有發現,目前現在主流的網路結構中已經愈來愈少看到 Dropout 了,在早期 VGG 還當紅時,Dropout 在 Dense L...

鐵人賽 AI & Data DAY 23

技術 【23】Batch Normalization 使得 Regularizers 無效化?談談這兩者的交互影響

Colab連結 昨天我們探討了 L1 與 L2 Regularizers 的問題,但其實啊,Regularizers 還有一個和 Batch Normaliza...

鐵人賽 AI & Data DAY 22

技術 【22】正規化方法 L1 與 L2 Regularizers 的比較實驗

Colab連結 正規化 (Regularizers) 是在 Loss Function 中,多加一項權重的懲罰,目的是規範模型在學習過程中,避免權重值過大,達到...

鐵人賽 AI & Data DAY 21

技術 【21】不同的模型權重初始化 (Weight Initialization) 對應的使用方式

Colab連結 有關權重如何初始化也是個各派不同的訓練方法,從 tf.keras 官方文檔就看到一大堆的初始化方式,對於開始接觸的人來說,還真是頭痛。 我們知道...

鐵人賽 AI & Data DAY 20

技術 【20】從頭自己建一個 keras 內建模型 (以 MobileNetV2 為例)

Colab連結 雖然 Tensorflow 提供了幾個預訓練模型讓我們可以很快的完成訓練任務,但是有時候想做一需實驗時(比如說微調 mobilenet 的 CN...

鐵人賽 AI & Data DAY 19

技術 NNI如何搬到雲端上玩?

截至目前為止,NNI也安裝了,model也會了。可是,就是沒有錢買一張繪圖卡,到cuda device去飆速訓練。沒關係,雲端上有兩位大神,可以免費讓您遨遊,享...

鐵人賽 AI & Data DAY 19

技術 【19】使用 Pooling 和 Conv 來把圖片變小 (subsampling) 的比較實驗

Colab連結 早期剛學深度學習時,我們 AlexNet 學到了幾個基本的 CNN, Dense, Pooling, Dropout Layers,其中 Poo...

鐵人賽 AI & Data DAY 18

技術 【18】GlobalAveragePooling 與 Flatten 的差異與比較

Colab連結 今天要探討的主題在模型從CNN Layer 轉變成 Dense Layer 時,使用 GlobalAveragePooling (GAP) 與...

鐵人賽 AI & Data DAY 17

技術 【17】訓練到一半遇到 nan 嗎? 梯度爆炸與梯度消失的測試實驗

Colab連結 今天大家介紹 Gradient Exploding (梯度爆炸) 與 Gradient Vanishing (梯度消失),並會簡單做個實驗觸發這...

鐵人賽 AI & Data DAY 16

技術 【16】如果把圖片從RGB轉成HSV和灰階再拿去訓練會怎樣

colab連結 普遍我們拿來訓練的圖片都是RGB,普遍都是機器學習的CNN層找到一些局部特徵來做分類,這些局部特徵對我們人來說,即使是轉成視覺化的特徵值,依然是...

鐵人賽 AI & Data DAY 15

技術 【15】圖片標準化 [0,1] 與 [-1,+1] 的差別實驗

Colab連結 昨天我們實驗了有無做 Normalization 的差異,但我在 stackoverflow 剛好看到一篇精彩的討論,主要爭論的點是我應該把圖片...

鐵人賽 AI & Data DAY 14

技術 【14】如果不做圖片標準化(Normalization)會怎麼樣

Colab連結 圖片標準化 Image Normalization 不做可以嗎?小實驗實測差別 一般我們在處理大部分的機器學習問題時,我們都會將輸入的資料特徵做...

鐵人賽 AI & Data DAY 13

技術 【13】模型套不套用資料增強 (Data Augmentation) 的比較實驗

Colab連結 資料增強(Data Augmentation),是一個當今天資料集樣本不多時,透過調整亮度、剪裁、角度等手法來增加多樣性的好方法,Tensorf...

鐵人賽 AI & Data DAY 12

技術 【12】新手容易忽略的 logit 與 loss 之間的搭配

Colab連結 通常在 model.compile() 時,我們要指定這個訓練應該要使用哪種 loss 來計算,前面幾天我們比較了各種 cross entrop...

鐵人賽 AI & Data DAY 11

技術 【11】二分類問題下 Binary Cross Entropy 的使用注意事項

Colab連結 接著昨天討論到的 Cross Entropy ,今天把重點放到了 BinaryCrossEntropy 上,顧名思義,之所以叫 Binary 就...

鐵人賽 AI & Data DAY 10

技術 【10】多分類問題下 Sparse Cross Entropy 與 Categorical Cross Entropy 的用法差異

Colab連結 要來討論今天主題前,先來複習一下什麼是交叉熵 Cross-Entropy ,我覺得這部影片介紹得很不錯,簡而言之,我們可以將交叉熵當作資訊的亂度...