iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

深度學習概念和應用(PyTorch) 系列

認識深度學習中會使用到的名詞,並實作一些模型訓練。第一次嘗試使用pytorch做模型訓練,試著在建立模型訓練過程中找出自己的方式去理解專有名詞。

鐵人鍊成 | 共 30 篇文章 | 4 人訂閱 訂閱系列文 RSS系列文
DAY 11

DAY11 損失函數、梯度下降

所謂模型訓練的損失是指預測和實際的差異,也就是統計上的殘差。在機器學習中損失函數其實有很多種,有我們常見的均方誤差(mean squared error) 交叉...

2023-09-26 ‧ 由 hlareinay 分享
DAY 12

DAY12 激活函數

激活函數是指能夠讓模型依照輸入資料而作出變動的函數,而激活函數對輸出做出限制,其中有限制輸出範圍和壓縮輸出範圍。在pytorch中限制輸出範圍可以使用toch....

2023-09-27 ‧ 由 hlareinay 分享
DAY 13

DAY13 過度訓練 torch.nn

什麼時候會出現過度訓練(overfitting)? 訓練資料過小 單一資料集訓練過久 模型過於複雜 雜訊過多 解決方式: 增加資料搜集 減少神經網路層數...

2023-09-28 ‧ 由 hlareinay 分享
DAY 14

DAY14 池化、填充、步長

池化層 Pooling Pooling layer也可以叫做max pooling,池化層所做的就是取出區域內的最大值,這種做法可以降低雜訊的干擾,因為在訓練過...

2023-09-29 ‧ 由 hlareinay 分享
DAY 15

DAY15常用的資料集(imageNet、cifar10、cifar100、mnist)

ImageNet 和大部分的公開資料集一樣,都起源於學術競賽,其中針對ImageNet的大型視覺挑戰賽ILSVRC從2010年成立就非常受歡迎,而這項競賽每年的...

2023-09-30 ‧ 由 hlareinay 分享
DAY 16

DAY16 降採樣downsampling、上採樣upsampling

降採樣downsampling 和池化的作用相似,可以依照對於圖片的期待做出改變,有很多種類可以分為平均、最大值和特定不長卷積等等。假設現在有一個4乘4的圖片,...

2023-10-01 ‧ 由 hlareinay 分享
DAY 17

DAY 17 模型訓練常見的參數

訓練週期Epoch 如果翻譯 Epoch的話會是時代,但我把它理解成的訓練一批次,也就是訓練集資料通過一次正向傳播和一次反向傳播。DAY13的時候有介紹過的過度...

2023-10-02 ‧ 由 hlareinay 分享
DAY 18

DAY18 實作 圖片

在還不會自己建模型的時候,今天先試著用已經訓練過的模型來做最基本的圖片辨識,會列出所有已經訓練過的模型,我用網路上薩摩耶的圖片(圖片來源:https://www...

2023-10-03 ‧ 由 hlareinay 分享
DAY 19

DAY19 初步學習深度學習模型、架構

分析影像的卷積層、DAY12的激活函數層和DAY14的池化層,這些之外我們還會有丟棄層(dropout layer)扁平層(flatten layer)以及全連...

2023-10-04 ‧ 由 hlareinay 分享
DAY 20

DAY20 以nn.module定義深度學習模型

函數式API在pytorch中,nn模組都有一個函數式的版本,存在torch.nn.functional之中,本身沒有參數的層可以換成函數式版本,像是池化和激活...

2023-10-05 ‧ 由 hlareinay 分享