認識深度學習中會使用到的名詞,並實作一些模型訓練。第一次嘗試使用pytorch做模型訓練,試著在建立模型訓練過程中找出自己的方式去理解專有名詞。
所謂模型訓練的損失是指預測和實際的差異,也就是統計上的殘差。在機器學習中損失函數其實有很多種,有我們常見的均方誤差(mean squared error) 交叉...
激活函數是指能夠讓模型依照輸入資料而作出變動的函數,而激活函數對輸出做出限制,其中有限制輸出範圍和壓縮輸出範圍。在pytorch中限制輸出範圍可以使用toch....
什麼時候會出現過度訓練(overfitting)? 訓練資料過小 單一資料集訓練過久 模型過於複雜 雜訊過多 解決方式: 增加資料搜集 減少神經網路層數...
池化層 Pooling Pooling layer也可以叫做max pooling,池化層所做的就是取出區域內的最大值,這種做法可以降低雜訊的干擾,因為在訓練過...
ImageNet 和大部分的公開資料集一樣,都起源於學術競賽,其中針對ImageNet的大型視覺挑戰賽ILSVRC從2010年成立就非常受歡迎,而這項競賽每年的...
降採樣downsampling 和池化的作用相似,可以依照對於圖片的期待做出改變,有很多種類可以分為平均、最大值和特定不長卷積等等。假設現在有一個4乘4的圖片,...
訓練週期Epoch 如果翻譯 Epoch的話會是時代,但我把它理解成的訓練一批次,也就是訓練集資料通過一次正向傳播和一次反向傳播。DAY13的時候有介紹過的過度...
在還不會自己建模型的時候,今天先試著用已經訓練過的模型來做最基本的圖片辨識,會列出所有已經訓練過的模型,我用網路上薩摩耶的圖片(圖片來源:https://www...
分析影像的卷積層、DAY12的激活函數層和DAY14的池化層,這些之外我們還會有丟棄層(dropout layer)扁平層(flatten layer)以及全連...
函數式API在pytorch中,nn模組都有一個函數式的版本,存在torch.nn.functional之中,本身沒有參數的層可以換成函數式版本,像是池化和激活...