希望透過30篇的文章,一一介紹Machine Learning與軟體工程相關的議題與做法,順便幫助自己做複習與學習新知。
SVM-分分分 今天我們要來介紹SVM(Support Vector Machine)。 線性可分 假設現在我們要分類圓形還有正方形,那麼以這個例子來說,可以用...
Loss function到底損失了甚麼? 今天我們要來介紹一下,Loss function是做甚麼用的,並簡單介紹一些常用的分類Loss function。...
回歸用Loss function 昨天我們看了分類用的Loss function,今天我們要來介紹回歸用的Loss function。 Mean Square...
Optimizer大亂鬥 今天我們要來介紹一下,Optimizer是做甚麼用的,並簡單介紹一些常用的Optimizer。 Optimizer的作用 簡單來說,O...
Activation function之兄弟大戰 今天要來介紹一些常見的activation function,先從Relu三兄弟開始。 為什麼要Activat...
Activation function之群雄亂舞 今天要來繼續介紹Activation function。那麼廢話不多說,就直接開始吧! Activation...
CapsNet-好用的膠囊在CNN 今天我們要介紹一個很強的技術,CapsNet。 為什麼需要CapsNet? 在傳統的CNN中,在許多種情況已經能得到很好的辨...
CapsNet如何實現 今天我們要實作CapsNet,並與第三天的結果比較。傳送門 回顧 資料集使用fashion_mnist,為Keras內建的資料集。訓練集...
ResNet-從旁邊來囉 今天我們要介紹另一種的CNN,Residual Network。 深度CNN 為了取得更多或更深層的特徵,我們會採用越來越多層的CNN...
ResNet如何實現 今天我們要來實作ResNet,並比較加入ResNet後,是否正確率有提升。 前置作業 我們使用Colab來當作我們的實作平台,並使用Ker...