Why CNN for Image? 我們在訓練Neural Network的時候,我們會期待在這個Network裡面的每一個Neuron就代表一個最基本的Cl...
昨天講完Convolution,接著今天要介紹的就是Max Pooling。 CNN - Max Pooling Max Pooling就是做Subsampli...
今天使用的toolkit是Keras,使用的資料集是MNIST的data,而Keras提供了自動下載MNIST data的function。 今天要實作一個最基...
我們知道監督式學習(Supervised Learning)就是有一堆Label好的訓練資料,而半監督式學習是我們有一組Label好的訓練資料,另外還有一組Un...
昨天提到了Generative Model以及Low-density Separation,今天就要繼續介紹其他半監督式學習的方式。 Smoothness As...
Transfer Learning的意思是,假設你現在有一些跟你的task沒有直接相關的data,那你能不能用這些沒有直接相關的data來幫助我們做什麼事。 舉...
昨天最後提到Target data和Source data都是labeled data的情況,今天我會繼續介紹完剩下三種。 首先是Target data是unl...
今天要介紹的是支援向量機(Support Vector Machine, SVM),它有兩個特色,而這兩個特色加起來,也就是Hinge Loss加上Kernel...
昨天講完Hinge Loss,今天要繼續介紹SVM的第二個特色:Kernel Method。 Dual Representation 我們實際找出來可以最小化L...
完賽心得 本來以為自己沒辦法完賽,卻在不知不覺中結束了這30天的挑戰,雖然一開始就覺得要在30天搞懂機器學習是不太可能的,但經過這30天我甚至連基礎都沒辦法學完...