在現今電腦的運算能力已經達到頂峰,一個圖靈完全的運算機器有與人類語言同等的表達能力。我們還追求什麼呢?我們追求的是更為細緻的生活、更為精準的預測,如此一來,建立預測模型成為了首要任務。本系列文章將會帶大家探索模型的世界,我們會從傳統的機器學習模型出發,說明模型中每個部件的關係,比較不同模型之間的差異,一路往深度學習模型邁進,你會看到模型不斷進化的歷程。
今天我們來談談 activation function 吧! 先談談線性轉換 談 activation function 之前先要談談線性轉換。 有上到比較後面...
標題這不是一個專有名詞。 在電腦視覺的領域中有幾個有名的問題: 影像辨識(Image recognition) 物件辨識(Object detection)...
上次我們講完在空間上,我們可以知道資料的區域性,並且利用 convolution 來萃取特徵。 這次我們來講時間,其實不一定要是"時間"序列...
接續上一篇。 Recurrent neural network 那大家所熟知的 RNN 是怎麼回事呢?我們把假設改了一下: 狀態都是 連續 的。 時間是離散的...
當大家正在開心的用著 RNN 跟 LSTM 等等模型之時,就有人跳出來了。 不要再用 RNN 為基礎的模型了!! 就是這篇 The fall of RNN /...
前面有提到 seq2seq model,我們就從這邊開始。 Seq2seq model 他採用了 encoder-decoder 架構,這時候就要來點 pape...
繼 Seq2seq model 之後,真正可以做到 end-to-end 翻譯的,很多都是用了 attention model。 Attention model...
繼 Attention model 之後,由於 recurrent 架構的特性一直無法善用 GPU 的資源做加速。 這時 Google Brain 團隊就看到別...
在前面的 Transformer 的文章中有提到了 auto-regressive 的特質。 在 When Recurrent Models Don't Nee...