iT邦幫忙

鐵人檔案

2019 iT 邦幫忙鐵人賽
回列表
AI & Data

機器學習模型圖書館:從傳統模型到深度學習 系列

在現今電腦的運算能力已經達到頂峰,一個圖靈完全的運算機器有與人類語言同等的表達能力。我們還追求什麼呢?我們追求的是更為細緻的生活、更為精準的預測,如此一來,建立預測模型成為了首要任務。本系列文章將會帶大家探索模型的世界,我們會從傳統的機器學習模型出發,說明模型中每個部件的關係,比較不同模型之間的差異,一路往深度學習模型邁進,你會看到模型不斷進化的歷程。

鐵人鍊成 | 共 31 篇文章 | 117 人訂閱 訂閱系列文 RSS系列文
DAY 20

21 Activation functions and ReLU

今天我們來談談 activation function 吧! 先談談線性轉換 談 activation function 之前先要談談線性轉換。 有上到比較後面...

2018-10-21 ‧ 由 杜岳華 分享
DAY 21

22 Convolutional encoder-decoder 架構

標題這不是一個專有名詞。 在電腦視覺的領域中有幾個有名的問題: 影像辨識(Image recognition) 物件辨識(Object detection)...

2018-10-22 ‧ 由 杜岳華 分享
DAY 22

23 Markov chain 及 HMM

上次我們講完在空間上,我們可以知道資料的區域性,並且利用 convolution 來萃取特徵。 這次我們來講時間,其實不一定要是"時間"序列...

2018-10-23 ‧ 由 杜岳華 分享
DAY 23

24 Recurrent neural network

接續上一篇。 Recurrent neural network 那大家所熟知的 RNN 是怎麼回事呢?我們把假設改了一下: 狀態都是 連續 的。 時間是離散的...

2018-10-24 ‧ 由 杜岳華 分享
DAY 24

25 Recurrent model 之死

當大家正在開心的用著 RNN 跟 LSTM 等等模型之時,就有人跳出來了。 不要再用 RNN 為基礎的模型了!! 就是這篇 The fall of RNN /...

2018-10-25 ‧ 由 杜岳華 分享
DAY 25

26 seq2seq model

前面有提到 seq2seq model,我們就從這邊開始。 Seq2seq model 他採用了 encoder-decoder 架構,這時候就要來點 pape...

2018-10-26 ‧ 由 杜岳華 分享
DAY 26

27 Attention model

繼 Seq2seq model 之後,真正可以做到 end-to-end 翻譯的,很多都是用了 attention model。 Attention model...

2018-10-27 ‧ 由 杜岳華 分享
DAY 27

28 Transformer

繼 Attention model 之後,由於 recurrent 架構的特性一直無法善用 GPU 的資源做加速。 這時 Google Brain 團隊就看到別...

2018-10-28 ‧ 由 杜岳華 分享
DAY 28

29 Autoregressive generative model

在前面的 Transformer 的文章中有提到了 auto-regressive 的特質。 在 When Recurrent Models Don't Nee...

2018-10-29 ‧ 由 杜岳華 分享
DAY 29

30 結語

原本是算到今天就會發完 30 天的文章了,不過系統似乎把第一天跟第二天的文章判定是第一天的了。 我記得我最早參加鐵人賽的時候,一次接受兩個挑戰,分別寫了 Jul...

2018-10-30 ‧ 由 杜岳華 分享