人類無法解決的問題,就丟給機器解決吧! ML是一個尋找函數的過程,通過訓練出來的模型,可以讓電腦執行極為複雜的任務,並且不需要人類輸入精確的指令。
本篇會從一個即將進入研究所的Web仔視角,帶領讀者一起入門,從ML的基礎觀念開始,深入淺出介紹原理與實作。
我們今天要來探討的是Deep Learning的架構設計,今天我們會通過學習CNN學到Network的架構要如何設計,以及基於什麽樣的考量來做出這樣的設計。 C...
上一篇我們學習了第一個Deep Learning的模型CNN,今天我們要探討的是當模型在訓練集(Training Set)或測試集(Testing Set)上無...
上一篇我們知道了一些在做深度學習時的小技巧,可以分成兩種情況:在training set上效果表現不好和在testing set上表現不好。我們知道說我們在tr...
昨天我們提到了Self-attention的input是什麽樣子,output應該又是什麽樣子。我們知道Self-attention是爲了解決比較複雜的inpu...
Self-Attention 的計算過程 我們已經知道如何計算兩個向量之間的關聯性 α,接下來我們要將其應用到 Self-Attention 模組中,來生成最終...
Multi-head Self-Attention 昨天我們學習到了Self-attention的技術,我們還説到今天會介紹Self-attention更進階一...
Transformer 是一種序列到序列 (Sequence-to-Sequence, Seq2Seq) 的模型, Sequence-to-Sequence 是...
我們昨天提到了 Transformer 的架構,我們知道 Transformer 是由 Encoder 和 Decoder 組成的,其中的 Encoder 我們...
昨天我們談到Decoder的運作方式,它與Encoder有許多相似之處:同樣需要進行Positional Encoding、Multi-Head Self-At...
經過三十天的努力,我們從零基礎開始,逐步了解了 Machine Learning 的全貌,並初步接觸了 Deep Learning。 在這個系列裏面,我們一開始...