你有沒有曾經覺得深度學習模型就像一座高牆難以下手?打開經典論文,裡面的數學推導和公式讓人一頭霧水;去看開源程式碼,卻又覺得太抽象難懂。
其實一切都可以從最簡單的數學公式 Wx+b 開始。因此在這 30 天的學習旅程裡,我會陪你從最基礎的線性層(nn.Linear)出發,帶你一步一步拼湊出神經網路的核心積木。我們會一起動手實作多層感知機(MLP)、卷積網路(CNN)、循環網路(RNN)等熱門架構,最後一路走到 Transformer 與 LLM(大型語言模型),掌握當前最創新的技術。
這不會只是一堂滿滿理論的文章,而是一場邊學邊做的冒險。
前言 身為一個重度拖延症患者,每年參賽前我都立志要先屯好稿再開賽,但結果總是拖到最後一刻一字未動。今年是我第四次參賽,本以為狀況會跟以往一樣,不過這次卻完全不同...
前言 在開始學習之前,我們需要先理解一個最基本的概念,再複雜的模型,本質上都可以用 WX + b 來表示。這個公式是人工智慧中最基礎的基礎,但往往在任何一門 A...
前言 在學習深度學習模型的時候,很多同學常常會有一個疑問,模型是怎麼一步一步變得「更聰明」的呢?其實模型的進步並不是一次到位,而是透過不斷修正與調整來完成的。就...
前言 在我們昨天的做法中其實是後續的改良方法,因為單層感知器並不是透過損失函數與梯度下降來更新權重,而是依照感知器學習規則 (Perceptron Learni...