iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
AI & Data

零基礎 AI 入門!從 Wx+b 到熱門模型的完整之路! 系列

你有沒有曾經覺得深度學習模型就像一座高牆難以下手?打開經典論文,裡面的數學推導和公式讓人一頭霧水;去看開源程式碼,卻又覺得太抽象難懂。

其實一切都可以從最簡單的數學公式 Wx+b 開始。因此在這 30 天的學習旅程裡,我會陪你從最基礎的線性層(nn.Linear)出發,帶你一步一步拼湊出神經網路的核心積木。我們會一起動手實作多層感知機(MLP)、卷積網路(CNN)、循環網路(RNN)等熱門架構,最後一路走到 Transformer 與 LLM(大型語言模型),掌握當前最創新的技術。

這不會只是一堂滿滿理論的文章,而是一場邊學邊做的冒險。

參賽天數 4 天 | 共 4 篇文章 | 1 人訂閱 訂閱系列文 RSS系列文
DAY 1

【Day 1】在2025年的現在我們該怎麼學習AI呢?

前言 身為一個重度拖延症患者,每年參賽前我都立志要先屯好稿再開賽,但結果總是拖到最後一刻一字未動。今年是我第四次參賽,本以為狀況會跟以往一樣,不過這次卻完全不同...

2025-09-15 ‧ 由 austin70915 分享
DAY 2

【Day 2】前向傳播?單層感知器?WX+b究竟是什麼?

前言 在開始學習之前,我們需要先理解一個最基本的概念,再複雜的模型,本質上都可以用 WX + b 來表示。這個公式是人工智慧中最基礎的基礎,但往往在任何一門 A...

2025-09-16 ‧ 由 austin70915 分享
DAY 3

【Day 3】如何找到模型的最佳解?

前言 在學習深度學習模型的時候,很多同學常常會有一個疑問,模型是怎麼一步一步變得「更聰明」的呢?其實模型的進步並不是一次到位,而是透過不斷修正與調整來完成的。就...

2025-09-17 ‧ 由 austin70915 分享
DAY 4

【Day 4】不可微或梯度為零的函數為何無法在深度學習網路中做使用?

前言 在我們昨天的做法中其實是後續的改良方法,因為單層感知器並不是透過損失函數與梯度下降來更新權重,而是依照感知器學習規則 (Perceptron Learni...

2025-09-18 ‧ 由 austin70915 分享