iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
AI & Data

30 天入門常見的機器學習演算法 系列

本系列會以每日一模型的節奏,介紹 30 個經典機器學習與深度學習演算法,聚焦在「模型的邏輯」、「適用時機」與「Python 實作」。每篇文章都包含清晰的概念解析與 Python 實作,從機器學習的演算法出發,一步步走到深度學習,系統性養成模型的直覺與選擇判斷力,來奠定機器學習基礎。

鐵人鍊成 | 共 30 篇文章 | 14 人訂閱 訂閱系列文 RSS系列文
DAY 21

(Day 21) 卷積神經網絡 (Convolutional Neural Network)

在初步暸解全連接神經網絡 (Fully Connected Neural Network) 後,接下來必須介紹的經典架構就是卷積神經網絡 (Convolutio...

2025-08-21 ‧ 由 Alan Hsieh 分享
DAY 22

(Day 22) 深度學習中的正規化與正則化 (Regularization in Deep Learning)

在前幾天的文章裡,我們已經從線性迴歸、邏輯迴歸一路走到 CNN (卷積神經網路),逐步體驗了機器學習與深度學習的不同。到了深度學習階段,模型的複雜度往往大幅增加...

2025-08-22 ‧ 由 Alan Hsieh 分享
DAY 23

(Day 23) 深度學習中的優化方法 (Optimization in Deep Learning)

在前一篇,我們談到了深度學習中的正規化與正則化,重點在於如何避免過擬合並保持訓練穩定。然而,光是解決過擬合還不夠:在龐大的神經網路裡,我們還得面對另一個關鍵問題...

2025-08-23 ‧ 由 Alan Hsieh 分享
DAY 24

(Day 24) Adam 優化器 (Adaptive Moment Estimation)

在前一天,我們整理了深度學習中常見的優化方法,從最基本的隨機梯度下降 (SGD),到 Momentum、RMSProp、Adagrad 等。今天我們要深入介紹其...

2025-08-24 ‧ 由 Alan Hsieh 分享
DAY 25

(Day 25) 循環神經網路 (Recurrent Neural Network)

在前面幾天,我們介紹了全連接神經網路 (FCNN) 與卷積神經網路 (CNN)。這些架構在處理結構化數據或影像資料上非常成功,但若應用到「序列資料」時就顯得不足...

2025-08-25 ‧ 由 Alan Hsieh 分享
DAY 26

(Day 26) 長短期記憶網路 (Long Short-Term Memory)

在前一篇,我們介紹了循環神經網路 (RNN),並指出了它在處理序列資料時的強大之處:透過「隱藏狀態」將前後資訊連結起來。然而,我們同時也看到了 RNN 的最大瓶...

2025-08-26 ‧ 由 Alan Hsieh 分享
DAY 27

(Day 27) 閘控循環單元 (Gated Recurrent Unit)

在前兩篇文章,我們分別介紹了 RNN (Recurrent Neural Network) 與 LSTM (Long Short-Term Memory)。RN...

2025-08-27 ‧ 由 Alan Hsieh 分享
DAY 28

(Day 28) Seq2Seq (Encoder Decoder with RNN, LSTM, GRU)

在前幾天的文章中,我們依序介紹了 RNN、LSTM、GRU,並討論它們如何建模序列資料。這些模型能夠捕捉序列中的上下文關係,並緩解傳統 RNN 的梯度消失問題。...

2025-08-28 ‧ 由 Alan Hsieh 分享
DAY 29

(Day 29) 注意力機制 (Attention Mechanism)

在前一天,我們介紹了 Seq2Seq 架構 (Encoder-Decoder),它將輸入序列壓縮成一個固定維度的上下文向量 (Context Vector),再...

2025-08-29 ‧ 由 Alan Hsieh 分享
DAY 30

(Day 30) 系列結尾

終於來到這個系列的最後一天。老實說,如果要我替這 30 天打個分數,我大概只會給自己一個 勉強及格。原因很簡單: 這個系列從一開始就有宏大的規劃與期待,但在實際...

2025-08-30 ‧ 由 Alan Hsieh 分享