iT邦幫忙

鐵人檔案

2024 iThome 鐵人賽
回列表
AI/ ML & Data

Web仔也來學ML 系列

人類無法解決的問題,就丟給機器解決吧! ML是一個尋找函數的過程,通過訓練出來的模型,可以讓電腦執行極為複雜的任務,並且不需要人類輸入精確的指令。
本篇會從一個即將進入研究所的Web仔視角,帶領讀者一起入門,從ML的基礎觀念開始,深入淺出介紹原理與實作。

鐵人鍊成 | 共 30 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文 團隊真素有料
DAY 21

Web仔也來學ML [Day 21] - 卷積神經網路 (Convolutional Neural Networks, CNN)

我們今天要來探討的是Deep Learning的架構設計,今天我們會通過學習CNN學到Network的架構要如何設計,以及基於什麽樣的考量來做出這樣的設計。 C...

2024-10-03 ‧ 由 dogcom0228 分享
DAY 22

Web仔也來學ML [Day 22] - 深度學習的小技巧

上一篇我們學習了第一個Deep Learning的模型CNN,今天我們要探討的是當模型在訓練集(Training Set)或測試集(Testing Set)上無...

2024-10-04 ‧ 由 dogcom0228 分享
DAY 23

Web仔也來學ML [Day 23] - 自注意力機制 (Self-attention) 概念篇

上一篇我們知道了一些在做深度學習時的小技巧,可以分成兩種情況:在training set上效果表現不好和在testing set上表現不好。我們知道說我們在tr...

2024-10-05 ‧ 由 dogcom0228 分享
DAY 24

Web仔也來學ML [Day 24] - 自注意力機制 (Self-attention) 原理篇

昨天我們提到了Self-attention的input是什麽樣子,output應該又是什麽樣子。我們知道Self-attention是爲了解決比較複雜的inpu...

2024-10-06 ‧ 由 dogcom0228 分享
DAY 25

Web仔也來學ML [Day 25] - 自注意力機制 (Self-attention) 技術篇(上)

Self-Attention 的計算過程 我們已經知道如何計算兩個向量之間的關聯性 α,接下來我們要將其應用到 Self-Attention 模組中,來生成最終...

2024-10-07 ‧ 由 dogcom0228 分享
DAY 26

Web仔也來學ML [Day 26] - 自注意力機制 (Self-attention) 技術篇(下)

Multi-head Self-Attention 昨天我們學習到了Self-attention的技術,我們還説到今天會介紹Self-attention更進階一...

2024-10-08 ‧ 由 dogcom0228 分享
DAY 27

Web仔也來學ML [Day 27] - Transformer(上)

Transformer 是一種序列到序列 (Sequence-to-Sequence, Seq2Seq) 的模型, Sequence-to-Sequence 是...

2024-10-09 ‧ 由 dogcom0228 分享
DAY 28

Web仔也來學ML [Day 28] - Transformer(中)

我們昨天提到了 Transformer 的架構,我們知道 Transformer 是由 Encoder 和 Decoder 組成的,其中的 Encoder 我們...

2024-10-10 ‧ 由 dogcom0228 分享
DAY 29

Web仔也來學ML [Day 29] - Transformer(下)

昨天我們談到Decoder的運作方式,它與Encoder有許多相似之處:同樣需要進行Positional Encoding、Multi-Head Self-At...

2024-10-11 ‧ 由 dogcom0228 分享
DAY 30

Web仔也來學ML [Day 30] - 機器學習 學習機器

經過三十天的努力,我們從零基礎開始,逐步了解了 Machine Learning 的全貌,並初步接觸了 Deep Learning。 在這個系列裏面,我們一開始...

2024-10-12 ‧ 由 dogcom0228 分享