iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
生成式 AI

從上下文工程到 Agent:30 天生成式 AI 與 LLM 學習紀錄 系列

此系列文章會利用Happy-LLM這個開源教學課程,來記錄自己學習LLM原理的心得與過程,並額外介紹LLM的各項延伸應用,例如上下文工程、few-shot、RAG、MCP、Agent等。

參賽天數 21 天 | 共 21 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文 團隊nutc imac
DAY 1

[Day1] NLP vs LLM:傳統任務與新時代的交會

自然語言處理 (NLP) 簡介   自然語言處理(Natural Language Processing, NLP) 是人工智慧的重要分支,他的目標是能讓電腦「...

2025-09-15 ‧ 由 ruiyang0630 分享
DAY 2

[Day2] 從符號到深度學習:NLP 的發展

NLP 發展簡介   自然語言處理(NLP)並不是一開始就有今天的 ChatGPT,它的發展經歷了不同時代的演進:從最早的規則判斷,到統計模型,再到機器學習與深...

2025-09-16 ‧ 由 ruiyang0630 分享
DAY 3

[Day3] 文本表示的進化:從詞袋到詞向量

什麼是文本表示?   電腦只能處理數字,無法直接理解「文字」,因此 NLP 的第一步,就是要把語言轉換成數字形式,也就是文本表示(Text Representa...

2025-09-17 ‧ 由 ruiyang0630 分享
DAY 4

[Day4] 為什麼需要注意力機制?從 RNN 到 Transformer

  讓模型理解並且處理帶有順序的資料,一直是 NLP 的核心挑戰,因為文字是有順序的,前後文會改變語意,因此對於提高 NLP 處理的準確度,是相當重要的一部分。...

2025-09-18 ‧ 由 ruiyang0630 分享
DAY 5

[Day5] Self-Attention、Mask Self-Attention、Multi-Head Attention

在 Day4 裡,我們用簡單的範例理解了 Attention 基本的運作原理與 Query、Key、Value 的角色,但是在實際應用 Transformer...

2025-09-19 ‧ 由 ruiyang0630 分享
DAY 6

[Day6] Transformer 的核心:Encoder-Decoder 架構

  在 Day4 我們認識了「注意力機制」,在 Day5 我們進一步看到 Self-Attention、Mask Self-Attention 與 Multi-...

2025-09-20 ‧ 由 ruiyang0630 分享
DAY 7

[Day7] Positional Encoding 與完整的 Transformer 架構

為什麼需要 Positional Encoding?   Attention 機制本身是「無序」的,他只會知道詞與詞之間的相關性,但是不知道誰在前誰在後,但是在...

2025-09-21 ‧ 由 ruiyang0630 分享
DAY 8

[Day8] Encoder-only 模型:BERT 與 MLM 任務

Encoder-only   在前面幾天我們學到 Transformer 是由 Encoder 和 Decoder 所組成的,Encoder 主要負責「理解輸入...

2025-09-22 ‧ 由 ruiyang0630 分享
DAY 9

[Day9] Decoder-only 模型:GPT 與自動回歸模型

Decoder-only   在前面我們學過 Encoder-only(BERT),他專注於「理解輸入」,適合各種自然語言理解(NLU)的任務,但是如果任務是「...

2025-09-23 ‧ 由 ruiyang0630 分享
DAY 10

[Day10] Encoder-Decoder 模型:T5 / BART 與 Seq2Seq 預訓練

Encoder-Decoder   前面我們介紹過了 Encoder-only(BERT)專門用於理解,適合 NLU 的任務;Decoder-only(GPT)...

2025-09-24 ‧ 由 ruiyang0630 分享