iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
佛心分享-IT 人自學之術

LLM入門學習 系列

了解LLM基礎資訊入門及進行一個簡易對話bot實作開發

參賽天數 25 天 | 共 25 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文
DAY 11

Day 11:GPT 系列與自回歸模型

GPT (Generative Pre-trained Transformer) 系列是當前所有生成式 AI (如 ChatGPT) 的基石。它代表了與 BER...

2025-09-25 ‧ 由 max1112 分享
DAY 12

Day 12:Tokenization 與 Embeddings — LLM 的數據基石

Day 12:Tokenization 與 Embeddings — LLM 的數據基石 要讓電腦處理語言,必須先將人類的文字轉換成電腦能處理的數值。這個過程涉...

2025-09-26 ‧ 由 max1112 分享
DAY 13

Day 13:大型語言模型訓練流程 — Data Pipeline 與損失函數

1. 大型語言模型訓練的 Data Pipeline 大型語言模型 (LLM) 的訓練是一個龐大而複雜的工程,它需要精密的數據處理管線 (Data Pipeli...

2025-09-27 ‧ 由 max1112 分享
DAY 14

Day 14:微調方法 (Fine-tuning) Full fine-tune vs Feature extraction

Day 14:微調方法 (Fine-tuning) — 將通用智慧轉化為專業能力 當我們擁有一個強大的預訓練模型(如 BERT 或 GPT)時,它擁有廣泛的通用...

2025-09-28 ‧ 由 max1112 分享
DAY 15

Day 15:參數高效調整 (PEFT) — LLM 微調的革命

1. 為什麼 PEFT 是必需的? 在學完傳統的「完整微調」(Full Fine-tuning)後,我們知道其成本高昂。而參數高效調整 (PEFT, Param...

2025-09-29 ‧ 由 max1112 分享
DAY 16

Day 16:提示工程(Prompt Engineering)的核心策略

1. 基礎策略:利用上下文學習 (In-Context Learning) 提示工程是一種設計和優化輸入指令(Prompt)的藝術與科學。它是 LLM 時代的新...

2025-09-30 ‧ 由 max1112 分享
DAY 17

Day 17:RAG (Retrieval-Augmented Generation) 入門

1. RAG 的核心概念與流程 RAG 是將大型語言模型 (LLM) 應用帶入實際企業或個人知識庫的關鍵框架。它有效地解決了 LLM 的兩大痛點:知識截止(Kn...

2025-10-01 ‧ 由 max1112 分享
DAY 18

Day 18:評估指標 (Evaluation Metrics) — 衡量 LLM 的品質

1. 自動化評估指標 對於像機器翻譯、文本摘要或對話生成這類開放式生成任務,模型的輸出可能有無數種合理的答案。因此,我們需要專門的指標來客觀地衡量模型輸出的品質...

2025-10-02 ‧ 由 max1112 分享
DAY 19

Day 19:LLM 部署方式 — 將模型成果轉化為應用

1. 部署方式的重要性與核心考量 部署(Deployment)是將訓練好的 LLM 投入實際使用的過程。選擇正確的部署方式,是平衡成本、速度、資料隱私和控制權的...

2025-10-03 ‧ 由 max1112 分享
DAY 20

Day 20:LLM 安全性與倫理問題 — 負責任的 AI 應用

1. 幻覺 (Hallucination):編造的事實 隨著大型語言模型 (LLM) 應用日益普及,我們必須正視其帶來的安全性與倫理挑戰。理解這些潛在風險,是負...

2025-10-04 ‧ 由 max1112 分享