GPT (Generative Pre-trained Transformer) 系列是當前所有生成式 AI (如 ChatGPT) 的基石。它代表了與 BER...
Day 12:Tokenization 與 Embeddings — LLM 的數據基石 要讓電腦處理語言,必須先將人類的文字轉換成電腦能處理的數值。這個過程涉...
1. 大型語言模型訓練的 Data Pipeline 大型語言模型 (LLM) 的訓練是一個龐大而複雜的工程,它需要精密的數據處理管線 (Data Pipeli...
Day 14:微調方法 (Fine-tuning) — 將通用智慧轉化為專業能力 當我們擁有一個強大的預訓練模型(如 BERT 或 GPT)時,它擁有廣泛的通用...
1. 為什麼 PEFT 是必需的? 在學完傳統的「完整微調」(Full Fine-tuning)後,我們知道其成本高昂。而參數高效調整 (PEFT, Param...
1. 基礎策略:利用上下文學習 (In-Context Learning) 提示工程是一種設計和優化輸入指令(Prompt)的藝術與科學。它是 LLM 時代的新...
1. RAG 的核心概念與流程 RAG 是將大型語言模型 (LLM) 應用帶入實際企業或個人知識庫的關鍵框架。它有效地解決了 LLM 的兩大痛點:知識截止(Kn...
1. 自動化評估指標 對於像機器翻譯、文本摘要或對話生成這類開放式生成任務,模型的輸出可能有無數種合理的答案。因此,我們需要專門的指標來客觀地衡量模型輸出的品質...
1. 部署方式的重要性與核心考量 部署(Deployment)是將訓練好的 LLM 投入實際使用的過程。選擇正確的部署方式,是平衡成本、速度、資料隱私和控制權的...
1. 幻覺 (Hallucination):編造的事實 隨著大型語言模型 (LLM) 應用日益普及,我們必須正視其帶來的安全性與倫理挑戰。理解這些潛在風險,是負...