iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
DevOps

30 天帶你實戰 LLMOps:從 RAG 到觀測與部署 系列

這次的鐵人賽,我想用 「ML領域超級初學者」 的角度,記錄我在摸索 LLMOps 的過程。
「LLMOps」 聽起來很專業,但簡單來說,就是 ------ 如何把大語言模型 (LLM) 放到實際專案裡,並且能穩定、便宜又可控地跑起來。

因為我本身有一點 DevOps 的背景,所以會把這個系列寫成「實驗筆記」的形式:
每天試一個小主題,我會把程式碼都放在文章和 GitHub Repo 上,讓讀文章的人可以跟著一起練習,而不只是看概念。因為不是 ML 專家等級的文獻,文中不會過多的探究模型之間的差異性,如果讀者有興趣的話,可以自行深入探究,這邊的模型僅供學習參考。

參賽天數 24 天 | 共 24 篇文章 | 2 人訂閱 訂閱系列文 RSS系列文
DAY 11

Day11 - 上下文組裝(Context Assembly):實測四種策略,讓 LLM「讀得懂又省錢」

🔹 前言 昨天(Day 10)我們把「查詢流程」串了起來: Retriever:快速找出候選文件。 Reranker:重新排序,把最相關的文件放到最前面。...

2025-09-25 ‧ 由 Hazel 分享
DAY 12

Day12 - 知識庫資料管理:多來源整合 × 可追溯版本控制

🔹 前言 經過前幾天(Day 8–11) 的實作,我們已經完成了從 文件清洗 → Chunking → 向量化 → 索引 → 查詢流程 → 上下文組裝 的基礎。...

2025-09-26 ‧ 由 Hazel 分享
DAY 13

Day13 - 為什麼知識會「過期」?Data Drift 偵測與更新策略實作

🔹 前言 昨天(Day 12)我們談到了 知識庫資料管理: 多種來源整合 → 把 PDF、Web、API 等不同來源轉換成統一格式。 資料版本控制 → 用 D...

2025-09-27 ‧ 由 Hazel 分享
DAY 14

Day14 - LLMOps Pipeline 自動化實戰:用 Prefect 與 Dagster,拯救你的睡眠時間

🔹 前言 終於來到和 DevOps 這個主題比較相關的部分了,感謝前面有耐心跟著讀的讀者 😆 在 RAG 系統裡,我們需要週期性地做很多「重複又必要」的工作來讓...

2025-09-28 ‧ 由 Hazel 分享
DAY 15

Day15 - Prompt Generation:用模板和版本管理 Prompt,規範 LLM 的回應

🔹 前言 在使用 LLM(大型語言模型)的時候,我們其實是透過一段「指令」來告訴模型要做什麼,這段指令就叫做 提示詞(Prompt)。 在 Day 15 &a...

2025-09-29 ‧ 由 Hazel 分享
DAY 16

Day16 - LangChain × Guidance:打造可組合、可控的 Prompt 工作流

🔹 前言 昨天我們談到 Prompt 系統化:包括模板化、版本管理、測試與整合。這些設計,讓我們能像管理程式碼一樣管理 Prompt。 但在真實應用中,單一 P...

2025-09-30 ‧ 由 Hazel 分享
DAY 17

Day17 - 成本、隱私、維運怎麼取捨?LLM 應用部署策略解析

🔹 前言 前 16 天,我們一路鋪陳了基礎觀念: 從 RAG 檢索架構、快取、觀測性、Prompt 設計 到 Workflow 工具(LangChain + G...

2025-10-01 ‧ 由 Hazel 分享
DAY 18

Day18 - 用 FastAPI 實作 LLM API Gateway:驗證、限流、觀測與實務選型

🔹 前言 經過前面系列的文章,我們已經從零搭建出一條完整的 RAG Pipeline ,目前具備以下能力: 文件清洗與 Chunking 把原始文件整理成乾...

2025-10-02 ‧ 由 Hazel 分享
DAY 19

Day19 - 掌握 LLM 應用可觀測性:監控延遲、Token 與成本(含工具選型)

🔹 前言 昨天我們完成了 API Gateway,讓前端可以透過一個統一的 Proxy 來存取 LLM。 但在真實運行環境裡,還有一個非常現實的問題: 👉 我的...

2025-10-03 ‧ 由 Hazel 分享
DAY 20

Day20 - LLM 回應品質監控:幻覺偵測與三層防護實作

🔹 前言 昨天我們談到 延遲、Token 與成本 的監控,確保系統「跑得快、花得省」。 但如果模型輸出的答案是錯的呢? 👉 在 LLM 應用中,Hallucin...

2025-10-04 ‧ 由 Hazel 分享