這次的鐵人賽,我想用 「ML領域超級初學者」 的角度,記錄我在摸索 LLMOps 的過程。
「LLMOps」 聽起來很專業,但簡單來說,就是 ------ 如何把大語言模型 (LLM) 放到實際專案裡,並且能穩定、便宜又可控地跑起來。
因為我本身有一點 DevOps 的背景,所以會把這個系列寫成「實驗筆記」的形式:
每天試一個小主題,我會把程式碼都放在文章和 GitHub Repo 上,讓讀文章的人可以跟著一起練習,而不只是看概念。因為不是 ML 專家等級的文獻,文中不會過多的探究模型之間的差異性,如果讀者有興趣的話,可以自行深入探究,這邊的模型僅供學習參考。
🔹 前言 昨天(Day 10)我們把「查詢流程」串了起來: Retriever:快速找出候選文件。 Reranker:重新排序,把最相關的文件放到最前面。...
🔹 前言 經過前幾天(Day 8–11) 的實作,我們已經完成了從 文件清洗 → Chunking → 向量化 → 索引 → 查詢流程 → 上下文組裝 的基礎。...
🔹 前言 昨天(Day 12)我們談到了 知識庫資料管理: 多種來源整合 → 把 PDF、Web、API 等不同來源轉換成統一格式。 資料版本控制 → 用 D...
🔹 前言 終於來到和 DevOps 這個主題比較相關的部分了,感謝前面有耐心跟著讀的讀者 😆 在 RAG 系統裡,我們需要週期性地做很多「重複又必要」的工作來讓...
🔹 前言 在使用 LLM(大型語言模型)的時候,我們其實是透過一段「指令」來告訴模型要做什麼,這段指令就叫做 提示詞(Prompt)。 在 Day 15 &a...
🔹 前言 昨天我們談到 Prompt 系統化:包括模板化、版本管理、測試與整合。這些設計,讓我們能像管理程式碼一樣管理 Prompt。 但在真實應用中,單一 P...
🔹 前言 前 16 天,我們一路鋪陳了基礎觀念: 從 RAG 檢索架構、快取、觀測性、Prompt 設計 到 Workflow 工具(LangChain + G...
🔹 前言 經過前面系列的文章,我們已經從零搭建出一條完整的 RAG Pipeline ,目前具備以下能力: 文件清洗與 Chunking 把原始文件整理成乾...
🔹 前言 昨天我們完成了 API Gateway,讓前端可以透過一個統一的 Proxy 來存取 LLM。 但在真實運行環境裡,還有一個非常現實的問題: 👉 我的...
🔹 前言 昨天我們談到 延遲、Token 與成本 的監控,確保系統「跑得快、花得省」。 但如果模型輸出的答案是錯的呢? 👉 在 LLM 應用中,Hallucin...