生成式人工智慧(Generative AI,簡稱「生成式 AI」)正在快速進入各種企業與軟體應用場景。
常見應用包含:
• AI 聊天客服:可讀取企業內部文件,進行員工與客戶問答。
• 多輪對話知識助理:像 ChatGPT 一樣,能持續對話並提供知識支援。
• 創意生成:根據文字提示產生圖片、影片,協助設計與內容創作。
生成式 AI 的核心技術路徑可以分為四大類:
1. 提示工程 (Prompt Engineering) – 如何正確設計問題,獲得理想輸出。
2. 模型微調 (Fine-tuning) – 針對特定任務或企業語料調整模型參數。
3. 檢索增強生成 (Retrieval-Augmented Generation, RAG) – 透過外部知識檢索,增強 LLM 回答的正確性與即時性。
4. AI 代理 (AI Agent) – 讓 AI 不只是回答問題,還能規劃並執行任務。
目標:建立RAG理論基礎,完成首個可運行原型
能清楚說明RAG的價值,並完成第一個企業級RAG原型
目標:掌握企業級檢索技術,兼顧高精度與高效能
能設計並實作企業級檢索引擎,支援多語言與高併發
目標:設計生產級架構,確保安全、合規與可擴展
能實作多租戶、安全合規的企業級RAG系統
目標:掌握部署運維技術,探索RAG的未來趨勢
能部署生產級RAG系統,並具備前瞻技術視野與創新應用能力
這個4週的學習計劃採用漸進式的方法,從基礎概念開始,逐步深入到企業級的實作與部署。每週都有明確的學習目標和預期成果,確保學習者能夠系統性地掌握 RAG 技術的各個層面,最終具備開發和維護企業級 RAG 系統的能力。
RAG 是由 Meta AI 在 2020 年首次提出。
它的核心流程如下:
1. 使用者提出問題。
2. 嵌入模型 將問題轉換成向量表示。
3. 在 向量資料庫 中檢索相似文件。
4. 將「檢索結果 + 使用者問題」一併送進 LLM。
5. LLM 基於相關文件生成最終答案,並可附帶引用來源。
這種方式的 最大優勢 是:
• 可即時更新知識 → 不需重新訓練 LLM,只要更新資料庫即可。
• 答案更可信 → 回覆基於具體文件,而非純粹「文字接龍」。
• 多源整合 → 能同時處理 PDF、API、資料庫等異質數據。
一個標準的企業級 RAG 系統包含:
[ 用戶 Query ]
↓
[ Query 改寫 / 預處理 ]
↓
[ 檢索層 (向量檢索 + Metadata 過濾) ]
↓
[ 檢索結果文檔塊 ]
↓
[ LLM (生成器) ]
↓
[ 答案 (附來源) ]
• 數據層:企業文件、資料庫、API
• 檢索層:向量檢索(HNSW/FAISS)、BM25、混合檢索
• 生成層:LLM(如 GPT-4/Claude)、回覆模板
• 安全層:權限控制、數據安全、審計日誌
• 應用層:客服助理、知識查詢、決策輔助
特性 | 傳統搜尋(如 Elasticsearch, Google) | RAG(檢索增強生成) |
---|---|---|
檢索方式 | 關鍵字比對 | 語義檢索(向量匹配) |
結果呈現 | 多筆文件,需要人工閱讀 | LLM 整理後的直接答案 |
知識更新 | 即時,但需人工整理知識 | 即時,LLM 可直接使用檢索結果 |
跨文件推理 | 幾乎無法 | LLM 可彙整多個文件回答 |
可追溯性 | 可找到文件,但缺乏語境 | 回答可附帶來源,支持審計 |
RAG 並非只是一個技術,而是能重構 企業知識工作流程 的引擎:
應用場景 | 傳統痛點 | RAG 解法 |
---|---|---|
客戶服務(客服BOT) | FAQ 更新慢、查詢不完整 | 即時檢索 FAQ + 內部知識,快速回答 |
內部知識管理 | 文件龐雜,員工難以找到資訊 | 員工可直接用自然語言提問,得到整合答案 |
法務與合規 | 條文龐大,搜尋效率低 | 精準檢索法律條文並給出解釋 |
研發與技術支持 | 文件分散,難以整合 API/手冊 | 工程師可詢問「某 API 怎麼用?」獲得程式碼範例 |
決策分析 | 報表數據需要人工解讀 | RAG + 結構化檢索,可回答「去年 Q4 銷售成長率?」 |
RAG 帶來的三大戰略價值:
1. 知識民主化:員工可用自然語言查詢企業知識
2. 效率與準確性:減少搜尋、比對時間,提高決策速度
3. 數位轉型推進器:從靜態知識庫升級為智慧助理
問題一:一個RAG系統要能運作,至少需要哪兩種類型的AI模型?它們分別負責什麼功能?
問題二:除了資訊時效性之外,為何單純使用LLM對話金融與法律資料庫會面臨「幻覺」與「不可追溯」的挑戰?