昨天我們試了「直接餵資料」的方法,讓 AI 具有根據我們提供的內容回答問題的能力。不過,假設今天資料量一多的話(例如整本書、幾百篇文件),我們不可能每次都把全部內容丟給模型吧?這時候,就需要一個更聰明的方法──RAG(Retrieval-Augmented Generation,檢索增強生成)。
RAG 的流程其實很好懂:
先檢索(Retrieval):當使用者問問題時,系統會去資料庫裡找出最相關的幾段內容。
再生成(Generation):把這些內容和問題一起丟給模型,請它基於資料來回答。
這樣做有兩個好處:
避免亂答:AI 不會靠猜的,而是根據提供的資料回應。
省 Token:不用把整本書都丟進去,只丟最需要的幾段。
舉個例子,如果你做了一個「旅遊小幫手」,RAG 可以先從旅遊文章或官方資料庫裡,抓出「台北夜市」的相關段落,再讓 AI 幫你生成推薦行程。這樣結果會又準又自然。
所以說,RAG 就像是替 AI 加了一個「圖書館搜尋員」──先幫它找好需要的資料,再讓它回答問題。沒有這個步驟,AI 就只能憑印象亂講;有了 RAG,它就能真正結合知識庫,變得更可靠。