iT邦幫忙

2025 iThome 鐵人賽

DAY 27
0
生成式 AI

生成式AI的奇妙旅程:從ChatGPT到個人化應用系列 第 27

Day27 | RAG 與知識圖譜的完美結合:GraphRAG 如何實現更精準、可解釋的生成式 AI

  • 分享至 

  • xImage
  •  

一、引言:當 LLM 遇上「幻覺」與「知識邊界」

嗨,各位 AI 領域的鐵人戰友們!過去這一年,大型語言模型(Large Language Models, LLM)的進化速度簡直是飛快,從 Open GPT-4o 到 Meta Llama 3.2,多模態(LMM)的發展趨勢已經確立,市面上也湧現了大量的 AI 工具與解決方案。

然而,無論模型多麼強大,兩個核心問題始終困擾著企業應用:

  1. 知識限制與過時:LLM 的訓練數據存在時間範圍和領域限制,無法即時更新,因此缺乏最新的產業或業務領域知識。
  2. 幻覺(Hallucination):由於 LLM 的運作方式是透過語意匹配檢索(Semantic Matching)來預測下一個最可能出現的字詞,而非真正理解語言背後的意涵,這導致模型在缺乏特定知識時容易「胡亂回答」或「編撰錯誤內容」。

為了解決這些痛點,讓 LLM 能夠使用最新或相關的資訊來生成回應,檢索增強生成(Retrieval-Augmented Generation,簡稱 RAG) 技術應運而生,並成為業界主流的解決方案之一。RAG 透過整合外部知識庫,大幅提升了回應的品質和事實準確性。

然而,當面對需要跨越多個資訊片段、理解複雜關聯的「多跳問題」(Multi-Hop Question-Answering)時,傳統的 RAG 僅依賴向量相似度檢索文本塊(Text Chunks),就可能遭遇瓶頸:它可能會丟失關鍵上下文、檢索到重複資訊,或者無法掌握全域知識,導致答案不夠完整或缺乏解釋性。

這時候,我們需要一個更聰明的夥伴—GraphRAG。今天,我們就來深入探討這項結合 RAG知識圖譜(Knowledge Graph, KG) 的創新技術,看看它是如何透過結構化知識,將生成式 AI 的精準度和可解釋性帶到新的高度。

二、核心概念解析:RAG 與 GraphRAG

在深入 GraphRAG 之前,我們需要先了解其兩大基石:RAG 與知識圖譜。

2.1 檢索增強生成(RAG)

RAG 是一種技術框架,其核心在於讓 AI 模型在生成答案之前,先去檢索相關資料,再根據這些資料來進行回答。

概念 定義與原理 技術細節與例子
定義 RAG 結合了「索引」、「檢索」與「生成」三大步驟,目的是利用外部資料來增強 LLM 的輸出。 RAG 技術已成功應用於解決 LLM 的「幻覺」、缺乏領域專門知識及資訊過時等問題。
三大步驟 1. 索引(Indexing):將文件(例如 PDF 或文檔)切塊,並進行向量編碼(Vector Embedding),寫入向量資料庫。2. 檢索(Retrieval):使用相似性查詢(如餘弦相似度)來尋找與使用者問題最相關的文本塊。3. 生成(Generation):將檢索到的相關文本塊(作為上下文)與原始問題一起提交給 LLM 處理,生成最終答案。 假設用戶詢問公司最新產品的細節。RAG 會將問題轉換為向量,從文件向量庫中找到最相似的產品手冊片段,然後將這些片段提供給 LLM 作為生成答案的依據。
局限 由於主要依賴語義相似度在文本塊中進行檢索,當問題需要連接多個不同文本塊中的複雜關聯時,傳統 RAG 會力有未逮。 舉例來說,如果一個問題需要連接「前 OpenAI 員工」和「他們創辦的公司」這兩個實體,如果資訊分散在不同文件塊中,單純的向量搜索很難一次性捕捉所有必要的跨文件關係。

2.2 知識圖譜(Knowledge Graph, KG)

知識圖譜是 GraphRAG 的核心結構化數據基礎。

概念 定義與原理 技術細節與例子
定義 知識圖譜是一種結構化的知識表示方式,由不同實體(Entities) 和它們之間的關係(Relationships) 所組成的網絡。它以符號形式描述物理世界中的概念及其相互關係。 KG 的基本組成單位是「實體-關係-實體」三元組(Triplets)。實體通常代表具體的概念(如人、地點、產品),關係則描述實體間的連結。
例子 例如:「J·K·羅琳」是「哈利波特」的作者。在這裡,「J·K·羅琳」和「哈利波特」是實體,「是作者」是關係。 另一個例子可以是:「SpaceX」在「美國」設有總部。這呈現了實體(SpaceX, 美國)之間的連結關係 (headquarter in)。
優勢 KG 組織資料的方式捕捉了內容和上下文,使其非常適合用於推理解釋和處理複雜、多跳的查詢。 知識圖譜可以讓 Web 從網頁連結轉向概念連結,支援用戶按主題而不是字串檢索,真正實現語義檢索。

2.3 GraphRAG 定義與優勢

GraphRAG(Graph Retrieval-Augmented Generation)正是將 RAG 的檢索能力,結合知識圖譜的結構化推理優勢,以克服傳統 RAG 的局限性。

特性 傳統 RAG(基於向量相似度) GraphRAG(基於知識圖譜)
檢索基礎 向量資料庫中的文本塊(Text Chunks) 知識圖譜中的圖元素(節點、關係、子圖)
上下文理解 主要依賴語義相似度,缺乏多層次、複雜數據關係的理解 能識別複雜的語義關聯,具備更好的上下文理解能力和全域觀
應對多跳問題 較為困難,易丟失關鍵上下文 表現出色,能有效「連接點點滴滴」(connect the dots)
可解釋性 (Explainability) 較差,難以追溯生成過程 可大幅提升,能透過結構化資料節點追溯回應的邏輯來源
冗餘與長上下文 易產生冗餘信息,導致「失落於中間」(lost in the middle)問題 圖數據抽象和總結文本數據,顯著縮短輸入文本長度,減輕冗餘

GraphRAG 的核心優勢在於: 在 AI 檢索資料的路徑中,GraphRAG 能夠基於知識圖譜中已知的關聯進行推理。這使得 LLM 不僅能獲得與問題相關的片段,還能理解這些片段之間的結構化關係,從而減少虛構或不準確的內容。

三、深入探討:GraphRAG 的流程、應用與挑戰

GraphRAG 不僅僅是一個概念,它有一套結構化的工作流程,並在實際應用中展現了巨大潛力。

3.1 GraphRAG 的標準工作流程

GraphRAG 的流程被系統化地分為三個主要階段:基於圖的索引(G-Indexing)、圖引導的檢索(G-Retrieval)和圖增強的生成(G-Generation)。

3.1.1 階段一:圖索引(Graph-Based Indexing, G-Indexing)

這是基礎建設階段,目的是建立或識別一個符合下游任務的圖資料庫 G,並建立索引。

  1. 資料準備:將資料源進行切塊(chunks)處理,這有助於在 LLM 記憶範圍內保留上下文,並提高處理速度和準確性。
  2. 實體與關係擷取:從每個文本塊中擷取出建構知識圖譜的兩大元件:實體(Entities)關係(Relationships)
  3. 知識圖譜建構:彙整所有實體和關係的描述(Element Summaries),並進行分類分群,構建出知識圖譜網絡結構(Graph Communities)。

資料來源可以分為:

  • 開放知識圖譜(Open Knowledge Graphs):如 Wikidata、DBpedia 或領域知識圖譜(如醫學領域的 CMeKG、CPubMed-KG)。
  • 自建圖數據(Self-Constructed Graph Data):根據企業或領域的專有數據(如文件、表格)構建,通常與特定方法設計緊密相關。例如,可以從文件間的引用關係、共享關鍵字,或使用 LLM 提取實體和關係來構建圖譜。

索引方法:為了提高查詢效率,會採用多種索引方式。

  • 圖索引(Graph Indexing):保留完整的圖結構,方便使用 BFS 或最短路徑等圖搜索演算法。
  • 向量索引(Vector Indexing):將圖數據轉換為向量表示,用於快速檢索相似實體或子圖。
  • 文字索引(Text Indexing):將圖數據(如三元組或子圖摘要)轉為文字描述,使用傳統文本檢索技術。
  • 混合索引(Hybrid Indexing):結合圖、向量和文本索引的優勢,實現高效檢索。

3.1.2 階段二:圖引導檢索(Graph-Guided Retrieval, G-Retrieval)

此階段根據使用者查詢 q,從圖資料庫中提取最相關的圖元素 G*(例如節點、三元組、路徑或子圖)。

檢索粒度(Retrieval Granularity):可以根據任務需求,選擇不同的結構化資訊層級。

  • 節點(Nodes):通常指實體,適用於精準定位單一元素。
  • 三元組(Triplets):(主體-謂語-客體),結構化地表示實體間的關係。
  • 路徑(Paths):捕捉實體間的一系列關係鏈,增強上下文理解和推理能力。
  • 子圖(Subgraphs):捕捉圖中綜合的關係上下文,適用於複雜的模式和依賴關係。
  • 混合粒度(Hybrid Granularities):結合多種粒度(例如使用 LLM Agent 自適應選擇),以平衡效率和理解深度。

檢索增強技術(Retrieval Enhancement):用於確保檢索結果的高品質。

  • 查詢增強(Query Enhancement)
    • 查詢擴展(Query Expansion):補充或精煉原始查詢,例如生成關係路徑或實體別名。
    • 查詢分解(Query Decomposition):將複雜查詢分解為更小、更具體的子查詢。
  • 知識增強(Knowledge Enhancement)
    • 知識合併(Knowledge Merging):整合檢索到的多個資訊片段,以獲得更全面的視角,同時緩解輸入長度限制。
    • 知識篩選(Knowledge Pruning):過濾不相關或冗餘的資訊,通常通過重排序(Re-ranking)或利用 LLM 進行檢查。

3.1.3 階段三:圖增強生成(Graph-Enhanced Generation, G-Generation)

在最後階段,系統利用檢索到的圖數據 G* 生成有意義的回應。

生成器(Generators):根據任務類型選擇模型。

  • LLM:生成式模型(如 T5, GPT-4, LLaMA)擅長文本理解、生成與推理。
  • GNNs:圖神經網絡,擅長編碼圖數據,捕捉複雜關係和節點特徵,主要用於判別性任務或作為特徵提取器。
  • 混合模型(Hybrid Models):結合 GNN 和 LLM 的優勢。例如,瀑布式(Cascaded Paradigm)是 GNN 先處理圖數據,輸出結果給 LLM 生成文本;並行式(Parallel Paradigm)則是兩者同時處理,最後整合輸出。

圖格式轉換(Graph Formats):由於 LLM 主要處理文本,需要將圖數據轉換為 LLM 可接受的格式。

  • 圖語言(Graph Languages):結構化的符號表示系統。常見形式包括:鄰接/邊表(如線性化三元組)、自然語言描述(使用模板或 LLM 重寫)、類代碼形式(如 GraphML)、語法樹或節點序列。好的圖語言需要具備完整性、簡潔性、可理解性
  • 圖嵌入(Graph Embeddings):利用 GNN 將圖表示為向量,並與文本表示整合。這種方法避免了長文本輸入的問題,但挑戰在於精確資訊的保留和泛化能力。

3.2 應用案例與實際場景

GraphRAG 的應用範圍非常廣泛,尤其是在需要處理複雜關係和深度領域知識的企業場景中。

案例一:SAP 的 AI 智能體「Joule」(客服與業務輔助)

商業軟體大廠 SAP 推出的 AI Agent 服務「Joule」,就是以 SAP 知識圖譜 作為問答結構基礎。

  • 資料源:涵蓋 SAP 核心產品模組和第三方系統的大量業務數據(約 45 萬個核心業務數據表格、8 萬個數據分析圖表等)。
  • 運作模式:使用者提出問題,Joule 進行語義分析,生成 Query 傳送給知識圖譜,提取相關背景知識和數據,再經由 LLM 生成答案。
  • 場景舉例
    • 業務想知道特定地區的產品銷售狀況,Joule 能識別表現不佳的區域,即時掌握業績。
    • 製造商遇到缺貨風險,Joule 會自動連接到供應鏈系統及其他相關資料集,提供可能的替代方案,加速決策。

案例二:微軟 Agentic-GraphRAG(多代理與地端應用)

微軟於 2024 年推出的 「Agentic-GraphRAG」 開源框架,透過函數調用多代理系統(multi-agent systems)和圖形資料庫檢索進行集成。

  • 技術特點:將 GraphRAG 整合到 AutoGen(多代理協作框架)、Ollama(地端運行 LLM 工具)和 Chainlit(生成式 AI 應用開發平台)。
  • 場景優勢:此系統能在地端環境下執行數據處理與情境回應,無須連網 即可完成複雜互動,有助於避免連網帶來的隱私風險和費用。

案例三:多跳推理與分析性查詢

知識圖譜的結構化優勢使其擅長處理傳統 RAG 難以應對的複雜查詢。

  • 多跳推理:例如,詢問「Prosper Robotics 的創始人最近有什麼新聞?」,GraphRAG 可先從圖譜中找到創始人實體(第一跳),再透過關係找到相關的新聞文章(第二跳),最終整合資訊回答。
  • 分析性查詢:傳統向量搜索難以進行數據聚合、過濾或排序。GraphRAG 則能輕鬆回答:「哪家由單一創始人創立的公司估值最高?」或「哪個服務依賴於 Database?」等涉及結構化分析的問題。

3.3 模型限制與潛在風險

儘管 GraphRAG 具有強大潛力,但在導入和維護過程中也面臨著不可忽視的挑戰與風險。

挑戰一:知識圖譜的高建置與維護成本

知識圖譜的構建是一個高成本和高技術門檻的工作,需要透過專業語義分析工具來進行。

  • 成本考量:即使現在可以利用 LLM 來輔助構建(如提取實體和關係),但相對應的模型 token 費用不容小覷。例如,SAP 分享使用 GPT-4.0 建置知識圖譜的經驗,提到每輸入 2,200 個英文字詞成本約 0.46-0.48 美元。
  • 維護複雜性:知識圖譜需要定期更新才能確保 LLM 回應的品質,而圖譜的更新過程既耗時又複雜。這對於需要快速更新的動態數據(如金融新聞或即時事件)來說,是一大挑戰。

挑戰二:可擴展性與效率問題

隨著數據量增長,GraphRAG 系統的擴展性和效率面臨嚴峻考驗。

  • 圖規模爆炸:工業級知識圖譜可能涵蓋數百萬甚至數十億個實體。目前大多數 GraphRAG 方法仍是針對小規模圖譜設計。
  • 檢索效率瓶頸:圖形資料庫在面對大規模數據時,高效地檢索相關實體或子圖仍是一項重大的實踐挑戰。此外,圖結構的構建過程本身計算成本高昂,且當輸入上下文較大時,會顯著影響效率。

挑戰三:長上下文與圖格式轉換的挑戰

將結構化的圖數據轉換回 LLM 可接受的文本格式時,可能產生冗長上下文。

  • 冗餘上下文:將圖資訊轉換為文本序列(Graph Languages)可能會產生過長的上下文,導致「失落於中間」的問題,或超出 LLM 的輸入限制。
  • 無損壓縮難度:設計一種能移除冗餘資訊,同時保留圖結構中所有關鍵語義資訊的「無損壓縮」技術,是未來 GraphRAG 必須克服的難題。

四、GraphRAG 技術框架與評估維度

4.1 GraphRAG 框架概覽

GraphRAG 的核心價值在於其混合設計,完美地將 LLM 的生成能力與圖結構的推理能力結合起來。

組件 核心功能 關鍵技術示例
知識圖譜 儲存實體及其關係,提供結構化上下文。 Neo4j AuraDB、Amazon Neptune、Google Spanner Graph。
向量搜索 處理非結構化數據(如文檔文本),提供語義相似度匹配。 嵌入模型(Embedding Models),如 all-MiniLM-L6-v2。
混合檢索器 整合向量搜索(Semantic Search)和圖查詢(Cypher Search),以應對不同類型的查詢。 LLM Agents、LangChain 框架、Text2Cypher。
生成器 LLM 根據增強提示(Augmented Prompt)生成最終答案。 GPT-4o-mini、GPT-4、LLaMA。

4.2 GraphRAG 的多維度評估

由於 GraphRAG 涉及檢索和生成兩個複雜步驟,其評估需要更細緻的指標,特別是針對事實正確性和語義一致性。受到 RAGAS 框架的啟發,研究人員正嘗試使用 KG-based 的方法來增強評估。

評估維度 傳統指標 (RAGAS) KG-Based 指標 測量目標
事實正確性 Factual Correctness (與參考答案比較) Multi-Hop Semantic Matching(多跳語義匹配) 答案的事實準確性。
忠實度 Faithfulness (與檢索上下文比較) Community-Based Semantic Overlap(基於社群的語義重疊) 回應與檢索到的上下文之間的一致性。
答案相關性 Answer Relevancy (與用戶輸入比較) Multi-Hop Semantic Matching 生成回應與用戶輸入的相關程度。
上下文相關性 Context Relevancy (與用戶輸入比較) Community-Based Semantic Overlap 檢索到的上下文對用戶輸入的貼切程度。

KG-Based 評估方法的優勢
透過將輸入和上下文轉換為知識圖譜,並在圖上執行算法(如加權 Dijkstra 算法進行多跳匹配,或 Louvain 社群檢測算法進行社群重疊分析),可以實現更細粒度和更忠實的事實對齊評估,尤其在高度實體層面相關或語義對比強烈的情況下,表現出更高的敏感性。

五、結語

如果說傳統 RAG 是為 LLM 配備了一本電子百科全書,讓它能隨時查閱最新資訊,那麼 GraphRAG 就是為 LLM 裝上了結構化知識大腦,讓它不僅能查書,還能理解知識點之間的複雜網絡關係,進行深度推理和解釋。

現階段,GraphRAG 的導入和維護成本確實比傳統 RAG 要高,知識圖譜的建置也需要時間與專業技術。但隨著 LLM 在實體和關係提取(Information Extraction Pipeline)方面的能力越來越強,以及像 Neo4j Knowledge Graph Builder 這樣的工具不斷湧現,知識圖譜的自動化構建門檻正在迅速降低。

這也預示著,未來 RAG 的發展方向必然是走向結構化。GraphRAG 的出現,為我們解決企業級複雜問答、實現高可解釋性 AI 應用,提供了最堅實的底層架構。

鐵人賽的各位,GraphRAG 技術目前仍處於早期階段,未來還有巨大的優化空間,例如如何高效地整合多模態資訊、如何實現大規模圖譜的動態更新等。

如果你對生成式 AI 的精準度抱持著「追求極致」的態度,並對知識架構有強烈的興趣,那麼 GraphRAG 絕對是你不容錯過的新賽道!

讓我們一起迎接這個充滿挑戰與機遇的 GraphRAG 時代吧!我們下篇文章見!


上一篇
Day26 | 大規模語言模型的「開源節流」戰略:高效推論的記憶體與速度瓶頸突破
系列文
生成式AI的奇妙旅程:從ChatGPT到個人化應用27
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言