iT邦幫忙

2025 iThome 鐵人賽

DAY 21
0
生成式 AI

生成式AI:從歷史與基礎原理到賦予產能的工具系列 第 21

Workflow 工具(LangChain、LlamaIndex)

  • 分享至 

  • xImage
  •  

生成式 AI 雖然強大,但若要在實際應用中發揮最大效益,僅靠模型本身仍不夠。模型需要能夠與外部知識、資料庫、工具及使用者互動,這就催生了 AI Workflow 工具 的重要性。其中最具代表性的兩個框架是 LangChainLlamaIndex

LangChain:讓 LLM 成為可編排的「智慧代理」

LangChain 是目前最廣泛使用的 大型語言模型應用框架。它的核心理念是讓模型不再只是被動回答問題,而能主動規劃步驟、執行任務、呼叫外部 API。其架構主要包含以下組件:

  • LLM Chain:定義模型如何接收提示與產出回應。

  • PromptTemplate:模組化設計提示,方便動態生成。

  • Memory:讓模型能記住上下文對話或先前結果。

  • Tool / Agent:可連結資料庫、搜尋引擎或 Python 腳本,使模型能進行「行動推理」。

範例如下:

from langchain import OpenAI, LLMMathChain
from langchain.agents import initialize_agent

llm = OpenAI()
tools = [LLMMathChain(llm=llm)]
agent = initialize_agent(tools, llm, agent_type="zero-shot-react-description")
response = agent.run("請計算 (12 + 30) * 2 的結果")
print(response)

這樣,模型就能理解自然語言指令並執行數學運算,展現出「AI 工作流」的雛形。

LlamaIndex:結構化外部知識的橋樑

LlamaIndex(原名 GPT Index)的主要目標是讓 LLM 更有效率地使用外部資料。它將文件、PDF、資料庫等內容轉換成可被模型理解的索引(Index),並在查詢時動態檢索與生成答案。主要特色如下:

  • Document Loader:匯入多種資料來源(如 JSON、SQL、Notion)。

  • Index 建立:透過 Embedding 技術建立語意索引。

  • Query Engine:在回答問題時只檢索相關內容,提升準確性與成本效率。

簡單範例如下:

from llama_index import VectorStoreIndex, SimpleDirectoryReader
documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()
response = query_engine.query("這份文件提到什麼主題?")
print(response)

這使 LLM 能基於外部知識回答問題,而非僅依賴內部權重記憶。

結語

LangChain 與 LlamaIndex 是 生成式 AI 實際落地應用的關鍵拼圖。前者負責「邏輯與工作流程的編排」,後者則強化「資料與知識的存取」。兩者常被整合使用,形成具檢索、推理與執行能力的完整 AI 系統。未來,這類 Workflow 工具將成為企業導入 AI 的標準基礎架構。


上一篇
語音與多模態(Whisper、Suno、Pika Labs)
系列文
生成式AI:從歷史與基礎原理到賦予產能的工具21
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言