iT邦幫忙

2025 iThome 鐵人賽

DAY 25
0

為什麼需要 MCP?

  在 LLM 快速普及的今天,越來越多應用想把 AI 與真實世界結合,讓 LLM 變得更實用也更貼近生活,像是從資料庫查詢紀錄、讀取 Notion 筆記或 Google Drive 的內容、直接下指令到 GitHub 等。
  但有一個問題是,如果想讓 LLM 主動操作應用,讓他能存取外部資源,通常需要為每個服務各自設計 API、金鑰、封裝邏輯等,這樣的開發模式既繁瑣又難以維護。
  因此模型上下文協定(Model Context Protocol, MCP)的誕生,正是為了解決這個問題,MCP 希望能成為 AI 世界的USB-C 標準,讓不同的模型、應用與工具之間可以用一套統一規範彼此連接。

模型上下文協定(MCP)

  MCP 是由 Anthropic 在2024年11月發佈的開放協定,他定義了一組標準,讓 AI 模型能夠存取外部資料(Resources)、呼叫外部功能(Tools)、以及使用預先定義的互動模板(Prompts),不論模型來自哪間公司(Claude、GPT、Gemini、LLaMA),只要遵守 MCP 規範,就能共用相同的工具與資料來源,這樣就可以避免換一個模型就要重寫一次的問題。

MCP 的核心架構

  MCP 採用 Client–Server 架構,主要由三個角色組成:Host、Client、Server。

  • Host:使用者實際操作的應用程式,負責啟動 MCP Client,並管理與 MCP Server 的連線
  • Client:由 Host 建立的中介層,用來與 MCP Server 通訊,負責請求轉發、授權驗證與結果回傳
  • Server:由開發者自行建立作為後端服務,提供資料存取、工具執行、提示模板等功能給模型使用
[LLM Host] <-> [MCP Client] <-> [MCP Server] <-> [External Data / Tools]

MCP 的通訊方式

MCP 目前支援兩種主要的傳輸模式:

  • stdio 模式

    • 用於本地通訊
    • 透過標準輸入(stdin)與標準輸出(stdout)交換 JSON 訊息
    • 具備速度快、安全性高的特性
  • SSE(Server-Sent Events)模式

    • 用於遠端通訊,可部署在雲端伺服器上
    • 支援跨機器連線,適合分散式環境或遠端應用

上一篇
[Day24] 打造你自己的檢索增強生成(RAG)系統!(二)
下一篇
[Day26] FastMCP v2 實戰教學
系列文
從上下文工程到 Agent:30 天生成式 AI 與 LLM 學習紀錄29
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言