大家好,鐵人賽邁入第十一天!
在過去幾天,我們在 n8n 的世界裡,打造了一個越來越聰明的 AI Agent,並為它裝備了計算機、天氣、新聞、音樂推薦等多種強大的工具。我們的 MCPClient
工作流,實質上已經是一個功能完備的 MCP 伺服器 (Server)。
但是,它一直都還在 n8n 的內部環境中運行。今天,我們要打破這道牆,讓一個外部的、專業的 AI 應用 (MCP Host),來呼叫我們親手打造的 MCP 伺服器。
我們今天的主角,就是強大的開源 AI 平台—— Open WebUI。
什麼是 Open WebUI 呢?簡單來說,它是一個完全私有、能在自己電腦上運行的 AI 助理。它是一個功能強大、介面美觀的開源專案,可以讓你輕鬆管理並與本地大型語言模型 (LLM) 互動,就像是為 LLM 量身打造的「Stable Diffusion WebUI」。
Open WebUI 不僅僅是一個對話介面,它更是一個完整的 AI 平台,整合了眾多實用功能:
在開始之前,你只需要準備好一樣東西:Docker。
打開你的終端機 (Terminal 或 PowerShell),複製並貼上以下指令來同時安裝 Open WebUI 和 Ollama(運行 LLM 的後端)。
# (建議使用此版本,除非你有 NVIDIA GPU)
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
執行後,Docker 會自動下載映像檔並啟動服務。整個過程大概需要幾分鐘。
安裝完成後,打開你的瀏覽器,輸入 http://localhost:3000
。
Models
。在 Pull a model...
的欄位中輸入 llama3
或 mistral
,然後點擊下載按鈕。基礎環境好了,現在進入最關鍵的整合步驟!我們需要告訴 Open WebUI:「嘿,在 n8n 那裡有一個很厲害的 MCP 伺服器,它有很多工具可以用!」
這個「告知」的過程,我們透過 Open WebUI 的 Pipeline 功能來實現。
MCP Demo
工作流。chat Trigger
改成 webhook Trigger
節點,並且點擊進去複製 url,這就是我們 MCP 伺服器的地址!Open WebUI 的社群已經為我們準備好了連接 n8n 的 Pipeline 範本,我們只需要匯入並稍作修改即可。
Pipelines
。Import from URL
。Import
:
https://openwebui.com/f/owndev/n8n_pipeline
n8n Workflow
的方塊。url
欄位,將裡面預設的地址,替換成你剛剛從 n8n 複製的 MCP Server Webhook URL。Pipeline
按鈕(一個漏斗圖示)。N8N pipe
。500 * 3.14 是多少?
幫我查一下臺南今天的天氣
找幾篇關於 AI 的最新新聞
我今天想聽點輕快的音樂,有推薦的歌單嗎?
你會發現,Open WebUI 中的 LLM 會像我們之前在 n8n 聊天室裡一樣,自主地判斷何時需要使用工具,並透過我們設定的 Pipeline,成功地呼叫(其實是 localhost:5678) n8n MCP 伺服器,然後將執行結果回傳到你的聊天視窗中!
這邊會出現一個錯誤,是因為免費的api會被google限額,導致出現429
在管理員控制台中的函式,選擇剛剛匯入的n8n pipe設定,再把下圖改成關閉就可以解決了
恭喜你!今天我們完成了一項驚人的整合,成功地將兩個強大的開源專案——Open WebUI 和 n8n——串連在一起,打造了一個真正屬於你自己的、可無限擴充的 AI Agent 平台。
我們學到了:
這標誌著我們 n8n 篇章的技術巔峰。明天,我們將對整個 n8n 的旅程進行一次全面的回顧與總結,並探討它的優勢與極限,為我們下一階段的 Python 實戰篇章,拉開序幕!