目標:
透過 n8n 自動呼叫 Gemini LLM Agent,完成文字處理任務(例如翻譯、摘要、問答)。
概念說明:
n8n Workflow 可以串接多個節點,形成自動化處理鏈。
基本流程如下:
新增 Workflow,命名為 llm-agent-workflow
新增 Webhook 節點
/llm-agent
這個節點負責接收外部輸入,例如來自前端或測試工具的文字請求。
新增 HTTP Request 節點
設定內容如下:
Method:POST
URL:https://api.gemini.com/v1/llm
(示意用 URL)
Headers:
Authorization: Bearer <YOUR_API_KEY>
Body(JSON):
{
"prompt": "{{$json["text"]}}",
"temperature": 0.7,
"max_tokens": 150
}
將 Webhook 節點連接到 HTTP Request 節點
這一步的功能是讓 n8n 將輸入文字傳送至 Gemini 模型進行處理。
新增 Function 節點
輸入以下程式碼:
return [{
json: {
answer: $json["choices"][0]["text"] || "LLM 沒回應"
}
}];
將 HTTP Request 節點連接至 Function 節點
這個節點負責解析 LLM 的回傳內容,並將結果整理成標準 JSON 格式輸出。
這樣使用者呼叫 Webhook 時,就能直接收到 LLM 的回覆結果。
使用 curl 進行測試:
curl -X POST http://localhost:5678/webhook/llm-agent \
-H "Content-Type: application/json" \
-d '{"text":"請將以下英文翻譯成中文:I love AI"}'
預期回傳:
{"answer": "我喜歡人工智慧"}
若看到這個結果,就代表整個流程運作正常。
HTTP Request 失敗
LLM 無回應或空值
Webhook 無回應