iT邦幫忙

2025 iThome 鐵人賽

DAY 14
0
Software Development

AI 驅動的 Code Review:MCP 與 n8n 自動化實踐系列 第 14

[Day 14] n8n + AI + MCP 整合流程 - Part 4:配置 AI Memory 記憶系統

  • 分享至 

  • xImage
  •  

n8n + AI + MCP 整合流程 - Part 4:配置 AI Memory 記憶系統

前言

在前一篇文章中,我們已經完成了 AI Model 的建立。今天我們要繼續下一個步驟:為 AI Agent 建立 Memory 功能。Memory 的作用是讓 AI 能夠記住之前的對話和操作記錄,這對於 Code Review 等需要上下文連貫性的任務特別重要。

n8n Memory 架構圖

步驟一:選擇 Memory 類型

  1. 在 n8n 介面中點選 Memory 旁的「+」按鈕
  2. 系統會顯示可用的 Memory 選項
  3. 我們選擇 Simple Memory,因為它直接存儲在 n8n 內部,使用起來比較方便

Memory 選擇介面

步驟二:配置 Memory Node 設定

基本設定項目

1. Session ID 模式

  • 可選擇「Chat Trigger Node」或「Define below」兩種模式
  • 由於我們要做的是自動化流程而非即時聊天,選擇 Define below

2. Key 識別值

  • 為這個 Code Review 流程設定一個唯一識別值
  • 建議使用有意義的名稱,例如:code-review-project-name
  • 注意避免與其他流程的 Key 重複

3. Context Window 設定

  • 這是 AI 模型運作時的上下文窗口大小
  • 根據 Code Review 的需求,建議設定範圍為 5-50
  • 本文範例設定為 5
  • 實際數值需根據您的機器配置和專案規模調整

Memory Node 配置畫面

關於上下文窗口的技術說明

不同 AI 模型的 Token 支援範圍

目前主流 AI 模型的 Token 支援數量差異很大,大部分落在 128,000 到 1,000,000 之間:

重要提醒

更大的上下文支援並不等於 AI 理解能力更強
選擇適合的上下文大小比盲目追求最大值更重要

步驟三:驗證 Memory 功能

執行流程後,您可以在 Memory 介面中查看執行記錄,確認資料已正確儲存:

Memory 執行記錄

Memory 功能的優勢

1. 上下文延續性

  • AI 能記住之前的 Code Review 結果
  • 當程式碼有更新時,AI 會基於之前的記錄進行比較和分析

2. 提升 Review 品質

  • 避免重複指出相同問題
  • 能夠追蹤程式碼改善的進度

3. 成本考量

如果您希望節省記憶體成本,也可以選擇不使用 Memory 功能,但會失去上述優勢。

小結

今天我們成功在 AI Agent 中建立了 Memory 功能,並將執行記錄正確儲存。這個功能大大提升了 Code Review 的連貫性和效率。當程式碼有修改時,AI 會根據之前的上下文記錄,提供更精準的檢視建議。

下一篇預告: 我們將介紹如何在 n8n 中建立 MCP Client,並成功連接到 MCP Server。


💡 提示: 根據實際需求調整 Context Window 大小,找到效能與成本的最佳平衡點。


上一篇
[Day 13] n8n + AI + MCP 整合流程 - Part 3:建立 AI Model 與 API KEY
下一篇
[Day 15] n8n + AI + MCP 整合流程 - Part 5:內建 GitLab Tool
系列文
AI 驅動的 Code Review:MCP 與 n8n 自動化實踐22
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言