iT邦幫忙

2025 iThome 鐵人賽

DAY 17
0
自我挑戰組

AI Agentu相關研究系列 第 17

AI Agent 的記憶模組(Memory)

  • 分享至 

  • xImage
  •  

為什麼需要記憶模組?

如果你和 AI Agent對話,卻發現它忘了剛剛說過的話,或無法延續上下文,那麼這個 Agent 的「記憶模組」就是缺失的。
記憶(Memory) 的角色,就像人類的短期與長期記憶一樣:
短期記憶:記住剛剛對話的上下文,避免重複問答。
長期記憶:保存重要知識或經驗,讓 Agent 在未來遇到類似情境時能調用。
沒有記憶模組的 Agent 就像「每次對話都從零開始」的客服機器人;而有記憶模組的 Agent,才能做到「持續互動、個人化體驗」。

記憶模組的基本概念

AI Agent 的記憶模組通常分成幾種層次:
短期記憶(Short-term Memory)
主要依靠 上下文視窗(Context Window)。
LLM(大語言模型)能一次處理的文字量有限(例如 8k tokens、32k tokens),超過就會「遺忘」。
這裡的短期記憶就是「維持最近的對話內容」以便推理。
就像你跟朋友講話,會記住上一句,但不可能永遠背出每句對話。

長期記憶(Long-term Memory)
把過去對話或知識存到資料庫裡(常用 向量資料庫,如 Pinecone、FAISS、Weaviate)。
當 Agent 需要時,會把用戶問題轉換成向量,去資料庫搜尋「相似內容」,再喚回對話中。
就像你不會每天都記得朋友的生日,但當有人提到「上次聚會」,你能回想起之前的事。

工作記憶(Working Memory)
是短期與長期之間的橋樑。
透過檢索(retrieval),只把「和當下問題相關」的記憶放進短期記憶裡。
避免把所有長期資料都丟進模型,造成超載。
就像你複習考試時,不會把所有課本搬進腦袋,而是挑重點讀。

記憶模組如何實現?

讓 Agent 擁有上下文記憶的核心方法有幾種:

上下文延續(Contextual Memory)
最簡單的方式:直接把前幾輪對話附加到新的 prompt。
缺點:一旦對話太長,就會超過模型的上下文限制。
常見於 ChatGPT 的對話模式。

摘要式記憶(Summarization Memory)
當對話過長時,Agent 不會保存全部內容,而是生成「摘要」。
摘要保留重點,但刪掉不必要的細節。
缺點:摘要可能遺漏資訊,但能保持對話精簡。

檢索式記憶(Retrieval-Augmented Memory, RAM)
利用向量資料庫,把過去對話或知識轉換成向量嵌入(Embedding)。
當使用者提問時,Agent 檢索最相關的資訊,再附加到 Prompt。
常見於 LangChain 的 Memory 模組。
好比你問朋友「我們上次去哪裡吃飯?」朋友不會翻遍腦海,而是快速回想出「啊!那次是去火鍋店!」

混合記憶(Hybrid Memory)
結合以上方式:短期對話用上下文延續,過往長期知識用檢索式存取,再透過摘要壓縮不必要的細節。
這種方法兼顧「即時性」與「長期學習」。


上一篇
AI Agent 的值函數與政策
下一篇
LangChain 是什麼?
系列文
AI Agentu相關研究27
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言