在 「Notion 遇上 LLM:30 天打造我的 AI 知識管理系統」 系列裡,我的目標是把 Notion 從一個單純的筆記倉庫,進化為一個能理解內容、回答問題、甚至自動生成筆記的智慧助理。
昨天的 Day 1,我分享了自己的痛點:筆記雖然豐富,但搜尋不精準、跨頁整理費時、缺乏互動、內容更新仍要手動。今天,我要把腦中的構想落到具體的藍圖 —— 先定義系統架構、資料流,並說明有哪些功能,最後比較現有的解法(Notion AI、ChatGPT Connector)與我這個專案的差異。
在Notion 遇上 LLM系列中,我們把系統分為三層:資料層 (Data Layer)、AI 模型層 (Model Layer)、應用層 (Application Layer)。
1. 資料層 (Data Layer)
2. 模型層 (Model Layer)
3. 應用層 (Application Layer)
或許你會問:Notion 已經有 Notion AI 功能,甚至 ChatGPT Connectors 也能連接到 Notion ,為什麼還要自己做?下表就讓我們來比較三者差異,並說明為什麼本系列選擇使用自建 Rag 系統:
方案 | Notion AI | ChatGPT Connectors | 自建 RAG 系統 |
---|---|---|---|
適合誰 | 一般使用者 | 快速 Demo | 技術實作、專案開發 |
優點 | 內建,能快速生成摘要或標籤 | 能跨頁查詢,免寫程式即可用 | 可控、可擴展,能支援「知識循環」 |
限制 | 跨頁檢索有限,無法自訂資料處理流程 | 無持久化索引,效率不高,寫回功能有限 | 需要開發與維護 |
換句話說,Notion AI 與 ChatGPT Connectors 適合日常或 Demo,但若要實現可控、可擴展、能持續演進的知識助理,就必須走向自建 RAG 系統。
今天,我們定義了「Notion 遇上 LLM」的系統藍圖:
在 Day 3,我們會正式開始 —— 認識 Notion API。你將看到 Notion API 能取得哪些資料、授權方式等,這是與 Notion 溝通的第一步,也是系統能夠運轉的基礎。