iT邦幫忙

2025 iThome 鐵人賽

DAY 22
0
生成式 AI

30 天生成式 AI 工作流:社群經營者的自動化實戰系列 第 22

Day 22|讓 AI 擁有你的品牌靈魂(上) ✨ 打造專屬知識庫

  • 分享至 

  • xImage
  •  

資料只是素材,知識才是品牌的靈魂。

在前面幾天,我們學會了透過爬蟲、RSS 等方式,把資料從網路上抓下來,變成我們可以操作的資料流。

但對於做內容行銷、社群經營的人來說,還有另一件更重要的事,讓 AI 說話時,能保有我們的品牌特性,而不是像在網路上隨便找答案。

這時候,「知識庫(Knowledge Base)」 就登場了。

本篇的工作流範本可在此下載。(下載連結


為什麼需要知識庫?

你可以想像它像 NotebookLM 這種工具一樣,先讓 AI 讀過你上傳的文章、教學、品牌內容,之後 AI 就會根據這些資料來回答問題或生成內容,而不是胡亂回答。

不過也有人會好奇:

「那 AI 要一直讀整份資料嗎?這樣不是會超慢又很花費?」

其實不用。這裡會用到一個叫 「嵌入式模型(Embedding Model)」 和 **「向量資料庫(Vector Database)」**的概念:

  • 嵌入式模型會把資料內容轉換成一串數字(向量),好比是把文章壓縮成 AI 能理解的「座標點」。
  • 下次要生成內容時,AI 只需要先找出與問題最接近的資料,再來回答就好,不必讀全部。

今天這篇,我們會把資料轉成向量資料,做出專屬知識庫

明天(Day 23)才會教你如何使用這個知識庫來生成內容


📰 第一步:收集資料(RSS + Aggregate)

雖然前面教過用爬蟲收集資料,但這次我們改用更輕鬆的方法:RSS

  1. RSS 是什麼?

    RSS 是一種可以訂閱網站更新的格式。

    例如 iThome 提供我們這一系列文章的 RSS,我們可以輕鬆抓到全部文章的內容。

  2. 操作步驟

    • 在白板上新增「手動觸發」節點,後面接上「RSS Read」節點。
    • 把本系列 RSS 連結貼上:https://ithelp.ithome.com.tw/rss/series/8470
    • 執行後會看到多個 items(我執行當下是 18 篇)

  1. 聚合成一筆資料(Aggregate)
    • RSS 會一次抓出很多篇文章,但我們想要把它們合併成一筆資料方便後續處理
    • 使用「Aggregate」節點設定:
      • Aggregate:All Item Data (Into a Single List)
      • Put Output in Field:data
      • Include:Specified Fields
      • Fields To Include:選 title, link, content:encodedSnippet

執行後,我們就會得到一筆包含所有文章資料的 JSON,可以準備送進向量資料庫了。


🧠 第二步:Supabase Vector Store 節點設定

有很多種向量資料庫可以選,我們用之前 Day 5 安裝過的 Supabase,因為它內建支援向量儲存,非常適合入門。

  1. 在前面的 Aggregate 節點後,新增「Supabase Vector Store」節點
    • Operation Mode 選擇:Insert Documents(代表要把資料存進向量資料庫)
  2. 它會需要兩個資料來源:
    • Embedding(嵌入式模型):連上「Embeddings Google Gemini」節點
      • 嵌入式模型不是 LLM(生成模型),它是專門把內容轉成向量資料
      • 選擇 models/text-embedding-004,其向量維度是 768
    • Document(文件資料):連上「Default Data Loader」節點
      • Type of Data 選擇:JSON
      • Mode 選擇:Load All Input Data
      • 如果你輸入的是檔案,則 Type of Data 要選 Binary

🗄️ 第三步:在 Supabase 上建立向量資料表

還沒建資料表,資料是無法存進去的,要先在 Supabase 建好。

  1. 在 Supabase 後台左側點選「SQL Editor」
  2. 在上方的「Quickstarts」找到「LangChain」範例庫,裡面有一段 SQL 是建立向量資料表的教學
  3. 注意:預設程式碼裡有兩處寫著 vector(1536),這代表它預期你用的是 1536 維度的模型(例如 OpenAI 的 embedding)
    • 但我們用的是 768 維度的 Google Gemini 模型,所以要把那兩個 1536 改成 768
  4. 點選「Run」,資料表就建立完成 🎉

🚀 第四步:執行工作流,存進資料庫

現在回到 n8n,執行整個工作流,

你就會看到所有 RSS 資料被轉換成向量資料,存進 Supabase 的資料表裡。

可以到 Supabase 的「Table Editor」中查看 documents 表,就會看到每篇文章的向量資料都在那裡。


📌 小作業

  • 嘗試將自己的一些內容(例如過去寫過的文章)轉換成向量資料並存進 Supabase。
  • 想一想:未來你想讓 AI 學會哪些品牌內容?先蒐集起來,明天我們會學怎麼讓 AI 開始使用這些資料。

交流

我建立了一個行銷技術交流群,專注討論 SEO、行銷自動化等主題,歡迎有興趣的朋友一起加入交流。

掃QR Code 或點擊圖片加入

https://ithelp.ithome.com.tw/upload/images/20250901/20178495xURUZaqziV.jpg


上一篇
Day 21|資料獵人養成記(5) 最後拼圖:用 Set 節點打造完整爬蟲工作流 🧩
下一篇
Day 23|讓 AI 擁有你的品牌靈魂(下) ✍️  用知識庫生成品牌內容
系列文
30 天生成式 AI 工作流:社群經營者的自動化實戰24
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言