“A runtime for AI agents that talk to each other.”
立刻覺得這是我需要的「Agent 之間的網路層」。
官方定義:
Colanode is an open runtime for running and connecting AI agents. It provides a communication layer, orchestration logic, and shared context.
核心賣點:
想讓多個 AI Agent(例如 Researcher、Writer、Reviewer)互相溝通
想打造「AI mesh network」
讓不同框架(Claude Agent SDK、crewAI、VibeKit)協作
npm install -g colanode
快速啟動一個 Node
colanode start --name researcher
這會啟動一個名為 researcher 的節點,預設在 http://localhost:8000。
接著在另一個終端再開一個節點:
colanode start --name writer --port 8001
現在你就有兩個 Agent Node 可以互相通信
假設你在 researcher 節點執行:
colanode send writer "幫我總結一下最新的 AI 研究動向"
writer 節點就會收到訊息,並以設定好的模型(例如 Claude 或 GPT)自動回應 researcher。
這一切都是透過 Colanode 的內建 RPC 層完成,不需要自己寫 HTTP。
Colanode 也支援 SDK:
import { createNode } from "colanode";
const researcher = await createNode({
name: "researcher",
llm: "claude-3-5-sonnet",
});
researcher.onMessage(async (msg, sender) => {
console.log(`${sender}: ${msg}`);
return "已收到,我會去找最新研究。";
});
await researcher.connect("ws://localhost:8001"); // 連接 writer node
await researcher.send("writer", "幫我寫個摘要。");
這段程式基本上就構成了一個最小多 Agent 聊天系統。
Colanode 提供「Context Bus」概念,允許不同節點共享資料,例如:
researcher.context.set("topic", "AI alignment");
writer.context.get("topic"); // "AI alignment"
這讓多 Agent 協作時能共用工作主題、變數或狀態,不用再手動傳遞。
每個 Node 都能訂閱/發佈事件。
researcher.on("paper_found", (data) => {
console.log("找到新論文:", data.title);
});
writer.emit("paper_found", { title: "LLMs in Production (2025)" });
結果 researcher 會即時收到通知。
這設計讓多 Agent 協作變成「事件流式工作」而非同步等待。
技術:Colanode
分類:AI Agent 通訊框架
難度:⭐⭐⭐☆☆(1–5 顆星)
實用度:⭐⭐⭐⭐⭐(1–5 顆星)
一句話:讓 AI Agents 像微服務一樣彼此通訊的開源 runtime。
關鍵指令:colanode start --name agent-name
適用情境:需要多 Agent 協作、跨服務通信或建立 AI 網狀架構時。
Colanode 對我來說是一個「AI 時代的 Socket.io」。
它不是讓人類跟 AI 對話,而是讓 AI 跟 AI 對話。
有了這層通訊基礎,像 crewAI、Claude Agent SDK、VibeKit 這類工具都能共存 ——
每個 Agent 只要是個節點,就能被網絡調度、交換狀態、同步任務。
接下來我打算試著用 Colanode + crewAI 搭建一個「AI 團隊分工系統」,
讓不同 Agent 自動協調:
Researcher 負責查資料、Writer 撰文、Reviewer 校稿。
到時候就能真正模擬出一個「24 小時不下班的 AI 公司」。