看到朋友用LLM 製作了很厲害的互動功能,讓人覺得超級興奮啊!
在這樣的心情驅使下,就簡單的做了些功課:
好的,我把「AnRB」換成「專案」來重寫五百字總結:
我們討論了一個你想開發的 專案 CLI 工具,它的目標是將需求丟入流程,經過 需求分析 → 規格產生 → 測試生成 → 程式碼草稿 → PR → 部署 的自動化管線,並且在關鍵點由人類審查。
在架構上,我們先確認了 哪些地方需要 AI:
Embedding AI(如 OpenAI embedding 或本地 embedding 模型):用來建立與查詢程式碼索引(RAG,檢索增強生成)。
LLM(如 GPT、Claude、Gemini、Ollama):用來生成規格文件、測試、程式碼草稿。
不需要 AI 的部分:掃描檔案、Git 操作、PR 發佈、部署。
我們釐清了 init 的角色:掃描專案、切碎程式碼、建立向量索引(必須用 embedding 模型),可選擇讓 LLM 產生專案摘要。後續的 spec/test/code 指令則會使用 RAG 抓相關程式碼,再交給 LLM 生成對應輸出。
在 AI 工具選擇上,我建議 MVP 階段用 OpenAI(因為同時提供 embedding + 生成),但也可以用免費選項如 Gemini(長上下文)、或本地 Ollama + Llama3(免 API Key)。專案的架構上可以做成「Provider 插槽」,讓使用者在 config.json 切換不同模型(OpenAI、Claude、Gemini、Ollama)。
針對 本地模型的優化,我們談到三層方法:
好的,我把「AnRB」換成「專案」來重寫五百字總結:
我們討論了一個你想開發的 專案 CLI 工具,它的目標是將需求丟入流程,經過 需求分析 → 規格產生 → 測試生成 → 程式碼草稿 → PR → 部署 的自動化管線,並且在關鍵點由人類審查。
在架構上,我們先確認了 哪些地方需要 AI:
Embedding AI(如 OpenAI embedding 或本地 embedding 模型):用來建立與查詢程式碼索引(RAG,檢索增強生成)。
LLM(如 GPT、Claude、Gemini、Ollama):用來生成規格文件、測試、程式碼草稿。
不需要 AI 的部分:掃描檔案、Git 操作、PR 發佈、部署。
我們釐清了 init 的角色:掃描專案、切碎程式碼、建立向量索引(必須用 embedding 模型),可選擇讓 LLM 產生專案摘要。後續的 spec/test/code 指令則會使用 RAG 抓相關程式碼,再交給 LLM 生成對應輸出。
在 AI 工具選擇上,我建議 MVP 階段用 OpenAI(因為同時提供 embedding + 生成),但也可以用免費選項如 Gemini(長上下文)、或本地 Ollama + Llama3(免 API Key)。專案的架構上可以做成「Provider 插槽」,讓使用者在 config.json 切換不同模型(OpenAI、Claude、Gemini、Ollama)。
針對 本地模型的優化,我們談到三層方法: