iT邦幫忙

2025 iThome 鐵人賽

DAY 19
0
自我挑戰組

與AI搶奪意識ing系列 第 20

專案拆解重建加上LLM的工具製作

  • 分享至 

  • xImage
  •  

看到朋友用LLM 製作了很厲害的互動功能,讓人覺得超級興奮啊!

在這樣的心情驅使下,就簡單的做了些功課:

好的,我把「AnRB」換成「專案」來重寫五百字總結:


我們討論了一個你想開發的 專案 CLI 工具,它的目標是將需求丟入流程,經過 需求分析 → 規格產生 → 測試生成 → 程式碼草稿 → PR → 部署 的自動化管線,並且在關鍵點由人類審查。

在架構上,我們先確認了 哪些地方需要 AI:

Embedding AI(如 OpenAI embedding 或本地 embedding 模型):用來建立與查詢程式碼索引(RAG,檢索增強生成)。

LLM(如 GPT、Claude、Gemini、Ollama):用來生成規格文件、測試、程式碼草稿。

不需要 AI 的部分:掃描檔案、Git 操作、PR 發佈、部署。

我們釐清了 init 的角色:掃描專案、切碎程式碼、建立向量索引(必須用 embedding 模型),可選擇讓 LLM 產生專案摘要。後續的 spec/test/code 指令則會使用 RAG 抓相關程式碼,再交給 LLM 生成對應輸出。

在 AI 工具選擇上,我建議 MVP 階段用 OpenAI(因為同時提供 embedding + 生成),但也可以用免費選項如 Gemini(長上下文)、或本地 Ollama + Llama3(免 API Key)。專案的架構上可以做成「Provider 插槽」,讓使用者在 config.json 切換不同模型(OpenAI、Claude、Gemini、Ollama)。

針對 本地模型的優化,我們談到三層方法:

  1. RAG + Prompt Template:用外部索引與固定模板讓輸出穩

好的,我把「AnRB」換成「專案」來重寫五百字總結:


我們討論了一個你想開發的 專案 CLI 工具,它的目標是將需求丟入流程,經過 需求分析 → 規格產生 → 測試生成 → 程式碼草稿 → PR → 部署 的自動化管線,並且在關鍵點由人類審查。

在架構上,我們先確認了 哪些地方需要 AI:

Embedding AI(如 OpenAI embedding 或本地 embedding 模型):用來建立與查詢程式碼索引(RAG,檢索增強生成)。

LLM(如 GPT、Claude、Gemini、Ollama):用來生成規格文件、測試、程式碼草稿。

不需要 AI 的部分:掃描檔案、Git 操作、PR 發佈、部署。

我們釐清了 init 的角色:掃描專案、切碎程式碼、建立向量索引(必須用 embedding 模型),可選擇讓 LLM 產生專案摘要。後續的 spec/test/code 指令則會使用 RAG 抓相關程式碼,再交給 LLM 生成對應輸出。

在 AI 工具選擇上,我建議 MVP 階段用 OpenAI(因為同時提供 embedding + 生成),但也可以用免費選項如 Gemini(長上下文)、或本地 Ollama + Llama3(免 API Key)。專案的架構上可以做成「Provider 插槽」,讓使用者在 config.json 切換不同模型(OpenAI、Claude、Gemini、Ollama)。

針對 本地模型的優化,我們談到三層方法:

  1. RAG + Prompt Template:用外部索引與固定模板讓輸出穩

上一篇
i18n
下一篇
transaction (事務) / atomic 機制
系列文
與AI搶奪意識ing21
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言