iT邦幫忙

2025 iThome 鐵人賽

0

歷經 30 天的連載,我們從 OpenAI API 的基礎應用出發,依序探索了 Prompt 提示工程、LangChain 開發框架、RAG 技術應用,再進一步透過 LangGraph 打造 AI Agent 架構,最後延伸到本地 LLM 部署與雲端混合架構的實作。

本系列的初衷,是希望協助熟悉 Node.js/JavaScript 的開發者,能快速掌握 AI 工具鏈的核心知識,並實際動手打造可落地的智慧應用。今天作為最終篇,我們將一同回顧這段學習旅程的重點收穫,並展望後續值得深入探索的方向。

系列文章回顧

本系列共分為五大主題篇章,內容循序漸進,從基礎概念一路延伸到進階實作,最終串連成一幅完整的 AI 開發知識地圖。以下整理了各篇章的重點與連結,方便你快速回顧或查找。

OpenAI API 基礎應用篇(Day 01 - 06)

在初始篇章,我們從最入門的環境建置與認識 OpenAI API 開始,帶你一步步熟悉如何在 Node.js 中呼叫 OpenAI API,並透過實作範例掌握 Prompt 提示工程技巧、模型回應調控以及 Function Calling 的應用。到這裡為止,你應該已能建立一個具備角色設定、能控制回應風格,甚至能呼叫外部功能的 AI 助理,為後續更進階的開發奠定基礎。

LangChain 核心應用篇(Day 07 - 14)

從本篇章起,我們將目光從單純呼叫 API 轉向框架化的應用設計。透過 LangChain,你可以將 LLM 與各種工具、流程組合起來,形成更有結構的應用程式。我們會學習如何使用 Prompt Templates 管理提示詞,利用 Output Parsers 控制模型回應的格式,再透過 LCEL 靈活組合多個處理步驟,打造可擴展的應用邏輯。最後,透過 LangChain Verbose 模式與 LangSmith,學會如何觀察與除錯,確保系統在實務環境中能夠穩定運行。

RAG 實戰應用篇(Day 15 - 19)

在這個篇章裡,我們深入探討 RAG (Retrieval-Augmented Generation) 主題,學習如何結合外部知識來提升模型的準確性與可靠性。過程包含文件載入與切割、建立嵌入模型與向量資料庫,再將檢索功能封裝成工具,讓 LLM 可以主動查詢並引用正確資訊。最終,我們完成一個能查詢公司年報的 AI 問答系統,展示如何將專屬資料轉化為可用的智慧知識庫。

LangGraph AI Agent 實作篇(Day 20 - 27)

在本篇章中,我們將重點放在 AI Agent 的架構設計與實作。從最基本的單一 Agent 推理流程開始,逐步引入 ReAct 模式來結合推理與行動;接著探討多 Agent 協作,讓不同角色能分工合作完成任務;再進一步加入人機互動與記憶功能,讓 Agent 更加靈活且具備上下文延續性。最後,我們示範如何透過 MCP Tools 與外部系統整合,並完成一個具備網路搜尋與人機互動能力的 AI 驅動寫作代理,完整展示 LangGraph 在實務應用上的潛力。

本地模型部署篇(Day 28 - 30)

在最後的篇章,我們把焦點放在本地 LLM 的部署與應用。隨著隱私、安全與成本等需求浮現,本地 LLM 部署成為許多企業與開發者的重要選項。我們先探討為什麼需要本地部署,再透過 Ollama 快速建立可用的本地推理環境,最後帶你設計一個混合雲端與本地模型的架構。藉由靈活運用不同場景下的模型特性,我們可以在彈性、效能與成本之間取得平衡,為企業與個人應用開啟更多可能性。

核心能力總結

如果要用一句話來總結本系列,那就是:開發者需要的不只是會呼叫 LLM,而是能設計並落實一整套 AI 應用架構

這 30 天的學習,不只是 API 調用的技巧,而是逐步建立起一套系統化的思維與能力。以下是我們一路累積下來的關鍵能力:

  • Prompt 設計能力:學會如何撰寫有效的提示,讓模型的回應更清楚、更具針對性。同時理解參數調控(如 Temperature、Top-p)對回應的影響,避免出現過度隨機或僵硬的輸出。

  • 流程設計能力:單純呼叫 LLM 並不足以滿足真實應用需求。我們透過 LangChain 與 LangGraph,把模型行為封裝進嚴謹的流程,能規劃輸入輸出格式、串接工具、定義決策邏輯,讓應用具備可維護性與擴展性。

  • 資料檢索能力:模型的知識並非無所不知。我們透過 RAG 技術,把外部文件處理、嵌入與向量檢索整合進來,讓 LLM 能基於最新或私有的資料進行回應,真正做到知識增強。

  • 工具整合能力:真正的智能應用,不僅是回答問題,而是能「行動」。藉由 Function Calling、Tool Calling 及 MCP,我們讓 AI 有能力操作外部 API、查詢資料庫、連接外部系統,從而實現更實用的場景。

  • 部署與混合架構思維:雲端 LLM 提供強大算力與便利,但也伴隨隱私與成本問題。我們因此學會在不同場景下做出選擇:使用雲端模型、本地模型,甚至組合成混合架構,讓應用既靈活又能兼顧效能與安全。

延伸探索方向

雖然本系列在此告一段落,但生程式 AI 應用開發仍有許多值得深入研究與實作的主題。以下整理幾個未來可以持續探索的方向:

  • 多模態應用:生成式 AI 不再只侷限於文字,也能處理圖片、語音、影片等多種輸入形式。這讓應用場景更加多元,例如「讀圖說話」、「將語音轉換為文字再進行回覆」或「從影片中自動提取重點」。多模態的能力能讓 AI 更加貼近真實世界的需求。

  • RAG 品質強化:RAG 能讓 AI 整合外部知識,但最終效果很大程度取決於資料切分與檢索策略。例如:如何在切分文件時避免語意斷裂?如何設計更有效的檢索方法來提升相關性與完整性?持續優化這些環節,能讓 RAG 系統輸出的答案更準確、更可信。

  • 模型微調應用:許多開源模型雖然功能全面,但在中文等特定語言或專業領域仍有不足。透過 微調(Fine-tuning),我們可以使用專屬語料來強化模型,使其更能理解與生成符合需求的內容。這樣的方式不僅能補足語言弱點,也能在醫療、金融、法律等專業場景中提升精準度與可靠性。

  • AI 自我學習:目前多數 AI 系統依賴既有知識與固定規則,缺乏隨時間演進的能力。若能讓 AI Agent 建立更完善的長期記憶機制,就能記住使用者的互動與偏好,並在未來的對話或決策中加以應用。這樣的累積能使 AI 逐步調整回應模式,展現出更貼近人類思維的成長與適應力。

  • AI 安全治理:隨著 AI 應用普及,安全與治理問題也愈顯重要。例如:如何降低偏見與錯誤回覆的風險?如何妥善保護敏感資料?如何確保系統符合法規與倫理要求?這些議題將直接影響 AI 在企業與公共領域的推廣與接受度。

結語

這 30 天的旅程,從最基礎的 API 調用出發,一步步走向完整的應用架構設計,逐漸累積開發 AI 應用所需的核心能力。對我而言,這不僅是一系列技術分享,也是一次自我挑戰與實驗的過程。希望這個系列能成為你的工具箱與地圖,幫助你在實務專案中靈活應用,甚至啟發新的想法。

回顧本系列文撰寫過程,我認為最大的挑戰並不是程式碼,而是如何把龐雜的知識拆解成清晰的學習路徑。因此我花了相當多時間規劃文章架構,力求讓內容能循序漸進,讓初學者也能從基礎到進階,一步步掌握生成式 AI 的核心觀念與實作方法。對我來說,這是一次「再學習」的機會:不只是整理與分享,而是重新驗證自己對 AI 開發的理解,並從中找到更好的實踐方式。

近期社群熱議的 Vibe Coding 事件,也再次提醒我們,隨著大型語言模型能力的提升,AI 確實能替我們代理許多任務,甚至自動生成一大段程式碼。但無論工具再怎麼強大,方向盤依舊必須掌握在開發者手中。只有當我們能理解背後的原理,並有能力設計與駕馭整體架構時,AI 才能成為真正可靠的助手,而不是一個我們無法控制的黑盒子。

對我而言,完成 30 天的連載是一場耐力賽,也是一種自我實踐;對你而言,我希望這能是一份實用的指南,幫助你在未來的專案中少走一些彎路。AI 技術的發展仍在快速演進,今天的新工具,很可能在明天就被更新的方案取代。但比起追逐最新工具,更重要的是培養一套穩固的思維方式——如何拆解問題、選擇適合的技術並設計出能落地的解決方案。

最後,你可以在 這裡 找到本系列中完成的專案程式碼,做為練習或延伸的基礎。若這個系列對你有幫助,或你有不同的想法與實踐經驗,也非常歡迎分享與交流!


上一篇
Day 30 - LiteLLM 多模型代理:建構雲端與本地共存的 LLM 環境
系列文
用 Node.js 打造生成式 AI 應用:從 Prompt 到 Agent 開發實戰31
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言