今天要實作的內容是 Generation pipeline 的部分,就是怎麼將提問跟 RAG 檢索到的資料全部丟到 LLM 給他做回應。 因為這邊後面的實作內容...
這篇我們要來做一個基於 Single Agent 變化的 AI Agent 範例——「OfficeOne Agent」,這個助理可以根據使用者的需求,使用最合適...
前言 到目前為止,我們已經把「感知 → 融合 → 狀態 → 回饋」跑起來了;今天轉向 人機互動(HCI) 本身:當 ChatGPT 這類大型語言模型(LLM)變...
概述 在上一篇文張中,我們透過 Google Agent 白皮書確立了一個核心共識:AI 應用的未來屬於能夠感知、思考、採取行動的智能代理(Agent)。而一...
終於寫到Day 30了~在過去寫文章的日子裡,從一個模糊的想法開始,透過每天的持續推進,一手打造出橫跨前後端、整合了LLM人工智慧、具備雲端同步與雙平台上架能力...
昨天已經教學大家要怎麼做 Chunking 了,今天就是要教學如何把它放進一個可以用來查詢的資料庫,這邊我們也會試著提問,看產出。雖然我昨天的教學只有教你怎麼切...
今天就開始我們的實作,這次我取用的資料是資通安全管理法,這邊可以直接點擊網站下載。 1. 取得文件內的文字要處理這個文件前,要先取得這個檔案的內容。 # 要先安...
前言 許多開發者初次接觸 AI Agent,會被 ReAct (Reasoning and Acting) 框架的簡潔與強大所吸引,並迅速用幾十行程式碼實現一...
這篇我們要來做一個實用又貼近生活的 AI Agent 範例——「銀行匯款 Agent」。 這個助理的任務很單純,就是幫我們完成一筆台幣(TWD)的國內匯款資料蒐...
延續上一篇文章,本篇將來實作一個 Single Agent 範例,目標是打造一個「應付帳款三方對帳(PO/收貨單/發票)稽核 Agent」,流程是把「採購單(P...
前言 在先前關於 Google Agent 白皮書的探討中,我們觸及了一個核心觀點:一個大型語言模型(LLM)之所以能被稱為「Agent」(代理人),其關鍵區...
透過前面幾篇文章的內容,對 Semantic Kernel 有了基本的認識,包含模型的連結、Prompt 的設計、plugin 的建立與使用、甚至加入短期記憶(...
概述 在過去短短兩年裡,大型語言模型(LLM)應用經歷了一場驚人的蛻變。我們從驚嘆於 ChatGPT 能寫詩作對、回答知識性問題的「聊天機器人」時代,迅速躍遷...
新來的朋友,建議可以先回顧前幾天的文章,之前已經分別聊過 RAG 的兩大流程: Indexing pipeline:資料怎麼被處理、切割、轉換成向量,最後存進...
上一篇討論了 Semantic Kernel Plugins 的複雜參數支援,今天我們來探討另一個重要議題:在設計 AI Agent 系統時,應該選擇 Sing...
延續 Day 7|Generation pipeline:AI 如何把知識取出來用 的內容,這邊要講到 Prompt Engineering,這邊會很重要的原因...
概述 在上一篇文章中,我們達成了一個重要的共識:Prompt 不僅是與 AI 的對話,它更是需要用工程紀律來嚴謹對待的 API 請求。我們也意識到,由多個 P...
在 Day 7|Generation pipeline:AI 如何把知識取出來用 有說到檢索方式其實有很多種,今天就來介紹幾種常見的檢索方式。 1. TF-...
前一篇在開發 Conjure Piglet Client 時,提到了第三方函式庫 WebSocket 。我一開始還一度天真地以為,我只要找一些 Neovim p...
之前我們已經討論過 Indexing pipeline 是怎麼把知識存進去,現在就要來看 Generation pipeline 如何把知識「取出來用」。這邊可...
在前面幾天的內容中,探討了 Function Calling 的基本概念,也實作了簡單的 Plugin 來讓 AI Agent 具備調用工具的能力。但隨著業務需...
概述 在先前的章節中,我們已經深入探討了大型語言模型(LLM)在可觀測性領域中的定位與重要性。我們認識到:LLM 可觀測性的核心,在於如何評估其輸出的不確定性...
上一篇的內容提到如何撰寫與掛載 Plugins(Tools) 到 Semantic Kernel 中,除了 Plugins(Tools) 的設計與實作之外,控制...
概述 在上一篇文章中,我們深入探討了 LLM 應用的獨特性。它是一個機率性的、以語義為核心的「黑盒子」。我們意識到,傳統的監控手段已無法應對其在遙測、輸出、成...
新來的朋友,一樣先建議先回顧先前的文章,才會比較明白整個 Indexing pipeline 的流程以及這章是在哪個環節噢!文章在這:Day 3|Indexin...
概述 在過去幾篇文章中,我們從傳統監控一路聊到「可觀測性 2.0」,並探討了為何像 ClickHouse 這樣的 OLAP 資料庫會成為新時代的基石。這一切的...
延續昨天的 AI Agent Tools 設計原則,今天將透過實際的程式碼範例深入實作層面,介紹如何使用 Semantic Kernel 撰寫 Tools(工具...
怕大家突然看到這篇會不知道為什麼跳到這部分,如果是新來的朋友想了解詳細流程,可以先回顧我之前第三天的文章:Day 3|Indexing pipeline:如何為...
在前兩天的內容中,探討了 AI Agent 的概念以及 Semantic Kernel 的 Function Calling 機制,並且討論了並非所有 LLM...
昨天把 Indexing pipeline 跑過一遍:從資料載入、Chunking、Embeddings,到向量資料庫。要讓 RAG 找到「對的內容」,關鍵在第...