如何充分利用OpenAI的API,以創建更為智能和多元化的AI應用。其中一個關鍵是Prompt,提示工程是一種獨特的技術,透過精心設計和優化OpenAI的輸入與輸出,使AI更能準確地理解並回答人類的問題,進而使LLM模型能生成更好的回應。而語義核心則是一種開源的SDK,它讓開發者能夠使用常見的程式語言,如Python或C#,來整合OpenAI以及其他AI服務,例如Azure OpenAI和Hugging Face。更進一步地,開發者可以透過插件和記憶體來擴展AI的技能和靈活性,是一個以面向開發者為主的SDK,適合運用在較複雜的LLM模型整合性應用場景。
前言 前一篇以一個範例示範在不依賴任何SDK之下,如何用Prompt技巧實作LLM應用,或許接下來的疑問是,那為何需要Semantic Kernel呢?究竟Se...
前言 這一篇其實是個意外,前幾天在某個AI大師對談的活動上出現一個提問,在網路上引起了不小的討論,提問是這樣的 什麼是LLM 突然意識在談LLM的開發,但卻...
Semantic Kernel的實踐:Semantic Kernel 概觀 前言 在開始使用 Semantic Kernel 之前,先從概觀的角度來理解 Sem...
前言 前一篇從概觀的角度理解 Semantic Kernel,並且概述了Semantic Kernel核心的5個元素,本篇以一個簡單的Sample來體會一下如何...
前言 前一篇以一個簡單的Sample體會如何使用Semantic Kernel,接著就要來細說Semantic Kernel的細節,本篇先從 Kernel開始。...
前言 plugins是Semantic Kernel的核心組成之一,主要功用是封裝能力組成,交由Kernel來運行,提升LLM應用的層面,本篇來認識 plugi...
前言 前一篇我們認識了Plugins以及它在Semantic Kernel裡的作用,本篇就開始動手來打造Plugins,首先來看的semantic functi...
前言 在前一篇文章中,探討了Semantic Functions的Inline寫法,透過Prompt Engineering的概念,展現了LLM模型的能力。然而...
前言 前面二篇談論如何建立與使用 semantic functions,接下來要談的就是Plugins的另一種function型態 - native funct...
前言 前一篇介紹如何撰寫 Native Functions,並且示範如何在程式流程中依邏輯順序分別調用 Semantic Function與Native Fun...