摘要這篇文章是一篇關於 Ollama 的詳細指南,介紹了 Ollama 這個開源本地大型語言模型運行框架。文章首先介紹了 Ollama 的背景、特性和優點,強...
提示工程(Prompt Engineering):Prompt 進階技法 chain-of-thought (CoT) 前言 前一篇提到 In-Context...
簡介 ggml 是 ggerganov 開發的一個機器學習框架,主打純 C 語言、輕量化且可以在 Apple 裝置上執行等功能。大概 2022 年底的時候,就常...
現在AI已經流行了好一陣子,有在關注AI Vtuber的各位一定都知道Vedal(計算機程序員和人工智慧開發者,利用大型語言模型生成了Neuro-sama的回應...
簡介 接下來要來討論如何微調 (Finetune) 一個大型語言模型。微調 LLM 與微調其他模型其實很相似,但是因為 LLM 的參數量較大,所以訓練的最低需求...
本篇我們要接續#1 製作屬於自己的 AI Vtuberhttps://ithelp.ithome.com.tw/articles/10352663 此流程通過整...
在上篇已經創建好Gemini api金鑰及創建使用者與AI對話視窗(連結在下面),今天要來實驗一個屬於自己的AI人物設置!上篇連結 #2 Python SDK...
摘要這篇文章介紹了一種名為 GraphRAG 的新型檢索增強生成技術,它由微軟研究團隊提出,旨在突破傳統 RAG 方法在處理複雜資訊時的局限性。GraphRA...
簡介 在開始實際操作 LLM 之前,我們先來瞭解 LLM 的訓練流程。訓練一個 LLM 通常包含兩個步驟:監督式微調與增強式學習,不過也有許多模型只做監督式微調...
簡介 在單張消費級顯卡上全微調 (Fully Fine-Tune, FFT) 一個 7B 參數量以上的模型幾乎是不可能的,這時神秘的笑臉再次出手拯救了我們。由...
摘要這篇文章深入淺出地介紹了 LangGraph,一種由 LangChain 團隊開發的工具,用於構建更靈活且複雜的 AI 代理工作流程。LangGraph...
摘要這篇文章深入探討了人工智慧領域從單一模型到複合式 AI 系統的轉變,並重點介紹了 AI 代理 的概念和應用。文章首先以智慧打卡系統為例,說明單一模型在處理...
🚀 vLLM介紹 vLLM是一個速度快、靈活又簡單好用的推理加速框架,主打使用PagedAttention管理kv cache,Model Paralleliz...
前言 這章來整理一下目前看到的繁體中文LLM,以及怎麼選擇適合自己任務的local LLM。 找local Model最重要的是模型的推理能力,模型對於特定任務...
前言 前一篇提到Prompt 的基本技法,本篇開始會談一些進階式的用法,首先來看的是In-Context Learning。雖然前一篇的Prompt 基本技法在...
摘要這篇文章探討了如何使用 LangGraph 與 LangFuse 打造全方位的 Agent 觀測系統。LangGraph 是一個用於構建複雜 AI 代理應...
摘要本文介紹了 LangGraph Studio,一個專為 AI 代理應用程式開發設計的整合開發環境 (IDE)。文章首先介紹了 LangGraph Stud...
簡介 Hugging Face 🤗 Transformers 是訓練 Transformer 模型最知名的套件沒有之一,此套件收入了許多知名模型架構、訓練演算法...
簡介 vLLM 是來自 UC Berkeley 的 Woosuk Kwon 和 Zhuohan Li 所製作的推論框架,使用 Paged Attention 技...
前言 前面講完linux的vLLM安裝使用,這次來介紹Windows版本的使用方式,筆者之前剛好借到一台windows電腦+RTX 4060 Ti * 2,就用...
摘要這篇文章探討了檢索增強生成 (Retrieval-Augmented Generation, RAG) 技術,它結合了資訊檢索和文本生成,以克服現有大型語...
摘要DSPy 是一個由 Stanford NLP 研究人員開發的框架,旨在簡化大型語言模型 (LLM) 的開發。它以 "Programming, n...
最近接觸到要將 LLM 放在 Windows 筆電上運行的案子,需對 llama.cpp 做一些自訂選項的編譯,因此無法直接拿 GitHub 上的 Releas...
簡介 上下文學習 (In-Context Learning, ICL) 是一種語言模型的現象,LLM 可以根據提供的範例來產生預測的標記,而不需要任何額外的微調...
前言 昨天的教學中,已經學會設定基本的OpenAI-Compatible Server方法了。 簡單回顧一下,若是什麼也沒設定,預設會是使用一個GPU。 🎮 筆...
前言 上一篇提到Prompt是LLM模型的誘發劑,本篇接續介紹Prompt的基本用法和一些初階技法,幫助讀者更有效的與這些語言模型互動。 接下來的內容均以Ch...
簡介 ONNX Runtime (ORT) 與其他推論框架相比,是個相對古老的框架。但是他的泛用性相當高,可以適用於幾乎任何模型上。而 ORT 不只專注在推論上...
摘要這篇文章旨在引導讀者學習如何利用 FastAPI 建構高效的後端服務,使用 Streamlit 打造互動式前端介面,並透過 LangServe 將 Lan...
簡介 雖然多數的 Local LLM 不會像 ChatGPT 一樣高達 175B 的參數量,但即便模型只有 7B, 13B,在只有一兩張 3090, 4090...
Groq 是一家美國的人工智慧公司,專注於硬體推論加速器的開發,近期以 LPU (Language Process Unit) 聞名。LPU 就跟 CPU 或...