前言
近期中研院運用了一個名為Llama-2-7b的模型來對兩個資料集:COIG-PC和dolly-15k進行微調,但由於這些資料都是簡體中文,因此在上線時引發...
簡介
除了下層的推論框架以外,也有非常多人在關注上層的應用開發,其中最炙手可熱的當屬 LangChain 框架。當我們開始實際使用 LLM 開發相關應用程式時,...
前言
上一篇提到Prompt是LLM模型的誘發劑,本篇接續介紹Prompt的基本用法和一些初階技法,幫助讀者更有效的與這些語言模型互動。
接下來的內容均以Ch...
全端 LLM 應用開發-Day11-用Hugging Face 來做 Embedding
我們昨天提到,transformer 也可以拿來做 embedding...
Semantic Kernel的實踐:Semantic Kernel 概觀
前言
在開始使用 Semantic Kernel 之前,先從概觀的角度來理解 Sem...
深度學習加速:在PyTorch中充分發揮GPU的威力
深度學習已經成為解決各種複雜問題的重要工具,然而隨著模型變得越來越大,訓練深度學習模型變得非常耗時,為了...