iT邦幫忙

2024 iThome 鐵人賽

DAY 13
0
生成式 AI

RAG自己來系列:客服機器人系列 第 13

[Day 13] 文字生成「服務」

  • 分享至 

  • xImage
  •  

前一天講了 text-generation-webui,今天來講另一個也是拿來做文字生成工作的工具,Ollama

https://ithelp.ithome.com.tw/upload/images/20240921/20146555r3Pn5W6mQh.png

這次為何要使用這個呢,其原因也是我覺得 Ollama 某方面的表現優於 text-generation-webui,如 VRAM 使用量,生成速度等等的優點。

介紹 & 安裝

Ollama在 github 上有 8.5 萬顆星的 MIT 開源專案,它能讀的模型不像昨天的開源專案一樣,能支援各種不同的大型語言模型,Ollama 只能吃 ".gguf" 格式的模型,但其優點是將大型語言模型的權重儲存在記憶體(RAM)中,不再那麼依賴 VRAM 的硬體門檻。

安裝方法也極其簡單,首先先來到 ollama 的 repo 頁面

https://ithelp.ithome.com.tw/upload/images/20240921/20146555blXJwNLgea.png

Linux 系統使用者只要輸入以下指令即可,windows 的話則需下載 exe 檔

curl -fsSL https://ollama.com/install.sh | sh

https://ithelp.ithome.com.tw/upload/images/20240921/20146555ziNUQMNxKP.png

這邊特別注意那個The Ollama API is now available at 127.0.0.1:11434以後會考

可透過 systemctl 確認服務運行狀況

https://ithelp.ithome.com.tw/upload/images/20240921/20146555MObiTueeEM.png

確認 status 為 active 狀態後就可以開始下載模型了

下載模型

官方也提供了一個與 Huggingface 相似的網站,專門拿來存放使用者們上傳的語言模型

https://ithelp.ithome.com.tw/upload/images/20240921/201465557LRmPXLonk.png

本篇範例將使用 Google 釋出的 Gemma2

https://ithelp.ithome.com.tw/upload/images/20240921/20146555cxdrAS8yVV.png

因此在終端中輸入 ollama pull gemma2 就可以下載模型了
(ollama pullollama run 的效果一樣,只是後者會在下載完模型後自動讀取模型)

https://ithelp.ithome.com.tw/upload/images/20240921/20146555yPYfzyTVeS.png

下載完後我們可以透過 curl 工具確認模型的效果

curl http://127.0.0.1:11434/api/generate -d '{
  "model": "gemma2",
  "prompt":"Why is the sky blue?"
}'

https://ithelp.ithome.com.tw/upload/images/20240921/20146555ZtYXQmBClr.png


上一篇
[Day 12] 圖形化文字生成工具
下一篇
[Day 14] 介紹文字生成框架 - Langchain
系列文
RAG自己來系列:客服機器人30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言