iT邦幫忙

2024 iThome 鐵人賽

DAY 28
1

▋用Ollama部屬地端LLM模型


https://ithelp.ithome.com.tw/upload/images/20241012/20169058MXF74icSJH.png
Ollama是個開源的模型管理服務,可以讓我們可以透過指令,快速地將模型部屬成可用的服務。進到Ollama官網就可以看到可愛的羊駝logo。

安裝Ollama

  1. 官網中點選Download下載,點擊自己開發環境的作業系統。在這裡我們選擇Linux,點擊後可以直接看到安裝的指令:
    https://ithelp.ithome.com.tw/upload/images/20241012/20169058WuGhMXRYYc.png

  2. 回到開發環境中的終端機,以剛才的指令安裝Ollama:

# 由於會使用到curl指令,若還沒有的話需要執行此步驟來安裝,有的話可跳過此步驟。
sudo apt install curl

# 安裝ollama
curl -fsSL https://ollama.com/install.sh | sh

安裝LLM模型 - llama3

  1. 安裝完Ollama,接著來選擇想要下載的模型吧,在Ollama官網的Model頁面可以看到模型列表:
    https://ithelp.ithome.com.tw/upload/images/20241012/201690583nEjBhSMXE.png
    可以看到最新的LLM模型是llama3.2,這些都可以下載來使用的,不過為了文章的連貫性,這裡會選擇上一篇文章中的llama3。

  2. 執行ollama run指令,下載並運行LLM模型:

ollama run llama3

https://ithelp.ithome.com.tw/upload/images/20241012/20169058HTUrepZIwi.png

執行完成之後可以馬上和模型開始對話。

安裝Embedding模型 - mxbai-embed-large

  1. 執行ollama run指令,下載並運行Embedding模型:
# 下載並運行Embedding模型
ollama run mxbai-embed-large

# 確認下載的模型清單
ollama list

https://ithelp.ithome.com.tw/upload/images/20241012/20169058wWEK1Kobuh.png
同樣執行ollama run指令,我們也可以下載指定的Embedding模型,不過因為這個不是負責生成對話的模型,所以沒辦法直接運行跟模型互動對話。接者,確認我們的模型下載清單,可以看到現在有了llama3和mxbai-embed-large兩個不同功能的模型了。

接下來,就可以依照上一篇提到的設定方式,將我們的地端模型和Dify做連接設定,這樣一來,我們的地端聊天機器人就有聊天和文字轉向量的功能啦。

▋下回預告


啟用了地端的模型服務之後,明天我們就來使用這些模型的功能,先試試看餵文檔給聊天機器人。

▋參考資料


Ollama官網
https://ollama.com/
How to Run Your Own Uncensored AI on Ubuntu - Mistral 7B LLM
https://www.youtube.com/watch?v=7d22hCagG0w
五分鐘上手 Ollama - 在本機跑 LLM 語言模型
https://ywctech.net/ml-ai/ollama-first-try/

▋後記


不知不覺又學會了一項技能,我們現在不只成功部屬了網站服務,還學會了使用ollama來啟用模型服務。


上一篇
Part2: 地端實作聊天機器人-在Dify設定模型
下一篇
Part2: 地端實作聊天機器人-結合Celery上傳文檔&建立知識庫
系列文
從Azure雲端服務架構入門,在本地端結合RAG&LLM打造專屬的聊天機器人。30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言