首先先來到 Ollama Github 頁面,並且根據作業系統選擇對應的安裝方式
這邊以 Linux 為範例!
輸入這行指令 -> curl -fsSL https://ollama.com/install.sh | sh
並且等待下載完畢,由於 Llama.cpp 可以運行在只有 CPU 的環境,所以即使沒有 Nvidia GPU 也可以
再來我們要下載我們需要使用的模型,這邊以 Meta 的 Llama3.2 3B 來做範例
我們來介紹一下,模型的資料庫 Ollama hub,
這邊存放了幾乎所有可以拿來推理的模型
那我們在搜尋框輸入 llama3.2
並且點選搜尋結果,右上角會有一個 ollama pull <model>
的指令,我們將其複製起來,並且貼到終端上面
在下載過後就能與 llm 模型進行對話
那麼至於實作的話,其實也很簡單,這邊也用 Python 去實作
那這邊我們需要先安裝套件
pip install ollama
再來直接上一個範例程式碼
import ollama
client = ollama.Client()
print(client.chat(
model="llama3.2:3b",
messages=[{
"role": "user",
"content": "Hello, can you introduce yourself"
}]
).message.content)
我們可以單純的透過程式碼去與 LLM 互動了!