從 Day 1 到 Day 6,我們一步步打造了本地 LLM 的基礎環境。這一週的核心目標是:
✅ 讓模型能在自己的電腦上跑起來,並具備 API 呼叫能力。
經過六天的努力,我們已經完成:
llama2
測試推理/api/generate
正常運作ollama pull gemma3:4b
拉取模型nvidia-smi
/ htop
/ nvtop
監控效能[ 使用者 ]
⇔
[ Ollama CLI / API ]
⇔
[ LLM 模型 (LLaMA / Gemma / Gemini) ]
重點成果:
模型 | VRAM 需求 | 中文表現 | 程式碼生成 | 創意寫作 | 適合用途 |
---|---|---|---|---|---|
LLaMA 3 (7B) | ~5.7GB | ★★★★☆ | ★★★★★ | ★★☆☆☆ | 技術、程式碼 |
Gemma 3 4B | ~3.9GB | ★★★★☆ | ★★★☆☆ | ★★★★★ | 本地對話、創作 |
快速查看 GPU 狀態
nvidia-smi
watch -n 0.5 "nvidia-smi --query-gpu=memory.used,memory.total --format=csv,noheader,nounits"
即時監控 CPU / RAM
htop
容器管理神器:Portainer
→ 直接在瀏覽器操作容器,超直觀,方便GUI管理
節省 VRAM