繼上一篇將環境布置好後,我們就要開始將本系列文的重點核心 LLM 在本地部屬
看到這個章節的標題,你可能會問,現在的生成式AI在WEB上那麼的方便好用,甚至在某些模型,你還可以直接要求他上網搜尋相關資料,那為何還要將模型部屬至本地?這不是多此一舉嗎?因此在章節開始之前,我們先來談談其中的差異、優劣及限制。
模型本地部屬的好處,我大概會分成三點來談:
前面講了那麼多好處,但其實在本地部屬LLM也是有一些顯而易見的限制、缺點的,我認為其中最大、也是最初的限制就是本身的硬體:
你的硬體的效能直接決定了你本機能夠運行的模型種類、大小、效能等等,會影響到的硬體有: GPU、 GPU的VRAM、CPU、RAM、硬碟等等。
再來其實就是技術門檻的問題,想在本地部屬大語言模型涉及了很多的技術,許多的步驟、條件等等,並且要讓模型在本地穩定的運行,產出你期待的結果,還需要許多的調整、嘗試。
總結來說,在本地部屬LLM會需要付出一定的硬體、技術、時間成本。
下一篇就會開始介紹將模型本地部屬的方法以及實際操作!