iT邦幫忙

2024 iThome 鐵人賽

DAY 6
0
生成式 AI

LangChain、RAG、HuggingFace: 玩轉大語言模型系列 第 6

<玩轉大語言模型> LLM模型部屬: HuggingFace & Transformer (上)

  • 分享至 

  • xImage
  •  

上一篇我們看了如何使用Ollama快速方便的去跑model,今天我們要來看另一種部屬模型的方式,也就是用HuggingFace的Transformer!

首先我們就先來了解一下HuggingFace和transformer是什麼


HuggingFace

HuggingFace是一個集合AI資源,AI開發的重要平台,平台上有幾乎所有現在熱門的最新模型,像是llama、gemma、mistral等等都有,除了這些,HuggingFace還是一個開放的AI Community,所有人,不管是企業、機構、還是個人開發者,都可以在上面上傳分享自己的pretrained模型,也就是說HuggningFace就是一個非常巨大而且完整的model library,大家都可以輕鬆的下載、部屬並使用這些模型,讓AI的開發流程更為便捷簡易,就像它們官網上的標語 
"The AI Community building the future. The Home of Machine Learning."

Transformer

transformer是HuggningFace的核心架構,這個架構有API可以直接來使用平台上這些模型,像是Bert、GPT、llama等等,並在這些基礎上去開發,例如進行微調或是其他運用,他也可以將模型直接保存在本地,再由這個架構去調用,這也是我們此篇會做的事!


那我們就開始進行transformer運行模型的實作吧!

首先先在環境裡下載transformer和huggingface-hub套件
transformer自然就是核心框架,huggingface-hub則是要讓某些需要授權的模型可以使用

這邊可以選擇使用conda,或是直接用pip( python 套件管理工具) 進行安裝,只需要確認你目前activate的環境是我們所使用的虛擬環境,不會影響到全局的部分就可以了。

指令如下

pip install transformers huggingface_hub

// 通道直接使用conda-forge就可以了
conda install conda-forge::transformers
conda install conda-forge::huggingface_hub

接下來我們先去HuggingFace官網註冊帳號,並申請token
https://ithelp.ithome.com.tw/upload/images/20240920/20160630PpqP9h26lC.png

申請完之後,在專案的terminal中輸入以下指令

huggingface-cli login

一切都ok的話就會出現這樣
https://ithelp.ithome.com.tw/upload/images/20240920/20160630Bz1puAGk31.png
我們就可以將剛剛申請的token輸入進來了!要這樣是因為有些模型需要你先在HuggingFace的模型頁面上進行申請的動作,直到他申請通過才會有使用權限。
這邊特別需要注意一下,這邊輸入的token都會是隱形的,也就是就算你有複製成功過來,也一樣看不到
且在terminal裡進行複製的動作時,我記得有些複製訊息的方法是不能用的,所以這邊假如失敗的話可以多試幾次。

這樣本地的HuggingFace就設定完了!我們下一篇就馬上來看使用transformer實作運行模型input output的部分!


HuggingFace官網


上一篇
<玩轉大語言模型> LLM模型部屬: Ollama
下一篇
<玩轉大語言模型> LLM模型部屬: HuggingFace & Transformer (下)
系列文
LangChain、RAG、HuggingFace: 玩轉大語言模型12
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言