在選擇模型時,我們經常會看到各種來自 Hugging Face 的開源模型。Hugging Face 究竟是什麼?
簡單來說,它是一個專為機器學習打造的開源平台,但它的意義遠不止於此。
Hugging Face 扮演著 AI 領域的「GitHub」角色,為全球的 AI 開發者提供了一個集中的場所,讓他們能夠:
分享與發現模型
平台上匯集了來自學術界、企業與獨立開發者所訓練的數十萬個模型,涵蓋自然語言處理(NLP)、電腦視覺(CV)、語音辨識等多種任務。本次專案我們使用 BERT-based Chinese 模型,在 NLP 領域中常見的預訓練模型之一。
使用開源函式庫
Hugging Face 提供了強大的函式庫,其中最著名的就是 Transformers。這個函式庫讓開發者能以極簡化的程式碼,輕鬆地載入、使用並微調各種 Transformer 模型,大幅降低了 AI 應用的門檻。
建立協作社群
藉由開源的特性,開發者們能夠互相學習、貢獻程式碼與模型,形成一個充滿活力的社群。這種協作模式加速了 AI 技術的發展,也讓最新的研究成果能迅速普及。
過去,訓練一個強大的語言模型需要龐大的計算資源與專業知識。但有了 Hugging Face,開發者不必從零開始,可以直接使用別人已經訓練好的模型作為基礎。
這不僅能大幅節省時間與成本,也讓個人開發者和中小型團隊有機會接觸並應用頂尖的 AI 技術。
Hugging Face 不僅是一個模型儲存庫,它更是一個完整的 AI 開發生態系,透過開源的力量,讓人工智慧的開發變得更加容易與普及。
因此,我們除了使用既有的 BERT-based Chinese 進行模型微調外,下一篇文章將實作把我們已經訓練好的模型部署到 Hugging Face 平台上。
https://ithelp.ithome.com.tw/m/articles/10317221