提到AI學習,我們人類單體Sensor和處理器肯定應付不過來,那麼借鑒機器之間能夠合成算力,我們需要Call out支援,學習Docker我們有Dockerhub、學習Git我們需要Github、學習微積分我們有Pornhub、學習機器語言就不得不提到Hugging face hub 抱臉怪客
在普通人的眼中,人工智慧一向都屬於相對冷門的技術領域,無論是充斥著大量數字、模型的演算法,還是由各種機械零件組裝成的機器人,都不免讓人感到有些距離感。但作為專為人工智慧開發者服務的Hugging Face卻主打了一個反差萌,笑臉Emoji再加上一雙攤開的小手,logo甚至有點過份可愛。Hugging face的特點Transformers之外還建立了Tokenizers、Datasets、Accelerate等庫,從模型到資料集、從託管平台到性能最佳化,以開源社群為載體,Hugging Face已建立起了完整的人工智慧開發生態,涵蓋了 NLP、電腦視覺、語音、時間序列、生物學、強化學習等各個領域。
Hugging Face 有完整的生態系和社群,我們幾乎可以只使用 Hugging Face ,就做完大部份最困難的 Transformer 的部份,其授權是 Apache-2.0 license,也就是說完全免費且可以商用,並且不會被強迫開源。用如此開放的開源授權,加上解決了做 Transformer 應用程式的最大痛點,「開源社群」的力量在這場AI強大的競爭甚至威脅到Google和 OpenAI。
作為一個 AI 領域的 Github,它提供了大量高品質的開源模型與工具,將研發成果最大程度地惠及社群,極大地降低了 AI 的技術門檻,推進了 AI 的「民主化」進程。
Hugging face這些抱臉怪客們的特點就是變形,在AI的研究中,每個實驗室所開發出來的模型,如果要移植到自己的應用程式上面也很困難,有的人用Tensorflow、有的佑用PyTorch,更甚者用更特殊的框架,而Transformers變形
的特點把這些不同架構的模型,包成規格統一的 API ,讓工程師可以更容易使用,進而讓這些先進的模型落地在各行各業。
https://github.com/huggingface/transformers
Transformers 庫支持 PyTorch、TensorFlow 和 JAX 之間的框架互通性,這確保了在模型生命週期的每個階段使用不同框架的靈活性。而且,透過 Inference API(推理 API),使用者可以直接使用 Hugging Face 開發的模型與資料集,進行推理、遷移學習,這讓Transformers 框架在性能與易用性上達到業界領先水準,徹底改變了深度學習在 NLP 領域的發展模式。
基本上Hugging face 已經成為了AI學習的主流軟體,所以要從事科技相關的行業,不用Hugging face舉足輕重的程度就如學Code不用Github,基本離不開資訊人的生活,在浪潮中興起的開源第三勢力抱臉怪,是如同C4土製炸藥般強大的存在,開源複製變形的特性,使他成為了對抗資本化AI窮人的原子彈。
https://www.techbang.com/posts/105484-hugginggpt-is-on-fire-what-is-hugging-face-hugging-face-a-2
https://www.techbang.com/posts/106333-what-openai-and-google-are-most-afraid-of-is-an-open-source
https://arxiv.org/abs/1706.03762
Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems 30 (2017).