AI & Data
Adapter Transformers 的黑魔法,超強適應力的 NLP 模型誕生了? 系列
Adapter 是能夠大幅縮短 Transformers 模型訓練時間,並保持原有表現,還使模型需要儲存的大小變得非常小的技術。
我在 2021 年 Google Summer of Code 的專案中,初次接觸 Adapter Transformers,在此將我的使用心得與大家分享。想要在 NLP 領域更上一層樓的你,絕對不能錯過!
參賽天數 0 天 |
共 0 篇文章 |
1 人訂閱
訂閱系列文
還沒有任何文章哦