iT邦幫忙

鐵人檔案

2021 iThome 鐵人賽
回列表
AI & Data

Adapter Transformers 的黑魔法,超強適應力的 NLP 模型誕生了? 系列

Adapter 是能夠大幅縮短 Transformers 模型訓練時間,並保持原有表現,還使模型需要儲存的大小變得非常小的技術。

我在 2021 年 Google Summer of Code 的專案中,初次接觸 Adapter Transformers,在此將我的使用心得與大家分享。想要在 NLP 領域更上一層樓的你,絕對不能錯過!

參賽天數 0 天 | 共 0 篇文章 | 1 人訂閱 訂閱系列文 RSS系列文
還沒有任何文章哦