iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

LLM 學習筆記 系列

筆者學習 Large-Scale Language Model (LLM) 的筆記。

鐵人鍊成 | 共 33 篇文章 | 78 人訂閱 訂閱系列文 RSS系列文 團隊消波塊上的海洋貓貓

LLM Note Day 31 - Flash Attention

簡介 最近 Hugging Face Transformers 整合了 Flash Attention 2,可以減少記憶體消耗並提昇模型運算的速度,且使用方式非...

2023-10-18 ‧ 由 Penut Chen 分享

LLM Note Day 32 - AutoGPTQ

簡介 GPTQ 是透過 Post-Training 的方式對模型進行量化,其準確率與速度通常比 bitsandbytes (BNB) 4-Bit 好一些,是個相...

2023-10-19 ‧ 由 Penut Chen 分享

LLM Note Day 33 - AutoAWQ

簡介 Activation-Aware Weight Quantization (AWQ) 是類似於 GPTQ 的另外一種量化方法,同樣也是透過少量的校準資料集...

2023-12-05 ‧ 由 Penut Chen 分享