iT邦幫忙

transformer相關文章
共有 56 則文章
鐵人賽 AI/ ML & Data DAY 26

技術 [Day 26] Transformer:自然語言處理的關鍵技術

Transformer 前言 昨天提到的大型語言模型(LLM)依賴一個非常關鍵的技術架構——Transformer。它在自然語言處理(NLP)領域掀起了革命性的...

鐵人賽 AI/ ML & Data DAY 17

技術 Day16:時間序列預測--Transformer

在本節中,我們將探索如何使用現代深度學習模型——Transformer,進行股票價格的預測。我們將使用昨天中用於 LSTM 的相同數據,即蘋果公司(AAPL)的...

鐵人賽 AI/ ML & Data DAY 13

技術 Day13: DPL-建立規則來讓Chatbot知道怎麼回覆

今天我們要以規則式(rule-based)來建構一個對話模擬器。模擬當使用者跟Chatbot溝通時,如何不使用任何深度學習模型來決定如何回覆。所以我們不廢話了,...

鐵人賽 生成式 AI DAY 7

技術 <玩轉大語言模型> LLM模型部屬: HuggingFace & Transformer (下)

在上一篇將本地HuggingFace Hub設置完成之後,我們的帳號就等於有連接到本地了那我們現在就開始進行模型的部屬使用! 首先,先去 HuggingFac...

鐵人賽 生成式 AI DAY 6

技術 <玩轉大語言模型> LLM模型部屬: HuggingFace & Transformer (上)

上一篇我們看了如何使用Ollama快速方便的去跑model,今天我們要來看另一種部屬模型的方式,也就是用HuggingFace的Transformer! 首先我...

鐵人賽 AI/ ML & Data DAY 2

技術 Day2 AI國度的導覽-生成式AI歷史與介紹

歡迎各位第一天的旅程,今天我們來到了AI國度,就讓我們好好了解一下這裡的風景與歷史吧! 因為時間並不多,所以我們主要的導覽重點會集中在「生成式AI」,如果有什麼...

鐵人賽 生成式 AI DAY 2

技術 Day2 什麼是大語言模型LLM?

LLM在AI中的位置 在生成式AI百家爭鳴的今日,大家會很常聽到機器學習、深度學習、生成式AI、大語言模型、RAG、Fine-tuning等很多和AI相關的名...

技術 Transformer訓練程式碼 PART2

訓練程式碼 part.2 import torch from tqdm.auto import tqdm progress_bar = tqdm(range(...

技術 Transformer訓練程式碼

訓練過程 from torch.utils.data import DataLoader from transformers import AutoModelF...

技術 訓練Pytorch的Transformer模型

樣本資料準備 ''' Hyperparameters: These values define the architecture and behavior of...

技術 徒手建立基於Pytorch的Transformer模型

安裝Pytorch pip3 install torch torchvision torchaudio 或在Conda環境可以使用以下程式碼: conda i...

鐵人賽 自我挑戰組 DAY 9

技術 Day 9 - Transformer模型 -- 架構篇(3)

以上圖出自李謦伊 今天我們要細講 Transformer 模型架構的 Decoder(解碼器) 的部分,也就是圖中的右半部,這邊會說明它跟 Encoder 的...

鐵人賽 自我挑戰組 DAY 8

技術 Day 8 - Transformer模型 -- 架構篇(2)

今天我們要細講 Transformer 模型架構的 Encoder(編碼器) 的部分,也就是圖中的左半部,那我們就一一剖析裡面的每一層在做哪些事情 以上圖出自...

鐵人賽 自我挑戰組 DAY 7

技術 Day 7 - Transformer模型 -- 架構篇(1)

Transformer 模型架構主要由兩個區塊組成,左側是 Encoder(編碼器),右側是 Decoder(解碼器) (這邊先簡單說明,下一章節回詳細解析兩...

鐵人賽 自我挑戰組 DAY 6

技術 Day 6 - NLP常用的Transformer模型 -- 簡介篇

&quot;Transformer模型&quot; 是一種深度學習架構,最初由Google於2017年提出。它是一種用於處理序列數據的神經網絡架構,特別在自然語...

鐵人賽 AI & Data DAY 6

技術 【Day6】淺談Transformer-跟變形金剛一樣強大

Transformer是一種深度學習模型架構,最初由Google Brain團隊在2017年發表了一篇論文 Attention Is All You Need...

鐵人賽 AI & Data DAY 2
LLM 學習筆記 系列 第 2

技術 LLM Note Day 2 - 神經網路語言模型

簡介 透過文本捕捉語言結構,進而建立一個統計機率模型,廣義而言就可以被稱作一種語言模型。本文主要介紹透過神經網路訓練出來的語言模型,以及常見 Transform...

鐵人賽 AI & Data DAY 28

技術 # Day28- Hugging Face Optimum Quantization

Quantization 是目前優化模型效能很常見的手法,簡單來說就是減少浮點數的精度範圍,使得模型更快更小,而我們可以透過 Optimum 很容易辦到這件事情...

鐵人賽 AI & Data DAY 27

技術 # Day27-Transformer 效能優化

這幾天玩下來,大家應該都有發現到一個問題,就是 Transformer 的效能不是太好,尤其你要在大吞吐量下運作,想必是非常的耗費運算資源。更不用說在不久的將來...

鐵人賽 AI & Data DAY 26

技術 # Day26- 當代QA系統的架構

昨天我們用 Hugging Face 做了QA ,但是大家想必發現了很麻煩的一件事情:每次都要把 context 送進去才行。這真的很麻煩,而且處理 conte...

鐵人賽 AI & Data DAY 25

技術 # Day25- Hugging Face 問答任務

很快地我們 Hugging Face 的旅程來到了最後一個任務:問答任務啦!Question answering 一直是自然語言處理中很困難的部份。最常使用的是...

鐵人賽 AI & Data DAY 24

技術 # Day24- Hugging Face Named Entity Recognition

今天我們來補充自然語言處理中的一個很重要的概念:Named Entity Recognition(NER)。 一般翻譯為命名實體辨識、命名實體識別,或也有人翻成...

鐵人賽 AI & Data DAY 24

技術 【NLP】Day 24: 欸!BERT!你在幹嘛呀?BERT 模型實作&程式碼解析

別想太多,做就對了!《捍衛戰士:獨行俠》 前兩天我們已經了解 BERT 的內部運作,還有 BERT 在進行語言處理上的一些缺陷。今天不聊理論,我們來簡單一一...

鐵人賽 AI & Data DAY 23

技術 # Day23- Fine-tuned 摘要任務的 transformer

今天我們講怎麼 find-tuned 摘要任務,今天會很吃 GPU ,不一定每個人都能跑,不過也有比較節省 GPU 的寫法。 我們來用這個 dataset ,...

鐵人賽 AI & Data DAY 23

技術 【NLP】Day 23: 幫你解決各類NLP任務的BERT,以及其他在芝麻街的好捧油們(下)

真正掌握權力的人,通常都躲在表面上有權力的人後面,操控著一切。法蘭西斯・安德伍德《紙牌屋》 這幾天在研究 BERT 的時候想著,如果要拿流行文化來比喻的話,...

鐵人賽 AI & Data DAY 22

技術 # Day22-評價摘要好壞的演算法

評價摘要的好壞 我們用了兩個模型做了摘要,那麼有沒有辦法評價摘要的好壞呢?常見評價摘要的算法有兩種,一個是 BLEU,一個是 ROGUE。 BLEU 是一種...

鐵人賽 AI & Data DAY 21

技術 # Day21-Hugging Face 摘要任務入門

摘要(summarization)也是自然語言處理中很常見的任務之一,今天我們就來看看 Hugging Face 如何幫我們幫我們做摘要吧! Encoder-D...

鐵人賽 AI & Data DAY 20

技術 # Day20-Hugging Face 中文的文本生成

應觀眾要求,希望快點講中文的自然語言處理,於是就插撥了今天的內容。中研院的詞庫小組有在 Hugging Face 上傳大量的基於繁體中文訓練的模型,可以參考這邊...

鐵人賽 AI & Data DAY 20

技術 【NLP】Day 20: 放點注意力在多頭上(NLP也有多頭啊!):Transformer(下)

空頭不死,多頭不止;多頭不死,空頭不止不詳 在股票市場中,人人著稱的一句話:「空頭不死,多頭不止;多頭不死,空頭不止。」意思是,如果股價在下降的趨勢時中,如...

鐵人賽 AI & Data DAY 19

技術 【NLP】Day 19: 注意!謝謝你的注意!Transformer (上)

如果我能看得更遠,那是因為站在巨人的肩膀上。牛頓 經過了前幾天的旅程,相信大家對於運用在自然語言處理的神經網路,應該已經有了一定程度的認識。神經網路是深度學...