Transformer 前言 昨天提到的大型語言模型(LLM)依賴一個非常關鍵的技術架構——Transformer。它在自然語言處理(NLP)領域掀起了革命性的...
在本節中,我們將探索如何使用現代深度學習模型——Transformer,進行股票價格的預測。我們將使用昨天中用於 LSTM 的相同數據,即蘋果公司(AAPL)的...
今天我們要以規則式(rule-based)來建構一個對話模擬器。模擬當使用者跟Chatbot溝通時,如何不使用任何深度學習模型來決定如何回覆。所以我們不廢話了,...
在上一篇將本地HuggingFace Hub設置完成之後,我們的帳號就等於有連接到本地了那我們現在就開始進行模型的部屬使用! 首先,先去 HuggingFac...
上一篇我們看了如何使用Ollama快速方便的去跑model,今天我們要來看另一種部屬模型的方式,也就是用HuggingFace的Transformer! 首先我...
歡迎各位第一天的旅程,今天我們來到了AI國度,就讓我們好好了解一下這裡的風景與歷史吧! 因為時間並不多,所以我們主要的導覽重點會集中在「生成式AI」,如果有什麼...
LLM在AI中的位置 在生成式AI百家爭鳴的今日,大家會很常聽到機器學習、深度學習、生成式AI、大語言模型、RAG、Fine-tuning等很多和AI相關的名...
訓練程式碼 part.2 import torch from tqdm.auto import tqdm progress_bar = tqdm(range(...
訓練過程 from torch.utils.data import DataLoader from transformers import AutoModelF...
樣本資料準備 ''' Hyperparameters: These values define the architecture and behavior of...
安裝Pytorch pip3 install torch torchvision torchaudio 或在Conda環境可以使用以下程式碼: conda i...
以上圖出自李謦伊 今天我們要細講 Transformer 模型架構的 Decoder(解碼器) 的部分,也就是圖中的右半部,這邊會說明它跟 Encoder 的...
今天我們要細講 Transformer 模型架構的 Encoder(編碼器) 的部分,也就是圖中的左半部,那我們就一一剖析裡面的每一層在做哪些事情 以上圖出自...
Transformer 模型架構主要由兩個區塊組成,左側是 Encoder(編碼器),右側是 Decoder(解碼器) (這邊先簡單說明,下一章節回詳細解析兩...
"Transformer模型" 是一種深度學習架構,最初由Google於2017年提出。它是一種用於處理序列數據的神經網絡架構,特別在自然語...
Transformer是一種深度學習模型架構,最初由Google Brain團隊在2017年發表了一篇論文 Attention Is All You Need...
簡介 透過文本捕捉語言結構,進而建立一個統計機率模型,廣義而言就可以被稱作一種語言模型。本文主要介紹透過神經網路訓練出來的語言模型,以及常見 Transform...
Quantization 是目前優化模型效能很常見的手法,簡單來說就是減少浮點數的精度範圍,使得模型更快更小,而我們可以透過 Optimum 很容易辦到這件事情...
這幾天玩下來,大家應該都有發現到一個問題,就是 Transformer 的效能不是太好,尤其你要在大吞吐量下運作,想必是非常的耗費運算資源。更不用說在不久的將來...
昨天我們用 Hugging Face 做了QA ,但是大家想必發現了很麻煩的一件事情:每次都要把 context 送進去才行。這真的很麻煩,而且處理 conte...
很快地我們 Hugging Face 的旅程來到了最後一個任務:問答任務啦!Question answering 一直是自然語言處理中很困難的部份。最常使用的是...
今天我們來補充自然語言處理中的一個很重要的概念:Named Entity Recognition(NER)。 一般翻譯為命名實體辨識、命名實體識別,或也有人翻成...
別想太多,做就對了!《捍衛戰士:獨行俠》 前兩天我們已經了解 BERT 的內部運作,還有 BERT 在進行語言處理上的一些缺陷。今天不聊理論,我們來簡單一一...
今天我們講怎麼 find-tuned 摘要任務,今天會很吃 GPU ,不一定每個人都能跑,不過也有比較節省 GPU 的寫法。 我們來用這個 dataset ,...
真正掌握權力的人,通常都躲在表面上有權力的人後面,操控著一切。法蘭西斯・安德伍德《紙牌屋》 這幾天在研究 BERT 的時候想著,如果要拿流行文化來比喻的話,...
評價摘要的好壞 我們用了兩個模型做了摘要,那麼有沒有辦法評價摘要的好壞呢?常見評價摘要的算法有兩種,一個是 BLEU,一個是 ROGUE。 BLEU 是一種...
摘要(summarization)也是自然語言處理中很常見的任務之一,今天我們就來看看 Hugging Face 如何幫我們幫我們做摘要吧! Encoder-D...
應觀眾要求,希望快點講中文的自然語言處理,於是就插撥了今天的內容。中研院的詞庫小組有在 Hugging Face 上傳大量的基於繁體中文訓練的模型,可以參考這邊...
空頭不死,多頭不止;多頭不死,空頭不止不詳 在股票市場中,人人著稱的一句話:「空頭不死,多頭不止;多頭不死,空頭不止。」意思是,如果股價在下降的趨勢時中,如...
如果我能看得更遠,那是因為站在巨人的肩膀上。牛頓 經過了前幾天的旅程,相信大家對於運用在自然語言處理的神經網路,應該已經有了一定程度的認識。神經網路是深度學...