iT邦幫忙

bert相關文章
共有 24 則文章
鐵人賽 AI/ ML & Data DAY 23

技術 Day23 文字類型特徵提取

我們有說過,在資料處理的時候,文字、聲音、影像三個方法要分別處理,即使是多模態(兩種以上方法混合),也是要各自處理完之後再合一。 今天我們就來說說,在處理文字資...

鐵人賽 AI/ ML & Data DAY 9

技術 [Day 9] Data "Diversity" is King! 運用 LLM 和 Meta Pseudo Labeling 擴增數據集, 佐以 DeBERTa 和 LBGM 的多模態策略

今天會帶大家一步一步解析本賽題第一名🥇的思路🤩,在過程中可以學到如何使用 LLM 生成 high quality 的假資料,並用 Meta pseudo lab...

鐵人賽 AI/ ML & Data DAY 9

技術 AI心靈讀者:BERT如何揭開情感的面紗

BERT 不僅僅是個能讀懂文字的模型,它還能通過理解上下文來識別語句中的情感。今天,我們要揭開 BERT 如何成為情感讀者的神秘面紗,看看它如何通過「讀懂」文本...

鐵人賽 AI/ ML & Data DAY 11

技術 Day11: 貼心小助理之實作T5對話追蹤器

昨天,我們解說了對話狀態追蹤,用來紀錄每輪對話提到的重要資訊。這篇我們來用T5實做一個對話追蹤器。 mT5(multilingual Text-To-Text...

鐵人賽 AI/ ML & Data DAY 18

技術 Day18: MINDACT-可以幫你上網訂票和發廢文的終極Chatbot

最近Threads上出現一堆電子乞丐和風向文,讓人看了實在很躁。 或許有人會嗆:「不爽就不要看!」但人是犯賤的生物,你們會PO帳單條碼,我們就想臭。 我不禁思考...

鐵人賽 AI/ ML & Data DAY 9

技術 Day9: 以Chatbot NLU來讀懂你的心❤️

昨天我們一起瞭解了什麼是NLU,為什麼Chatbot需要NLU。那我們一樣來個小程式,來介紹我們如何使用BERT來觀察語言模型是怎麼理解我們所說的話~ 下載並安...

鐵人賽 AI/ ML & Data DAY 10

技術 Day10: DST-讓Chatbot紀錄對話中重要的資訊

我們從前面兩天瞭解了Chatbot 以NLU任務解析話語中的含義,以及將有意義的資訊擷取出來。 但是如果你今天到一間旅館,要求住宿,總不可能只率性的說一句「今晚...

鐵人賽 AI/ ML & Data DAY 8

技術 Day8: NLU-什麼是意圖之讓Chatbot瞭解話中有話

昨天介紹了Guiding Chatbot,讓Chatbot理解情緒並且嘗試引道話語者的情緒。從昨天的研究我們可以知道,對於Chatbot而言,我們講出來的話(下...

鐵人賽 AI & Data DAY 24

技術 【NLP】Day 24: 欸!BERT!你在幹嘛呀?BERT 模型實作&程式碼解析

別想太多,做就對了!《捍衛戰士:獨行俠》 前兩天我們已經了解 BERT 的內部運作,還有 BERT 在進行語言處理上的一些缺陷。今天不聊理論,我們來簡單一一...

鐵人賽 AI & Data DAY 23

技術 【NLP】Day 23: 幫你解決各類NLP任務的BERT,以及其他在芝麻街的好捧油們(下)

真正掌握權力的人,通常都躲在表面上有權力的人後面,操控著一切。法蘭西斯・安德伍德《紙牌屋》 這幾天在研究 BERT 的時候想著,如果要拿流行文化來比喻的話,...

鐵人賽 AI & Data DAY 20

技術 【NLP】Day 20: 放點注意力在多頭上(NLP也有多頭啊!):Transformer(下)

空頭不死,多頭不止;多頭不死,空頭不止不詳 在股票市場中,人人著稱的一句話:「空頭不死,多頭不止;多頭不死,空頭不止。」意思是,如果股價在下降的趨勢時中,如...

鐵人賽 AI & Data DAY 19

技術 【NLP】Day 19: 注意!謝謝你的注意!Transformer (上)

如果我能看得更遠,那是因為站在巨人的肩膀上。牛頓 經過了前幾天的旅程,相信大家對於運用在自然語言處理的神經網路,應該已經有了一定程度的認識。神經網路是深度學...

鐵人賽 自我挑戰組 DAY 30

技術 [Day30] BERT(三)

一. Fine-tine BERT 昨天是直接利用pretrained過的bert直接將句子轉成編碼的形式,今天主要會說明Fine-tune BERT的任務,F...

鐵人賽 自我挑戰組 DAY 29

技術 [Day29] BERT(二)

一. 預訓練的BERT 接下來會介紹hugging face這個團隊提供的BERT的套件來做介紹~BERT的model本質本來就是預訓練模型。今天主要介紹 Be...

鐵人賽 自我挑戰組 DAY 28

技術 [Day28] BERT(一)

一. 介紹 Bert全名為Bidirectional Encoder Representation from Transformers,目前Bert與其他以BE...

鐵人賽 AI & Data DAY 9

技術 【Day 9】預訓練任務大改:Splinter在QA任務上的成功嘗試

BERT系列的預訓練模型一個個出,RoBERTa、XLNet、DeBERTa等等一個比一個更能打,刷新著自然語言理解的GLUE榜單。這些都是通用型的預訓練語言模...

鐵人賽 AI & Data DAY 8

技術 【Day 8】Adaptation!適應!讓BERT更好地過渡到下游任務!

今天開始,我們要進入一個新的主題「Adaptation」。這是指在預訓練模型和Fine-tune之間對模型額外做一個「適應」(Adaptation)的動作,讓B...

鐵人賽 AI & Data DAY 7

技術 【Day 7】BERT的[CLS]真的能代表句義嗎?

恭喜,BERT模型的基礎部分已經講解到昨日為止了,接下來我們來談一些質疑、檢討、改進基礎BERT的內容。今天我們來講解一個頗有爭議的問題:[CLS]是否真的能代...

鐵人賽 AI & Data DAY 5

技術 【Day 5】BERT家族的成員們

當本系列文章提到BERT時,最初是指Google所開發的BERT,但後續基本就是指所有運用Transformer和預訓練模式的語言模型。今天這篇文章就是在廣義的...

鐵人賽 AI & Data DAY 4

技術 【Day 4】輸出之後,BERT轉換的Embedding怎麼用?

在此之前,我們已經介紹過BERT的核心概念遷移學習Transfer Learning以及它的輸入輸出。那麼接下來的問題就是BERT將詞語轉換為包含了上下文資訊的...

鐵人賽 AI & Data DAY 3

技術 【Day 3】BERT的輸出與它們的意義

BERT輸出了什麼? 回應上一篇關於詞嵌入Token Embedding的討論,BERT的輸出就是文本序列中每個詞單位的高維向量表示,你也可以把它當成一連串抽取...

鐵人賽 AI & Data DAY 2

技術 【Day 2】詞嵌入與BERT的輸入

如何從實戰層面認識BERT BERT的研究與應用可以分為不同的層次。你可以鑽研BERT的模型技術細節,瞭解它為什麼這麼有效,甚至可以發現其中有問題的設計來加以改...

鐵人賽 AI & Data DAY 1

技術 【Day 1】誰是BERT?如何BERT?BERT的基礎介紹

從芝麻街角色到改變NLP的模型 如果你用Google以「BERT」作為關鍵字搜尋圖片,那麼你會發現一個奇特的現象:一隻黃色的玩偶與奇怪的網狀結構模型混雜在一起。...

AI 高中生的自我學習 系列 第 24

技術 Day 24 - 天眼CNN 的耳朵和嘴巴 - BERT

BERT 全名為 Bidirectional Encoder Representations from Transformers BERT: Pre-train...