我們有說過,在資料處理的時候,文字、聲音、影像三個方法要分別處理,即使是多模態(兩種以上方法混合),也是要各自處理完之後再合一。 今天我們就來說說,在處理文字資...
今天會帶大家一步一步解析本賽題第一名🥇的思路🤩,在過程中可以學到如何使用 LLM 生成 high quality 的假資料,並用 Meta pseudo lab...
BERT 不僅僅是個能讀懂文字的模型,它還能通過理解上下文來識別語句中的情感。今天,我們要揭開 BERT 如何成為情感讀者的神秘面紗,看看它如何通過「讀懂」文本...
昨天,我們解說了對話狀態追蹤,用來紀錄每輪對話提到的重要資訊。這篇我們來用T5實做一個對話追蹤器。 mT5(multilingual Text-To-Text...
最近Threads上出現一堆電子乞丐和風向文,讓人看了實在很躁。 或許有人會嗆:「不爽就不要看!」但人是犯賤的生物,你們會PO帳單條碼,我們就想臭。 我不禁思考...
昨天我們一起瞭解了什麼是NLU,為什麼Chatbot需要NLU。那我們一樣來個小程式,來介紹我們如何使用BERT來觀察語言模型是怎麼理解我們所說的話~ 下載並安...
我們從前面兩天瞭解了Chatbot 以NLU任務解析話語中的含義,以及將有意義的資訊擷取出來。 但是如果你今天到一間旅館,要求住宿,總不可能只率性的說一句「今晚...
昨天介紹了Guiding Chatbot,讓Chatbot理解情緒並且嘗試引道話語者的情緒。從昨天的研究我們可以知道,對於Chatbot而言,我們講出來的話(下...
別想太多,做就對了!《捍衛戰士:獨行俠》 前兩天我們已經了解 BERT 的內部運作,還有 BERT 在進行語言處理上的一些缺陷。今天不聊理論,我們來簡單一一...
真正掌握權力的人,通常都躲在表面上有權力的人後面,操控著一切。法蘭西斯・安德伍德《紙牌屋》 這幾天在研究 BERT 的時候想著,如果要拿流行文化來比喻的話,...
空頭不死,多頭不止;多頭不死,空頭不止不詳 在股票市場中,人人著稱的一句話:「空頭不死,多頭不止;多頭不死,空頭不止。」意思是,如果股價在下降的趨勢時中,如...
如果我能看得更遠,那是因為站在巨人的肩膀上。牛頓 經過了前幾天的旅程,相信大家對於運用在自然語言處理的神經網路,應該已經有了一定程度的認識。神經網路是深度學...
一. Fine-tine BERT 昨天是直接利用pretrained過的bert直接將句子轉成編碼的形式,今天主要會說明Fine-tune BERT的任務,F...
一. 預訓練的BERT 接下來會介紹hugging face這個團隊提供的BERT的套件來做介紹~BERT的model本質本來就是預訓練模型。今天主要介紹 Be...
一. 介紹 Bert全名為Bidirectional Encoder Representation from Transformers,目前Bert與其他以BE...
BERT系列的預訓練模型一個個出,RoBERTa、XLNet、DeBERTa等等一個比一個更能打,刷新著自然語言理解的GLUE榜單。這些都是通用型的預訓練語言模...
今天開始,我們要進入一個新的主題「Adaptation」。這是指在預訓練模型和Fine-tune之間對模型額外做一個「適應」(Adaptation)的動作,讓B...
恭喜,BERT模型的基礎部分已經講解到昨日為止了,接下來我們來談一些質疑、檢討、改進基礎BERT的內容。今天我們來講解一個頗有爭議的問題:[CLS]是否真的能代...
當本系列文章提到BERT時,最初是指Google所開發的BERT,但後續基本就是指所有運用Transformer和預訓練模式的語言模型。今天這篇文章就是在廣義的...
在此之前,我們已經介紹過BERT的核心概念遷移學習Transfer Learning以及它的輸入輸出。那麼接下來的問題就是BERT將詞語轉換為包含了上下文資訊的...
BERT輸出了什麼? 回應上一篇關於詞嵌入Token Embedding的討論,BERT的輸出就是文本序列中每個詞單位的高維向量表示,你也可以把它當成一連串抽取...
如何從實戰層面認識BERT BERT的研究與應用可以分為不同的層次。你可以鑽研BERT的模型技術細節,瞭解它為什麼這麼有效,甚至可以發現其中有問題的設計來加以改...
從芝麻街角色到改變NLP的模型 如果你用Google以「BERT」作為關鍵字搜尋圖片,那麼你會發現一個奇特的現象:一隻黃色的玩偶與奇怪的網狀結構模型混雜在一起。...
BERT 全名為 Bidirectional Encoder Representations from Transformers BERT: Pre-train...