主要是將之前實習所學的內容做一個簡單統整,目的還是對自己有一個交代🤣
內容會著重於實習期間學習的NER(命名實體識別)
會介紹NLP, NER是甚麼、我怎麼做資料標記、我使用了哪些工具、訓練模型
一、內容簡介 這次的鐵人賽主要是要是將之前實習時所做的事和學的內容做一個整理,以及做一些延伸。 最主要呢著重介紹 NLP(自然語言處理) 的子領域 NER -...
讓機器、電腦擁有理解人類說話的語言的能力,就是自然語言處理,它能夠以自然語言文字或語音來查詢資料。這也稱為「語言輸入」。以一個簡單的例子讓大家可以比較理解,例如...
上一篇介紹完NLP之後,現在要進入這次的重點 NLP 的子任務 Named Entity Recognition (NER) 中文是命名實體識別。 命名實體一般...
這裡介紹的開發環境都是我自己有試過的。 由於是要訓練自然語言處理的模型,這會蠻耗時的,因此如果電腦有GPU是最好的,如果沒有的話沒關係大家可以使用我等等介紹的雲...
Hugging Face 是甚麼 Hugging Face 是一家軟體公司和開源社區,專注於自然語言處理和人工智慧領域的研究和開發。該社區成立於2016年,以其...
"Transformer模型" 是一種深度學習架構,最初由Google於2017年提出。它是一種用於處理序列數據的神經網絡架構,特別在自然語...
Transformer 模型架構主要由兩個區塊組成,左側是 Encoder(編碼器),右側是 Decoder(解碼器) (這邊先簡單說明,下一章節回詳細解析兩...
今天我們要細講 Transformer 模型架構的 Encoder(編碼器) 的部分,也就是圖中的左半部,那我們就一一剖析裡面的每一層在做哪些事情 以上圖出自...
以上圖出自李謦伊 今天我們要細講 Transformer 模型架構的 Decoder(解碼器) 的部分,也就是圖中的右半部,這邊會說明它跟 Encoder 的...
在 Day5 的時候我們有提到 Hugging Face 的 Transformers 函式庫的一點介紹和例子,那這章會在深入它的相關使用和比較詳細的介紹。(裡...