此系列文章會利用Happy-LLM這個開源教學課程,來記錄自己學習LLM原理的心得與過程,並額外介紹LLM的各項延伸應用,例如上下文工程、few-shot、RAG、MCP、Agent等。
自然語言處理 (NLP) 簡介 自然語言處理(Natural Language Processing, NLP) 是人工智慧的重要分支,他的目標是能讓電腦「...
NLP 發展簡介 自然語言處理(NLP)並不是一開始就有今天的 ChatGPT,它的發展經歷了不同時代的演進:從最早的規則判斷,到統計模型,再到機器學習與深...
什麼是文本表示? 電腦只能處理數字,無法直接理解「文字」,因此 NLP 的第一步,就是要把語言轉換成數字形式,也就是文本表示(Text Representa...
讓模型理解並且處理帶有順序的資料,一直是 NLP 的核心挑戰,因為文字是有順序的,前後文會改變語意,因此對於提高 NLP 處理的準確度,是相當重要的一部分。...
在 Day4 裡,我們用簡單的範例理解了 Attention 基本的運作原理與 Query、Key、Value 的角色,但是在實際應用 Transformer...
在 Day4 我們認識了「注意力機制」,在 Day5 我們進一步看到 Self-Attention、Mask Self-Attention 與 Multi-...
為什麼需要 Positional Encoding? Attention 機制本身是「無序」的,他只會知道詞與詞之間的相關性,但是不知道誰在前誰在後,但是在...
Encoder-only 在前面幾天我們學到 Transformer 是由 Encoder 和 Decoder 所組成的,Encoder 主要負責「理解輸入...
Decoder-only 在前面我們學過 Encoder-only(BERT),他專注於「理解輸入」,適合各種自然語言理解(NLU)的任務,但是如果任務是「...
Encoder-Decoder 前面我們介紹過了 Encoder-only(BERT)專門用於理解,適合 NLU 的任務;Decoder-only(GPT)...