自然語言處理(NLP)對於各式各樣的模型來說至關重要。要先能夠運用程式語言來處理我們日常生活所用的語言,才能使大型語言模型(LLM)有更加精準的表現。
在這30天內,將從各式各樣的主題,像是基礎的Regular Expression,至BERT以及LLM,來去了解當今是如何運用AI、機器學習以及深度學習,來去處理、理解真實世界語料。
在前幾天,我們介紹了 Decision Tree(決策樹) 和 Naive Bayes(貝氏分類器) 等傳統的機器學習模型(Machine Learning M...
在各種 Deep Learning Models 中,RNN(Recurrent Neural Network)是一種特別設計來處理序列資料 (sequenti...
昨天我們介紹了 RNN 的基本概念,知道它可以記住先前的輸入,適合拿來處理序列資料。 但是,當我們想要做「序列到序列(seq2seq)」的轉換時(例如把一句中文...
在深度學習模型的發展當中, Transformer 是一個劃時代的模型。 在 Transformer 出現之前,RNN 等神經網路模型和 Encoder–Dec...
昨天我們提到 Transformer 是基於 Attention 的架構,沒有像 RNN 那樣逐步處理字串。 這時候就會有一個問題,如果它不是按照順序讀句子,那...
過去幾天我們介紹了 RNN、Encoder–Decoder、Transformer 和 Positional Encoding,這些概念共同構成了語言模型的基礎...
昨天我們談到 LLM(大型語言模型)如何從 Transformer 的架構中誕生。 那麼,LLM 為什麼能這麼聰明?為什麼只要問它一個問題或是給它一段提示,它就...
LLM(Large Language Model) 是透過大量語料學習「下一個token」的機率,具備語言理解與生成的能力。 昨天提到的 In-Context...
延續這幾天在介紹的 LLM、In-Context Learning(ICL)、Chain of Thought(CoT),要來講講另一個熱門的技術:RAG(Re...
這幾天接連講了一些跟 LLM 有關的概念,最後一天,要來介紹如何使用 Ollama 在本機端離線使用大型語言模型,並且會介紹一個使用 LLM 的介面:Open...