iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
AI & Data

AI、機器學習以及深度學習的語言學應用 系列

自然語言處理(NLP)對於各式各樣的模型來說至關重要。要先能夠運用程式語言來處理我們日常生活所用的語言,才能使大型語言模型(LLM)有更加精準的表現。
在這30天內,將從各式各樣的主題,像是基礎的Regular Expression,至BERT以及LLM,來去了解當今是如何運用AI、機器學習以及深度學習,來去處理、理解真實世界語料。

鐵人鍊成 | 共 30 篇文章 | 1 人訂閱 訂閱系列文 RSS系列文 團隊美珠姨
DAY 21

Day 21 - Deep Learning Models(深度學習模型)

在前幾天,我們介紹了 Decision Tree(決策樹) 和 Naive Bayes(貝氏分類器) 等傳統的機器學習模型(Machine Learning M...

2025-10-05 ‧ 由 Carol 分享
DAY 22

Day 22 - RNN(循環/遞歸神經網路)

在各種 Deep Learning Models 中,RNN(Recurrent Neural Network)是一種特別設計來處理序列資料 (sequenti...

2025-10-06 ‧ 由 Carol 分享
DAY 23

Day 23 - Encoder-Decoder

昨天我們介紹了 RNN 的基本概念,知道它可以記住先前的輸入,適合拿來處理序列資料。 但是,當我們想要做「序列到序列(seq2seq)」的轉換時(例如把一句中文...

2025-10-07 ‧ 由 Carol 分享
DAY 24

Day 24 - Transformer

在深度學習模型的發展當中, Transformer 是一個劃時代的模型。 在 Transformer 出現之前,RNN 等神經網路模型和 Encoder–Dec...

2025-10-08 ‧ 由 Carol 分享
DAY 25

Day 25 - Positional Encoding(位置編碼)

昨天我們提到 Transformer 是基於 Attention 的架構,沒有像 RNN 那樣逐步處理字串。 這時候就會有一個問題,如果它不是按照順序讀句子,那...

2025-10-09 ‧ 由 Carol 分享
DAY 26

Day 26 - Large Language Model(LLM,大型語言模型)

過去幾天我們介紹了 RNN、Encoder–Decoder、Transformer 和 Positional Encoding,這些概念共同構成了語言模型的基礎...

2025-10-10 ‧ 由 Carol 分享
DAY 27

Day 27 - In-Context Learning(ICL)

昨天我們談到 LLM(大型語言模型)如何從 Transformer 的架構中誕生。 那麼,LLM 為什麼能這麼聰明?為什麼只要問它一個問題或是給它一段提示,它就...

2025-10-11 ‧ 由 Carol 分享
DAY 28

Day 28 - Chain-of-Thought(CoT)

LLM(Large Language Model) 是透過大量語料學習「下一個token」的機率,具備語言理解與生成的能力。 昨天提到的 In-Context...

2025-10-12 ‧ 由 Carol 分享
DAY 29

Day 29 - RAG(檢索增強生成)

延續這幾天在介紹的 LLM、In-Context Learning(ICL)、Chain of Thought(CoT),要來講講另一個熱門的技術:RAG(Re...

2025-10-13 ‧ 由 Carol 分享
DAY 30

Day 30 - Ollama、Open WebUI & Unsloth:本地部署LLM+微調模型

這幾天接連講了一些跟 LLM 有關的概念,最後一天,要來介紹如何使用 Ollama 在本機端離線使用大型語言模型,並且會介紹一個使用 LLM 的介面:Open...

2025-10-14 ‧ 由 Carol 分享