iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
生成式 AI

生成式AI:從歷史與基礎原理到賦予產能的工具 系列

生成式 AI 的 歷史脈絡與基礎原理 出發,逐步認識其背後的演算法與模型演進,再延伸到 文本、圖像、聲音與多模態生成 的應用工具。最後,生成式 AI 如何在真實場景中成為 提升產能的利器,並探討未來挑戰與發展方向

參賽天數 21 天 | 共 21 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文
DAY 1

生成式 AI 是什麼?與傳統 AI 的差異

生成式 AI 是什麼?與傳統 AI 的差異 在人工智慧(AI)的發展歷程中,生成式 AI(Generative AI) 可以說是近年最受矚目的突破。傳統 AI...

2025-09-15 ‧ 由 xuer 分享
DAY 2

從規則系統到深度學習:生成式 AI 的歷史演進

生成式 AI 的出現並不是一蹴可幾,而是人工智慧發展長河中的自然演進。早期的 AI 系統並沒有「生成」能力,而是以 規則系統(Rule-based System...

2025-09-16 ‧ 由 xuer 分享
DAY 3

GAN(生成對抗網路)的誕生與意義

在生成式 AI 的歷史中,GAN(Generative Adversarial Network,生成對抗網路) 的提出是一個重要的里程碑。2014 年,由 Ia...

2025-09-17 ‧ 由 xuer 分享
DAY 4

自然語言處理的發展:從 RNN、LSTM 到 Transformer

自然語言處理(Natural Language Processing, NLP)是生成式 AI 崛起的核心基礎之一。過去,電腦在處理語言時,往往難以理解語境與長...

2025-09-18 ‧ 由 xuer 分享
DAY 5

Transformer 架構深度剖析

Transformer 是深度學習領域中最具代表性的模型之一,自 2017 年由 Vaswani 等人提出以來,已成為自然語言處理(NLP)與電腦視覺(CV)等...

2025-09-19 ‧ 由 xuer 分享
DAY 6

Self-Attention 機制的力量

在自然語言處理與生成式 AI 的發展中,Self-Attention(自注意力) 機制可說是顛覆傳統模型的一大突破。傳統的 RNN 或 LSTM 主要依靠序列的...

2025-09-20 ‧ 由 xuer 分享
DAY 7

大型語言模型(LLM)的誕生與 GPT 系列

隨著 深度學習 與 Transformer 架構 的成功,自然語言處理(NLP)進入了一個嶄新的時代。傳統的語言模型通常依靠 n-gram 或 RNN 進行訓練...

2025-09-21 ‧ 由 xuer 分享
DAY 8

文本生成:語言模型與應用

文本生成(Text Generation) 是自然語言處理 (NLP) 中最具代表性的任務之一。它的核心目標是讓電腦能夠自動生成符合語法、語意合理且具有連貫性的...

2025-09-22 ‧ 由 xuer 分享
DAY 9

圖像生成:從 GAN 到 Diffusion Models

圖像生成(Image Generation)是生成式 AI 中最受矚目的研究方向之一。其目標是讓模型能夠根據輸入條件,生成具有真實感與多樣性的圖像。從早期的 生...

2025-09-23 ‧ 由 xuer 分享
DAY 10

音樂與聲音生成的發展

在生成式 AI 的眾多應用中,音樂與聲音生成 是一個兼具藝術性與技術性的領域。與文本或圖像不同,聲音具有連續性與時間依賴性,因此生成模型必須同時捕捉 頻率特徵...

2025-09-24 ‧ 由 xuer 分享