iT邦幫忙

2025 iThome 鐵人賽

DAY 1
0
生成式 AI

Gen AI 探索之路:技術趨勢與實作指南系列 第 1

生成式 AI 的起點──大型語言模型簡介

  • 分享至 

  • xImage
  •  

近年來,人工智慧領域迎來一波重大突破——模型開始能夠根據人類的喜好主動生成內容。

相較於傳統的機器學習與深度學習,這類模型不再只是進行單一任務的預測,而是具備理解上下文並產生新內容的能力。這樣的飛躍,正是建立在硬體加速與大型模型(Large Models)的基礎之上。

而這一切的核心,可以從「大型語言模型」(Large Language Models, LLMs)說起。

LLM 可視為生成式 AI 的基石,或稱為 backbone model。它承擔著人類賦予任務時的主要運算角色。

📖 推薦閱讀:A Survey of Large Language Models
文中對 LLM 的發展脈絡與模型架構有清晰圖示,涵蓋了從 Google 的 T5、Bard 到 OpenAI 的 ChatGPT,展示出全球大型企業在語言模型領域的佈局。

LLM 的訓練原理

雖然生成式 AI 給人耳目一新的感受,但實際上,它的訓練方式與傳統的深度學習並無本質差異。這類語言模型的核心目標,是「預測下一個字元或單詞」。

根據前面的文字,預測下一個詞出現的機率。

數學上可表示為:

https://ithelp.ithome.com.tw/upload/images/20250915/20152821wroACV45V2.png

模型會依序讀取文字,學習每個詞出現的條件機率,並透過大量資料不斷優化,讓預測越來越準確。

而透過大量來自網路的文本資料,模型學習不同情境下文字的排列模式。接著,研究者再加入人類偏好來微調模型,使其學會「什麼是好的回答、什麼是錯誤的回應」。

📘 延伸閱讀:Training language models to follow instructions with human feedback
這篇論文詳細說明了透過人類回饋(Human Feedback)進行強化學習來優化模型的過程,也就是我們熟知的 RLHF(Reinforcement Learning with Human Feedback)技術。

LLM 的優勢與挑戰

優勢

  • 能從大量資料中學習,貼近人類知識體系。
  • 如同一個能夠「即問即答」的智慧搜尋引擎,省去繁瑣查找過程。

⚠️ 挑戰

  • 缺乏真正理解能力:本質上仍是透過上下文預測下一個詞彙的機器,缺乏對語意的真正理解。
  • 不可預測性與控制困難:輸出的內容常需透過 prompt 或 context engineering 進行限制與引導,這也催生了新興角色如 Prompt Engineer 與 Context Engineer。
  • 幻覺問題(Hallucination):模型可能在無法理解輸入時產生虛構但看似合理的回答。

因此,如何有效且正確地使用 LLM,便成為我們這個時代不可忽視的一門新課題。

接下來我們將以「大型語言模型」為起點,逐步探討生成式 AI 的應用現況與實作技術,邀請你一起走進這個令人興奮的新世界。


下一篇
憑藉小力就可完成訓練──微調參數訓練
系列文
Gen AI 探索之路:技術趨勢與實作指南2
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言