iT邦幫忙

2025 iThome 鐵人賽

DAY 3
0
生成式 AI

AI 藥師助手:打造人人都看得懂的藥品查詢系統系列 第 3

Day 3:什麼是 LLM?從 GPT、Gemini 到 DeepSeek 的原理解析

  • 分享至 

  • xImage
  •  

前言

昨天(Day 2)我們玩了幾個 API:一個回傳待辦事項、一個回傳隨機的貓咪圖片。雖然它們看起來很簡單,但其實已經包含了 API 呼叫的核心流程:

  • 送出請求

  • 收到 JSON 格式的回應

  • 解析內容並使用

什麼是 LLM?

LLM,全名 Large Language Model(大型語言模型),本質上是一個用超大規模文本資料訓練出來的機器學習模型。

它的原理其實很單純:給它一段文字,它會「預測下一個字」。

今天我去便利商店買了 [???]

模型可能會補上「咖啡」、「飲料」、「麵包」… 這些詞都有合理的機率。

把這種「預測下一個字」的能力放大,堆疊很多層神經網路,就形成了能寫文章、回答問題、甚至寫程式的 AI。

常見的 LLM 代表

GPT

  • ChatGPT 背後的技術

  • 擅長自然對話、程式生成、語言理解

  • 生態系龐大(API、插件、工具鏈都很成熟)

Gemini

  • 特點是「多模態」:能理解文字、圖片,甚至程式碼

  • 與 Google 搜尋和 Workspace 整合緊密

  • 對於需要「網路知識」的任務表現優異

DeepSeek

  • 強調開放性、計算效能不錯

  • 在工程技術、數據分析領域有不少應用

  • 相比 GPT/Gemini,價格較便宜,適合做實驗

為什麼 LLM 能回答問題?

傳統電腦要回答問題,必須事先寫好規則。但 LLM 不需要規則,它靠的是「統計學習」:

當你輸入「普拿疼的副作用?」模型會把「普拿疼」與「副作用」的語意拆解在它訓練過的大量文本裡,找到常見的組合(例如「肝毒性」、「嗜睡」、「過敏反應」)

最後輸出一段文字,看起來就像一個藥師的回答
換句話說:
LLM 並不是「真的懂醫學」,而是「讀過很多藥品資料」後,能用語言統計生成合理的回答。

結論

今天認識了:LLM 的核心概念 → 用大量文字資料訓練出「預測下一個字」的模型

常見的 LLM → GPT、Gemini、DeepSeek 各有特色

AI 為什麼能回答問題 → 不是因為懂,而是因為語言統計

明天我們就要實戰:申請一個 AI API Key,讓電腦真的跟我們對話!


上一篇
Day 2:Python 與 API 呼叫基礎(requests & JSON)
下一篇
Day 4:讓 AI 開口說話!申請 OpenAI API Key
系列文
AI 藥師助手:打造人人都看得懂的藥品查詢系統7
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言