昨天(Day 2)我們玩了幾個 API:一個回傳待辦事項、一個回傳隨機的貓咪圖片。雖然它們看起來很簡單,但其實已經包含了 API 呼叫的核心流程:
送出請求
收到 JSON 格式的回應
解析內容並使用
LLM,全名 Large Language Model(大型語言模型),本質上是一個用超大規模文本資料訓練出來的機器學習模型。
它的原理其實很單純:給它一段文字,它會「預測下一個字」。
今天我去便利商店買了 [???]
模型可能會補上「咖啡」、「飲料」、「麵包」… 這些詞都有合理的機率。
把這種「預測下一個字」的能力放大,堆疊很多層神經網路,就形成了能寫文章、回答問題、甚至寫程式的 AI。
ChatGPT 背後的技術
擅長自然對話、程式生成、語言理解
生態系龐大(API、插件、工具鏈都很成熟)
特點是「多模態」:能理解文字、圖片,甚至程式碼
與 Google 搜尋和 Workspace 整合緊密
對於需要「網路知識」的任務表現優異
強調開放性、計算效能不錯
在工程技術、數據分析領域有不少應用
相比 GPT/Gemini,價格較便宜,適合做實驗
傳統電腦要回答問題,必須事先寫好規則。但 LLM 不需要規則,它靠的是「統計學習」:
當你輸入「普拿疼的副作用?」模型會把「普拿疼」與「副作用」的語意拆解在它訓練過的大量文本裡,找到常見的組合(例如「肝毒性」、「嗜睡」、「過敏反應」)
最後輸出一段文字,看起來就像一個藥師的回答
換句話說:
LLM 並不是「真的懂醫學」,而是「讀過很多藥品資料」後,能用語言統計生成合理的回答。
今天認識了:LLM 的核心概念 → 用大量文字資料訓練出「預測下一個字」的模型
常見的 LLM → GPT、Gemini、DeepSeek 各有特色
AI 為什麼能回答問題 → 不是因為懂,而是因為語言統計
明天我們就要實戰:申請一個 AI API Key,讓電腦真的跟我們對話!