iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
生成式 AI

生成式 AI 30 天觀念導讀:不寫程式也看懂的實戰思維 系列

這是一系列純觀念、不寫一行程式的生成式 AI 導讀。30 天由淺入深,從「模型在想什麼」到 Token、Attention、Scaling、Prompt、RAG、Agent、評估與監測、幻覺風險、成本與隱私治理,再到金融/教育等應用情境。我用白話與案例拆解名詞背後的決策邏輯:什麼題目該用 AI、怎麼選模型與上下文、何時該設人審防呆。看完你不只會背名詞,更能把熱潮轉成可落地的判斷力。

參賽天數 24 天 | 共 24 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文
DAY 1

Day 1|為什麼要在 2025 再談「生成式 AI」?

為什麼需要談這題?大家都在用,但「怎麼看待它」差很大。有人把它當魔法,有人嫌它愛胡扯。若沒有共同觀念框架,討論成本很高、落地更難。 什麼是生成式 AI?(白話版...

2025-09-15 ‧ 由 AA 分享
DAY 2

Day 2|模型到底在「生成」什麼?

為什麼需要釐清?只要把「生成」理解錯,調整參數與期待就會離題千里。 白話定義 核心:條件機率。看前文分佈,選下一個 token 風格旋鈕: Temperatur...

2025-09-16 ‧ 由 AA 分享
DAY 3

Day 3|資料與 Token:模型的世界觀從哪來?

為什麼需要在意?餵什麼,長什麼。語料品質與切詞方式會直接影響輸出。 白話定義 語料:網頁、論壇、書籍、文件……品質參差,偏誤必然存在 Token:不是字,是「片...

2025-09-17 ‧ 由 AA 分享
DAY 4

Day 4|Attention 直覺版:它怎麼在長文中「抓重點」?

為什麼需要理解?這是 Transformer 厲害的關鍵。不懂它,就很容易把上下文塞爆。 白話定義 Attention=對關鍵位置加權,不是逐字平均掃 長距離依...

2025-09-18 ‧ 由 AA 分享
DAY 5

Day 5|參數量與 Scaling:大就一定好嗎?

為什麼要討論?現實世界有成本、延遲、隱私。不是每題都值得用最大支。 白話定義 Scaling Law:資料/參數/算力↑ → 效能多半↑,但有報酬遞減 小模型價...

2025-09-19 ‧ 由 AA 分享
DAY 6

Day 6|能力邊界:它厲害在哪、會跌倒在哪?

為什麼要先談邊界?不設邊界,最後都是人幫機器收拾殘局。 強項(觀念) 結構化語言:摘要、改寫、口吻統一、格式轉換 資訊整合:把常見知識湊成「像樣答案」 弱點(風...

2025-09-20 ‧ 由 AA 分享
DAY 7

Day 7|怎麼評估「好不好」:不是只看分數

為什麼要談評估?公共榜單不能替你解題;你的資料分佈、風格、風險承受度都不同。 評估的正確打開方式 任務對齊:把需求拆成可檢核指標 正確性(有憑有據嗎) 完整性(...

2025-09-21 ‧ 由 AA 分享
DAY 8

Day 8|Prompt 的本質:把意圖說清楚

為什麼需要談?大多數「結果不穩/跑偏」其實不是模型笨,而是我們的任務規格含糊。先把規格寫對,模型自然寫對。 白話定義Prompt 就是「我要做什麼(目標)+我手...

2025-09-22 ‧ 由 AA 分享
DAY 9

Day 9|示例與少量樣本:讓模型「看懂你要的樣子」

為什麼需要談?同一指令,加不加示例=兩個世界。示例比抽象的要求更能定錨風格與粒度。 白話定義Few-shot=在指令中附 1–3 個「代表性強」的範本(可含 1...

2025-09-23 ‧ 由 AA 分享
DAY 10

Day 10|結構化 Prompt:角色→步驟→約束→驗收

為什麼需要談?鬆散描述=自由發揮;多步任務會亂跑。結構化 Prompt 是把溝通「流程化」。 白話定義把任務拆成四段:角色(你是誰)→步驟(先做什麼再做什麼)→...

2025-09-24 ‧ 由 AA 分享