回想這三十天,從一開始的單純興趣,到後來變成一場自我逼迫的學習馬拉松,
我不只是學了一堆名詞(Transformer、RAG、PEFT、LoRA、Agent),
更重要的是,學會了如何用自己的語言,把一個複雜的系統講清楚、講明白。
這系列的起點,其實非常單純。
在這幾年生成式 AI 熱潮延燒的時候,我身邊幾乎所有人都在用 ChatGPT。
有人拿它寫程式、有人讓它當英文老師、有人用來寫報告。
但我在想的,是另一個問題:
我們真的知道它怎麼運作嗎?
就像開車的人未必懂引擎,
每天和 LLM 對話的我們,也未必理解那背後的注意力機制、訓練資料、或是它為什麼會「幻覺」。
所以我想做一件事 —— 用 30 天,從基礎一路寫到應用,完整梳理一個 LLM 的世界觀。
這不只是為了讀者,更是為了逼自己學會把抽象的概念具象化。
也因為我平常就同時關注 AI 與資安領域,
我希望這系列能不只是「AI 技術筆記」,
而是連結實務應用、安全防禦、與開發者思維的一條完整脈絡。
說真的,最辛苦的部分不是後期寫應用,而是前十天。
因為那十篇完全是「理論硬核區」。
從 Transformer 架構、Self-Attention、QKV 機制,到 Positional Encoding、Embedding、Pre-training、Fine-tuning……
我幾乎是每天邊查論文、邊找圖、邊重寫文章。
有時一個公式就卡一整晚,光是「為什麼要有位置編碼」就找了三個版本的圖。
但也正是那十天,讓我真正體會到:
「LLM 不是黑盒子,而是一個極度優雅的數學系統。」
當我把 Transformer 那張「Attention is All You Need」的架構圖理解之後能用自己的話講出它的邏輯流,那一刻的成就感真的很大。
而且,我也意識到自己已經不再只是「用 ChatGPT 的人」,
而是開始能反過來解構 ChatGPT 為什麼能那麼懂人話。
進入中段(Day11–Day25),這系列開始變得「活起來」。
因為我從單純理解模型,轉向實作與應用層面。
這階段最讓我印象深刻的三個主題是:
Prompt Engineering(提示工程)
這看似簡單,實際上是最難掌握的藝術。
一個「請幫我」與「假設你是…」之間,結果可以天差地遠。
我開始研究 CoT(Chain of Thought)、角色扮演、JSON 格式輸出等技巧,
並整理出一份屬於自己的「提示設計心法」。
RAG(Retrieval-Augmented Generation)
這是我整個系列中最有共鳴的一篇。
我用它來解釋 LLM 為何能「補充記憶」,
並將概念對照到企業應用中 —— 如何讓模型連接內部知識庫、做到即時更新。
這不只是技術,而是未來企業 AI 導入的關鍵。
PEFT(Parameter-Efficient Fine-Tuning)與 LoRA 微調
我發現現在的 AI 不一定要重新訓練整個模型,
而是可以透過少量參數調整,讓模型學會新的任務。
這讓「微調模型」從實驗室走進開發者的日常。
這段時間,我像是在做一次完整的「AI 系統設計 Bootcamp」。
每天寫文的同時,也等於在替自己準備一份能拿出來講的專題。
Day18 之後,我開始挑戰讓 LLM 實際「動起來」。
我用 Dify 平台,從頭打造一個「行程規劃助理」。
它能根據使用者輸入自動生成旅遊行程、推薦景點、甚至考慮天氣。
一開始,我只是想玩玩,但寫到後來我發現:
「LLM 不只是工具,而是一個可以被“編排”的思考模塊。」
我學會如何用 Prompt 去控制它的角色、語氣、輸出格式,
甚至設計了 multi-step workflow,讓它能先查詢資料、再生成行程、最後輸出報表。
那種感覺有點像是在教 AI 「如何當一個助理」。
更重要的是,我從這個 Demo 體會到「Agent」概念的真實意義。
這已經不只是問答,而是讓模型具備行動與記憶能力的過程。
雖然整個系列看起來條理分明,但過程其實是混亂又刺激的。
每天寫文、查資料、改內容,
有幾天甚至一度想放棄。
尤其在第 4 天和第 5 天,那時我覺得題目太難、腦袋打結到寫不出一段順的句子。
但正因為那種「卡住 → 重新理解 → 寫出來」的循環,
我更確信自己不只是「在學」,而是在「內化」。
每次寫完一篇、重新讀一次前面的內容,
我都會發現自己的觀點又多了一層深度。
這就是鐵人賽的魔力 ——
它不只是比誰懂技術,而是比誰能「把技術講成故事」。
當你能把一個概念寫給別人看、而且讓非工程背景的人也懂,
你才真的理解它。
我在 Day3 寫 Transformer 時,就是這樣被逼著成長。
不管是 GPT-4o、Claude、Gemini、LLaMA,
本質上都還是基於相似的 Transformer 架構。
懂原理,才能不被工具綁死。
Prompt、RAG、Agent、Workflow,
這些其實都是在訓練我們「如何設計思考流程」。
LLM 就像鏡子,反映出你思考的邏輯是否清晰。
在這 30 天裡,我逐漸發現自己想走的方向愈來愈清楚。
我想研究的不只是「讓模型更聰明」,
而是「讓它更安全、更可信」。
我希望有一天能打造一個結合「威脅情資」與「LLM 理解」的系統,
讓 AI 不只是回答問題,而是能主動幫助 SOC 分析威脅。
這會是我下一個「30 天」的起點。
如果你也打算參加下一屆鐵人賽,我想給三個建議:
先定主軸,不要盲目開寫。
找到你想講的主題,讓每天的文章能形成一條主線。
這樣不會半路迷失,也能讓讀者更容易跟上。
不要怕技術難,只怕講不清楚。
很多時候不是你不懂,而是你還沒找到「最生活化的比喻」。
一旦你能用生活語言講技術,你就贏了。
保持節奏,別追求完美。
鐵人賽不是論文,也不是教科書。
內容有瑕疵沒關係,重要的是你每天都比昨天更懂一點。
三十天前,我是個想了解 LLM 怎麼運作的學生;
三十天後,我變成了一個能獨立設計 Demo、思考 AI 架構與防禦策略的開發者。
這段旅程不只是知識的累積,更是思維的重塑。
它讓我更相信一件事:
「AI 不會取代人,但會放大懂得學習的人。」
而我想成為的,就是那個能用 AI 打造安全、可信世界的開發者。
感謝一路閱讀的你,這不只是 30 天的挑戰,更是一場自我進化的實驗。
下一次見面,也許我會帶著一個更完整的專案 ——
一個真的能讓 AI「懂資安」的系統。
那時候,希望我們都還在這條學習的路上。