為什麼要回顧?
十年前,我還在為一個 SVM 調參數,苦惱怎麼把準確率提高到 90%。
今天,我可以在一台筆電上呼叫 API,幾秒內拿到幾乎無限知識的生成回答。
這十年,AI 開發的變化不只是「速度變快」,而是整個 技術棧的翻轉。
轉捩點一:深度學習崛起(2012~2015)
2012 年 ImageNet 比賽,CNN 打敗傳統方法,震驚全世界。
GPU 普及,讓平行運算從遊戲卡變成研究利器。
這一波,讓「資料驅動」全面勝過「人工設計特徵」。
我自己印象深刻的是:第一次把影像丟進 CNN,結果準確率比我設計的特徵工程高出一大截。那感覺像是:程式碼終於不用我一手餵養,它自己會長技能了。
轉捩點二:序列建模的演進(2015~2017)
我曾用 LSTM 做簡單的客服對話,雖然效果粗糙,但已經能看到「AI 對話」的影子。這是生成式 AI 的種子。
轉捩點三:Transformer 革命(2017)
這篇論文是我至今還會反覆看的經典,因為它的簡單直接,卻翻轉了整個 NLP 領域。
轉捩點四:大規模預訓練與遷移學習(2018~2020)
BERT 讓「雙向語境」成為主流,幾乎每個 NLP 任務都能靠預訓練模型微調。
GPT 系列 展示了「單向生成」的威力,從 GPT-2 開始,模型不再只是工具,而是「共同作者」。
這一波,對開發者最大的影響是:
不需要再從零開始訓練模型,只要下載預訓練權重,就能在幾行程式碼內跑出成果。
轉捩點五:生成式 AI 全面爆發(2020~2023)
ChatGPT、Stable Diffusion 把 AI 從研究室推向大眾。
各種應用層 API(翻譯、問答、繪圖、語音)爆炸性出現。
社群與開源工具(Hugging Face、LangChain)降低了進入門檻。
這幾年,我最大的感觸是:AI 不再是技術人的專利,而是所有人都能用的生產力工具。
回顧的意義
把這十年的轉捩點串起來,可以看到一個清晰的路徑:
從規則 → 特徵 → 深度學習 → Transformer → 生成式 AI。
每一次轉變,都把「人要做的事」交給了「機器」。
如果說十年前我們還在「教電腦怎麼想」,那今天我們已經在「跟電腦一起想」。
結語
第一週,我回顧了生成式 AI 的源起與基礎。
Day 7 想留下一個思考:
真正的轉捩點,不只是技術突破,而是當我們開始換一種方式思考問題。
而下一週,我將走進「現在」——看看這些技術如何在真實世界裡落地與運行。