iT邦幫忙

2025 iThome 鐵人賽

DAY 7
0
生成式 AI

AI Development系列 第 7

Day 7|回顧:AI 開發這十年的技術轉捩點

  • 分享至 

  • xImage
  •  

為什麼要回顧?
十年前,我還在為一個 SVM 調參數,苦惱怎麼把準確率提高到 90%。
今天,我可以在一台筆電上呼叫 API,幾秒內拿到幾乎無限知識的生成回答。
這十年,AI 開發的變化不只是「速度變快」,而是整個 技術棧的翻轉

轉捩點一:深度學習崛起(2012~2015)
2012 年 ImageNet 比賽,CNN 打敗傳統方法,震驚全世界。
GPU 普及,讓平行運算從遊戲卡變成研究利器。
這一波,讓「資料驅動」全面勝過「人工設計特徵」。

我自己印象深刻的是:第一次把影像丟進 CNN,結果準確率比我設計的特徵工程高出一大截。那感覺像是:程式碼終於不用我一手餵養,它自己會長技能了。

轉捩點二:序列建模的演進(2015~2017)

  • RNN、LSTM、GRU,讓模型能記住一段時間的訊息。
  • Seq2Seq 模型在翻譯上成功,第一次展現「輸入 → 輸出」的端到端能力。
  • Attention 概念出現,開始動搖「循環」的地位。

我曾用 LSTM 做簡單的客服對話,雖然效果粗糙,但已經能看到「AI 對話」的影子。這是生成式 AI 的種子。

轉捩點三:Transformer 革命(2017)

  • 《Attention is All You Need》問世,完全拿掉 RNN。
  • 這讓訓練可以並行,速度大幅提升。
  • 多頭注意力(Multi-head Attention)讓模型可以「同時觀察」不同語意關係。

這篇論文是我至今還會反覆看的經典,因為它的簡單直接,卻翻轉了整個 NLP 領域。

轉捩點四:大規模預訓練與遷移學習(2018~2020)
BERT 讓「雙向語境」成為主流,幾乎每個 NLP 任務都能靠預訓練模型微調。
GPT 系列 展示了「單向生成」的威力,從 GPT-2 開始,模型不再只是工具,而是「共同作者」。

這一波,對開發者最大的影響是:
不需要再從零開始訓練模型,只要下載預訓練權重,就能在幾行程式碼內跑出成果。

轉捩點五:生成式 AI 全面爆發(2020~2023)
ChatGPT、Stable Diffusion 把 AI 從研究室推向大眾。
各種應用層 API(翻譯、問答、繪圖、語音)爆炸性出現。
社群與開源工具(Hugging Face、LangChain)降低了進入門檻。

這幾年,我最大的感觸是:AI 不再是技術人的專利,而是所有人都能用的生產力工具。

回顧的意義
把這十年的轉捩點串起來,可以看到一個清晰的路徑:
從規則 → 特徵 → 深度學習 → Transformer → 生成式 AI
每一次轉變,都把「人要做的事」交給了「機器」。

如果說十年前我們還在「教電腦怎麼想」,那今天我們已經在「跟電腦一起想」。

結語
第一週,我回顧了生成式 AI 的源起與基礎。
Day 7 想留下一個思考:
真正的轉捩點,不只是技術突破,而是當我們開始換一種方式思考問題。

而下一週,我將走進「現在」——看看這些技術如何在真實世界裡落地與運行。


上一篇
Day 6|生成式 AI 的基礎建材:語料庫、算力與框架
下一篇
Day 8|Prompt Engineering 作為軟體開發的一環
系列文
AI Development10
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言