iT邦幫忙

2025 iThome 鐵人賽

DAY 23
0
AI & Data

認識生成式AI的結構及運作原理系列 第 23

AI 的「知識」其實會過期?

  • 分享至 

  • xImage
  •  

生成式AI的「知識會過期」,這是一個許多人在使用AI時容易忽略卻非常重要的現象。當我們向ChatGPT、Claude或Gemini詢問問題時,往往會假設它們能即時掌握最新資訊。然而,這些模型的知識其實是靜態的——它們並非持續上網學習,而是依據訓練資料集所涵蓋的內容進行回答。換句話說,AI的「世界觀」停留在資料收集的時間點,因此,若訓練資料截止於2023年,那之後發生的事件、技術更新或社會變化,它就完全不知道。

這種知識過期的問題來自於生成式AI的訓練方式。大型語言模型(LLM)透過分析龐大的文字資料,學習語言結構與概念關聯。然而,每次訓練都是一次性過程,需要數月甚至數億美元的計算成本,因此,模型並不會「持續更新」;想讓它學到新知識,就必須重新蒐集資料並進行再訓練。這也導致模型的知識在時間上有明顯的滯後性。

知識過期雖然看似只是資訊新舊問題,但在實際應用中會帶來顯著影響。舉例來說,在醫學、法律或科技領域,AI 若根據過時資料提供建議,可能導致錯誤判斷;在新聞應用中,它可能無法識別近期事件,甚至生成與現實不符的回應。因此,AI的「準確性」其實與資料的時效性息息相關。

為了解決這個問題,研究者提出了幾種方法。最常見的是檢索增強生成,讓模型在回答問題時即時查詢最新資料庫或網頁;另一種做法是增量訓練,透過不斷微調更新模型知識。此外,也有公司嘗試結合即時搜尋引擎,使生成式 AI 能像人類一樣「邊查邊答」。

總結來說,生成式AI的知識會過期,並非系統缺陷,而是其設計機制的自然結果。


上一篇
什麼? 生成AI 可以自創「不存在的語言」
下一篇
AI會瘋狂犯錯? 不是歐,不是這樣的歐
系列文
認識生成式AI的結構及運作原理26
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言