生成式AI的「知識會過期」,這是一個許多人在使用AI時容易忽略卻非常重要的現象。當我們向ChatGPT、Claude或Gemini詢問問題時,往往會假設它們能即時掌握最新資訊。然而,這些模型的知識其實是靜態的——它們並非持續上網學習,而是依據訓練資料集所涵蓋的內容進行回答。換句話說,AI的「世界觀」停留在資料收集的時間點,因此,若訓練資料截止於2023年,那之後發生的事件、技術更新或社會變化,它就完全不知道。
這種知識過期的問題來自於生成式AI的訓練方式。大型語言模型(LLM)透過分析龐大的文字資料,學習語言結構與概念關聯。然而,每次訓練都是一次性過程,需要數月甚至數億美元的計算成本,因此,模型並不會「持續更新」;想讓它學到新知識,就必須重新蒐集資料並進行再訓練。這也導致模型的知識在時間上有明顯的滯後性。
知識過期雖然看似只是資訊新舊問題,但在實際應用中會帶來顯著影響。舉例來說,在醫學、法律或科技領域,AI 若根據過時資料提供建議,可能導致錯誤判斷;在新聞應用中,它可能無法識別近期事件,甚至生成與現實不符的回應。因此,AI的「準確性」其實與資料的時效性息息相關。
為了解決這個問題,研究者提出了幾種方法。最常見的是檢索增強生成,讓模型在回答問題時即時查詢最新資料庫或網頁;另一種做法是增量訓練,透過不斷微調更新模型知識。此外,也有公司嘗試結合即時搜尋引擎,使生成式 AI 能像人類一樣「邊查邊答」。
總結來說,生成式AI的知識會過期,並非系統缺陷,而是其設計機制的自然結果。