最近在呂老師的雲端課程中,聽到一段讓我印象很深的話:「AI 的幻覺,其實是創造力的影子。」
這句話讓我重新思考我們在使用生成式 AI 時,究竟是在「糾錯」,還是在「學習 AI 的思考邏輯」。
在課程中,老師提到:
「雲端計算讓 AI 可以更快學習,但幻覺提醒我們:資料不是事實,而是推測的集合。」
幻覺(Hallucination)看似 AI 的缺陷,
但從學習者的角度來看,它是一種可觀察的思考過程。
當我們看到 AI「亂講」時,其實也在看見模型如何「嘗試理解」。
| 面向 | 學習啟發 | 實務重點 |
|---|---|---|
| 雲端(Cloud) | 彈性學習與即時更新 | 讓知識流動更快 |
| 資料(Data) | 決定 AI 的「世界觀」 | 清理資料比訓練模型更重要 |
| 幻覺(Hallucination) | 展現 AI 的想像極限 | 從錯誤中學「推理模式」 |
老師強調:
「AI 的幻覺不是要被消滅,而是要被標註與理解。」
我開始在 iThome 上記錄每次課堂的心得、錯誤與反思。
不只是「筆記」,更像是一種「學習自我回饋的訓練」。
✏️ 當我們記下 AI 的錯,
其實是在訓練自己的「辨識力」與「思考韌性」。
學習的過程,就像管理一個小型 AI 系統:
這與 AI 的資料治理流程幾乎一樣。
學習者本身就是一個不斷進化的模型。
呂老師在課堂最後提醒我們:
「AI 會犯錯,人也會。但懂得整理錯誤的人,才真正開始學習。」
我開始習慣把每次學習中的「AI 幻覺」與「自己的誤解」都寫進筆記,
不只是為了記錄,而是讓自己在資料與思考之間,找到新的洞見。
🧩 iThome 不是只是文章平台,它是學習的延伸記憶體。
讓「幻覺」變成筆記的一部分,也讓「錯誤」成為創造的起點。