你有沒有遇過這種情況?
問 ChatGPT 一個問題,它回答得看似很合理,但你一查資料發現——根本是 一本正經地胡說八道。
這種現象在生成式 AI 中非常常見,甚至有一個正式名稱,叫做 「AI 幻覺(AI Hallucination)」。
今天就來聊聊生成式 AI 的幾個限制與風險。
⸻
一、AI 幻覺(Hallucination)
生成式 AI 是「根據機率生成文字」,並不是「真正理解內容」。
也就是說,它會根據過去看過的資料,組合出最可能的下一句話。
所以當題目太冷門、資訊太少,或提示詞太模糊時,它就會亂湊一個看起來合理的答案。
例子:
問:「請列出台灣最早出現的生成式 AI 公司」
答:「台灣第一家生成式 AI 公司是 FutureAI,成立於 2013 年。」
事實上根本沒有這家公司。
原因:AI 不知道答案,只是用語言模型「猜」出最合理的句子。
⸻
二、資料偏誤(Data Bias)
AI 的訓練資料如果來自網路,就會有偏見問題。
舉例來說,若模型學到的文字中某些族群、性別被刻板印象化,那生成的內容也可能重複這些偏見。
例子:
Prompt:請寫一段介紹程式設計師的文字
AI 可能會預設程式設計師是「男性」,因為訓練資料中大多數的例子都是這樣。
這就是 資料偏誤(Bias) 的問題。
⸻
三、無法保證真實性
生成式 AI 不是搜尋引擎。
它不會「查資料」,只會「根據過去學過的文字」預測下一句。
所以即使它的語氣很自信,也不代表內容正確。
建議做法:
• 查資料 → 用搜尋引擎或學術資料庫
• 寫報告 → 可以用 AI 起草,但務必再驗證
• 列參考來源 → 不要完全相信 AI 給的網址或引用
⸻
四、隱私與安全風險
如果把個資、機密資料輸入 AI,可能被記錄或分析。
有些平台會用輸入的內容做模型訓練,因此:
• 不要輸入學號、身份證號、病歷資料等敏感內容
• 公司內部資料、專案代碼也要避免直接貼給 AI
⸻
今天的重點
• AI 幻覺:AI 有時會亂講話,但自己不知道
• 資料偏誤:模型學到的內容會帶偏見
• 真實性問題:生成式 AI 不是事實查詢工具
• 隱私風險:不要隨意輸入敏感資訊