iT邦幫忙

2025 iThome 鐵人賽

0
生成式 AI

30 天玩轉生成式 AI:從入門到應用系列 第 6

生成式 AI 的限制與風險 —— 為什麼它有時會亂講話?

  • 分享至 

  • xImage
  •  

你有沒有遇過這種情況?
問 ChatGPT 一個問題,它回答得看似很合理,但你一查資料發現——根本是 一本正經地胡說八道。

這種現象在生成式 AI 中非常常見,甚至有一個正式名稱,叫做 「AI 幻覺(AI Hallucination)」。
今天就來聊聊生成式 AI 的幾個限制與風險。

一、AI 幻覺(Hallucination)

生成式 AI 是「根據機率生成文字」,並不是「真正理解內容」。
也就是說,它會根據過去看過的資料,組合出最可能的下一句話。

所以當題目太冷門、資訊太少,或提示詞太模糊時,它就會亂湊一個看起來合理的答案。

例子:
問:「請列出台灣最早出現的生成式 AI 公司」
答:「台灣第一家生成式 AI 公司是 FutureAI,成立於 2013 年。」

事實上根本沒有這家公司。

原因:AI 不知道答案,只是用語言模型「猜」出最合理的句子。

二、資料偏誤(Data Bias)

AI 的訓練資料如果來自網路,就會有偏見問題。
舉例來說,若模型學到的文字中某些族群、性別被刻板印象化,那生成的內容也可能重複這些偏見。

例子:

Prompt:請寫一段介紹程式設計師的文字

AI 可能會預設程式設計師是「男性」,因為訓練資料中大多數的例子都是這樣。

這就是 資料偏誤(Bias) 的問題。

三、無法保證真實性

生成式 AI 不是搜尋引擎。
它不會「查資料」,只會「根據過去學過的文字」預測下一句。
所以即使它的語氣很自信,也不代表內容正確。

建議做法:
• 查資料 → 用搜尋引擎或學術資料庫
• 寫報告 → 可以用 AI 起草,但務必再驗證
• 列參考來源 → 不要完全相信 AI 給的網址或引用

四、隱私與安全風險

如果把個資、機密資料輸入 AI,可能被記錄或分析。
有些平台會用輸入的內容做模型訓練,因此:
• 不要輸入學號、身份證號、病歷資料等敏感內容
• 公司內部資料、專案代碼也要避免直接貼給 AI

今天的重點
• AI 幻覺:AI 有時會亂講話,但自己不知道
• 資料偏誤:模型學到的內容會帶偏見
• 真實性問題:生成式 AI 不是事實查詢工具
• 隱私風險:不要隨意輸入敏感資訊


上一篇
壞 Prompt vs 好 Prompt —— 差別有多大?
下一篇
AI 怎麼學會「不亂講」——人類回饋學習(RLHF)
系列文
30 天玩轉生成式 AI:從入門到應用15
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言