iT邦幫忙

2025 iThome 鐵人賽

DAY 28
0
生成式 AI

生成式AI:從歷史與基礎原理到賦予產能的工具系列 第 28

生成式 AI 的風險:幻覺、偏見、資安

  • 分享至 

  • xImage
  •  

生成式 AI 帶來創新與效率,但同時也伴隨著不可忽視的風險。
幻覺(Hallucination)偏見(Bias),再到 資安(Security) 問題,這些挑戰不僅關係到模型的可信度,更關乎企業與社會的責任。

幻覺(Hallucination)

所謂「幻覺」,是指生成式 AI 產生出看似合理但實際錯誤的內容。
例如,在回答技術問題時,模型可能編造出不存在的 API 函式,或在引用資料時誤植來源。

範例:
使用者詢問:「Python 中有沒有 list.sort_desc()?」  
模型回答:「有,該方法可用於降冪排序。」(實際上並不存在)

成因 多半來自模型在訓練階段學習了大量語言模式,但缺乏事實驗證機制。
解法 包含引入外部知識庫(RAG)或強化事實檢驗(Fact-checking)模組。

偏見(Bias)

生成式模型反映了其訓練數據的分佈,若資料本身帶有偏見,AI 也會放大這些偏見。
例如在求職篩選、影像生成或語言生成中,可能出現性別、地區或文化上的不公平。

減緩方法 包含:

  • 強化資料平衡性;

  • 使用公平性評估指標;

  • 透過人類審查(Human-in-the-loop)干預生成結果。

資安(Security)

AI 系統也面臨新的資安威脅:

  • Prompt Injection 攻擊:惡意輸入可讓模型洩露敏感資訊。

  • 數據洩漏:模型可能「記住」訓練資料中的私人內容。

  • 模型被濫用:生成釣魚郵件、假新聞或深偽內容。

防禦措施 包括建立安全審查機制、監控輸入內容、與加強使用者教育。

總結

生成式 AI 的潛力巨大,但也必須以負責任的態度面對風險。
唯有在透明、安全與倫理的框架下發展,AI 才能真正成為人類可信賴的智慧夥伴。


上一篇
機器人與 IoT 的生成式 AI 應用
下一篇
生成式 AI 與法規、倫理、著作權
系列文
生成式AI:從歷史與基礎原理到賦予產能的工具30
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言