iT邦幫忙

2025 iThome 鐵人賽

DAY 18
0
生成式 AI

AI創世紀:生成式智慧的無限想像系列 第 18

生成式 AI 的偏差與歧視風險

  • 分享至 

  • xImage
  •  
  1. 資料來源的偏差
    • 不平衡資料:如果訓練資料中某些群體(如特定性別、族群、語言)代表性不足,模型輸出就容易忽略或誤解這些群體。
    • 歷史歧視的延續:資料往往反映社會中既有的刻板印象與歧視(例如職業與性別的關聯),AI 會將這些模式學習並放大。

  1. 演算法與訓練方式的偏差
    • 偏好常見模式:生成式 AI 傾向於輸出「大多數人常用」的語言或圖像,而不平等地忽略少數群體的表達。
    • 隱性歧視:即使資料看似中立,模型在訓練過程中仍可能透過權重分配而產生隱性的差異化對待。

  1. 應用情境的歧視風險
    • 語言生成:可能輸出帶有性別刻板印象的回覆(例如將「工程師」預設為男性)。
    • 圖像生成:在生成「醫生」時偏向白人男性,而「護士」則偏向女性,導致刻板印象再製。
    • 醫療與司法:若演算法偏差未被檢測,會在病患診斷、犯罪風險評估等高風險情境中造成不公平結果。

  1. 社會與倫理層面的挑戰
    • 不透明性:模型決策過程難以解釋,讓使用者難以判斷偏差來源。
    • 影響信任:若 AI 被認為延續或放大歧視,會削弱公眾對科技與使用單位的信任。
    • 合規壓力:越來越多國家針對 AI 的公平性、透明性制定法規,要求模型開發者承擔責任。

  1. 可能的解決方法
    • 資料清理與平衡:提升少數群體的代表性,移除明顯歧視語料。
    • 公平性評估:建立檢測工具,定期測試模型輸出是否存在偏差。
    • 人類介入:在人權與高風險領域保持人類審核,不讓 AI 單獨決策。
    • 透明化:增加模型開發與使用的可解釋性,讓用戶能理解 AI 為何生成特定內容。

上一篇
生成式 AI 的數據來源與資料品質問題
下一篇
生成式 AI 與著作權、智慧財產權爭議
系列文
AI創世紀:生成式智慧的無限想像20
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言