iT邦幫忙

2019 iT 邦幫忙鐵人賽

DAY 15
0
自我挑戰組

資料分析之路的雜談系列 第 15

人工智能的偏見

  • 分享至 

  • xImage
  •  

人工智能被寄予能改變下一代生活的希望,但電腦能夠不帶偏見的服務人類嗎?

近期亞馬遜使用AI篩選應徵者資料被發現竟然有嚴重歧視問題,專家們發現AI傾向招聘男性員工,他們認為是因為輸入進AI的訓練資料本身就包含歧視資訊,所以AI只是將資料中歧視的特徵給表現出來。此歧視事件引起國外一陣關注,他們認為公司不該建立歧視觀念的人工智能。

暗黑聊天機器人

2016年微軟開發出聊天機器人Tay,以女性角色在twitter上登場,Tay能夠即時與網友互動,同時不斷更新資料強化自身人工智能能力。

Tay一開始能與網友聊各種話題,但與網友互動不到一天的時間,Tay開始習得各種大量仇恨、歧視的言語,並在聊天室中發表情色的言論。

造成Tay的心態轉變原因就是網友與Tay聊天時輸入一大堆歧視的言語,經由演算法更新後讓Tay以為這些歧視的言語是主流的價值觀,所以微軟在發現Tay出現不當言論後就將Tay系統關閉重新進行設定。

Tay的事件是微軟第一次開放聊天機器人,不到一天時間就回收的人工智能電腦,她的出現讓人見識到人類的黑暗心態是如何影響人工智能。

AI招聘系統可以不帶偏見嗎

從過往的經驗可以得知,大學資訊相關的科系大部分都是男性較多女性較少,這個現象也出現在公司中,因為應徵求職者大部分是男性,所以科技公司男女比可能會嚴重失衡,如果以不公平的資料餵給電腦學習,電腦就會習得給男性較高的分數,相反的給女性較低分數。

電腦本身或是說演算法本身其實是不帶任何情感的,讓電腦學習到歧視原因是源自於人類本身,因為人類擁有感情、私心所以產生大量帶有歧視概念的訓練資料,所以想要人工智能不帶偏見,必須要人類自己本身不帶偏見才行,否則就算科學家強加一堆反歧視規則到電腦中,一樣會有漏洞導致偏見的產生。

Reference

1. 微軟AI少女被網友帶壞 說自己「很想要」
2.亞馬遜祕密開發的人資 AI 竟有性別歧視 履歷有「女」字就先扣分


上一篇
類腦計算
下一篇
AI教育
系列文
資料分析之路的雜談30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言