人工智能被寄予能改變下一代生活的希望,但電腦能夠不帶偏見的服務人類嗎?
近期亞馬遜使用AI篩選應徵者資料被發現竟然有嚴重歧視問題,專家們發現AI傾向招聘男性員工,他們認為是因為輸入進AI的訓練資料本身就包含歧視資訊,所以AI只是將資料中歧視的特徵給表現出來。此歧視事件引起國外一陣關注,他們認為公司不該建立歧視觀念的人工智能。
2016年微軟開發出聊天機器人Tay,以女性角色在twitter上登場,Tay能夠即時與網友互動,同時不斷更新資料強化自身人工智能能力。
Tay一開始能與網友聊各種話題,但與網友互動不到一天的時間,Tay開始習得各種大量仇恨、歧視的言語,並在聊天室中發表情色的言論。
造成Tay的心態轉變原因就是網友與Tay聊天時輸入一大堆歧視的言語,經由演算法更新後讓Tay以為這些歧視的言語是主流的價值觀,所以微軟在發現Tay出現不當言論後就將Tay系統關閉重新進行設定。
Tay的事件是微軟第一次開放聊天機器人,不到一天時間就回收的人工智能電腦,她的出現讓人見識到人類的黑暗心態是如何影響人工智能。
從過往的經驗可以得知,大學資訊相關的科系大部分都是男性較多女性較少,這個現象也出現在公司中,因為應徵求職者大部分是男性,所以科技公司男女比可能會嚴重失衡,如果以不公平的資料餵給電腦學習,電腦就會習得給男性較高的分數,相反的給女性較低分數。
電腦本身或是說演算法本身其實是不帶任何情感的,讓電腦學習到歧視原因是源自於人類本身,因為人類擁有感情、私心所以產生大量帶有歧視概念的訓練資料,所以想要人工智能不帶偏見,必須要人類自己本身不帶偏見才行,否則就算科學家強加一堆反歧視規則到電腦中,一樣會有漏洞導致偏見的產生。
1. 微軟AI少女被網友帶壞 說自己「很想要」
2.亞馬遜祕密開發的人資 AI 竟有性別歧視 履歷有「女」字就先扣分