路透社報導,亞馬遜的AI在篩選履歷、為公司尋找適合的員工的過程時會重男輕女。整件事要回到2014年,原本旨在希望透過系統的機器訓練,讓AI在大量的履歷中能夠找到優秀的員工,無疑能幫助公司節省大量的勞動力。人類訓練AI的目的和初衷本應該是希望他們能夠做出專業且理性的判斷,但如今AI也戴上了有色眼鏡,因此這個計畫團隊已經被解散了。
然而為什麼會造成AI有性別歧視的問題,大家將問題歸咎在訓練AI的訓練樣本上,因為在具體的訓練方法上,亞馬遜針對性開發了 500 個特定職位的模型,對過去 10 年簡歷中的 5 萬個關鍵詞進行辨識,最後進行重要程度的優先級排序。但這些履歷中,求職者多半是男性,以至於造成AI在搜尋關鍵字時,大部分會蒐集到男性求職者的履歷,也就讓AI認為在這樣的工作中女性並不是這麼重要。
演算法終究是人類寫出來的,什麼樣的輸入就有什麼樣的產出,因此當人們帶著有色眼鏡去做搜尋資料時,演算法只知道將數據結合,也就造成沒有好的數據。文章中說,人工智慧目前發展時間並不長,所以它的成長有很大一部分依靠人類給予的養分與教育,才會讓人工智慧也帶著了人類世界的色彩。
人工智慧勢必會越來越成熟,但很多傳統的觀念及社會價值觀都已經根深蒂固,即使資料庫都已經更加豐富,那些小毛病可能還是會伴隨著,有沒有辦法能夠去根除,可能還要再好一段很長的路。
參考文章:https://technews.tw/2018/10/17/ai-discrimination-mistakes/