AI倫理中討論最廣泛的就是預測分析系統中的偏見與歧視問題以下有四個實例
- Amazon亞馬遜自動招聘系統歧視女生
亞馬遜曾經使用AI來分析求職者的職位,由於女性在技術方面相對男生不佔優勢,因此演算法就傾向選擇男性。
- COMPAS種族偏見與再犯罪率
COMPAS是一個美國預測再犯罪率的工具。2016年調查後發現黑人被錯誤判定為再犯率的機率高於白人。
- 美國醫療保健低估黑人病患需求
2019調查發現,因醫院使用AI系統因此需要大量的成本,而導致病患需支付更多費用。原本白人所付的錢就高於黑人,所以又因此有了貧富差距的問題。所以系統判定黑人病患的健康錯誤率就又提升了。歸根究底,又回到了貧富差距的問題。
- ChatBot Tay分享歧視推文
2016年微軟推出Tay聊天機器,希望能在Twitter上與用戶對話互動式學習。但不到24小時,聊天機器人就開始分享種族主義、反猶太主義等推文
以上就是AI存在的一些有偏見的憂慮,我認為現在科技愈來愈進步這種問題只會更多不會減少,所以大家應更注重這些問題並想出應對方法去避免這些問題愈來愈嚴重。