第二是錯誤及偏見,曾經看過一篇報導寫到,某一年GOOLGE PHOTO誤把兩名黑人標記成大猩猩,為此GOOLGE出來道歉並立即修正此問題,還有人臉犯罪防治測試功能,這項功能的臉部識別數據庫會「無意識」的偏向黑人,因著現在的演算法技術對於辨別黑人的準確度較低,容易出錯,使得黑人被歸類在高風險的犯罪類別比其他高出許多,甚至還有教授在期刊中發表了可以判斷是否為同性戀的研究,我覺得這項研究頗具爭議,若被拿來利用,可能會造成一些不好的後果,他的使用權似乎還有待大家思考。
AI會因著創作者灌輸的資訊而學習到他們的偏見,它會反映著人們如何看待這個世界,不僅僅是創作者,包括數據等的偏見都會影響到它們的判斷,AI不會辨別接收到的資料是對還是錯,這是現在人們要去解決的問題,透過不斷的修正演算法使其盡量保持在中立的態度。