經由前面的文章,我們了解到要藉由機器學習對組織進行轉型,在商業流程上會需要考慮與完成什麼,才能達成目標。然而,在機器學習於商業的使用上,其實還有個很重要的層面,也就是我們在使用機器學習時所創造的效益,是否可以讓人人都受惠,而非排除某些特定群體,這樣的一個觀念就是包容性機器學習(Inclusive Machine Learning)(註1)。
而在達成包容性機器學習的路上,有個龐大的阻礙,那便是偏見(Bias)。由於眾多機器學習在學習時,所使用的資料,特別是作為預測目標的 標籤(Target or Label) 往往是由人們去提供的,在這過程中許多當中潛藏的人類偏見便會悄悄地藉由機器學習的建模學習過程被展現,甚至放大,使得在模型應用時,出現了對某些群體的不公或偏見,比如說種族、收入、性別與宗教等,恐造成無法挽回的錯誤決策。因此,如何了解這些不公背後的原因,並加以防範,是達成包容性機器路上很重要的一環。
註1: https://cloud.google.com/inclusive-ml/?hl=zh-tw