iT邦幫忙

2024 iThome 鐵人賽

0
生成式 AI

30天掌握生成式AI的未來應用系列 第 26

Day26:其實也有隱憂...

  • 分享至 

  • xImage
  •  

在AI帶起一股風潮後,大家使用的機會與頻率越來越高,我們的生活中已經不能沒有AI了,但其實並非沒有隱憂或問題,人工智能教父Geoffrey Hinton在今年四月宣布從谷歌離職。根據《紐約時報》上的專訪,辛頓表示他「後悔畢生的工作」、「很難看出我們要怎麼預防有心人士拿它來作惡」。擔心在科技巨頭劇烈競爭下,道德倫理跟監管尚未跟上時,不斷推陳出新的AI技術,「殺手機器人」終有一天可能成真,對人類造成威脅。

大家都快討論到爛掉的話題,我們會不會被AI統治,不同專家提出不同看法,其實我們還沒有一個共識,那隱憂是什麼呢?
1.擴大貧富差距
勞動力的大量自動化,導致大量低技能勞動者失業,因失業致貧。 同時,人工智能帶動了新職業的興起,受教育獲高品質的人才更加富有。
2.偏見與歧視
美國醫院的AI系統分析超過2億人的醫療保健成本歷史,以成本評估哪些患者需要額外醫療照護。但這忽略黑人和白人患者不同的支付方式,整體來說黑人患者的醫療費用低於同等條件下的白人患者,因此系統得出黑人患者比同樣患病的白人患者更健康的錯誤結果(黑人患者獲得更低的風險評分),在相同需求下也無法獲得和白人患者一樣多的額外護理,估計種族偏見的計算方式使被確定需要額外護理的黑人患者人數減少了一半以上。
3.錯誤資訊
目前ChatGPT被廣泛使用,但使用者常常會發現機器人一本正經的講出非事實的論述。當AI聊天機器人給出錯誤答案時,稱之為「幻覺問題」(hallucinations problem)。但因為他們被訓練得很有禮貌、很會表述,因此一般大眾通常難以分辨話中真假。人們有時候會直接相信或抄襲裡面的內容,不求證不改變,也讓假訊息繼續傳播下去。
4.deepfake問題
這在前十天時其實都有提到,不僅是道德問題更還有法律責任,可能會造成當事人的名譽、身心靈狀況都受損。

那我們應該怎麼解決呢?
下一篇見!


上一篇
Day25:在疾病預測中的應用
下一篇
Day27:有隱憂就去避免&解決!
系列文
30天掌握生成式AI的未來應用27
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言