iT邦幫忙

2024 iThome 鐵人賽

DAY 27
0

找了一輪資料,發現中文好像就是直接叫負責任 AI,今天會以這個主題也是因為寫最近幾篇文章,除了法規以外、信任感或永續發展,都有提到相關的概念,本來是想取名為可靠性 AI,但想想好像有些微不同,所以還是先沿用負責任 AI 這個名字。

負責任 AI 的核心

負責任 AI 是一個確保 AI 技術以公平、安全、透明和負責的方式開發和運行的框架。其目的是減少 AI 技術可能帶來的倫理和社會風險,並確保技術的正確應用。核心原則包括:

  • 公平性:確保 AI 系統對所有使用者公平,避免偏見和歧視。
  • 透明度:AI 系統的決策過程應該是透明且可解釋的,讓使用者能夠了解如何做出決策。
  • 隱私與安全:保障使用者的數據隱私,防止數據洩漏及其他風險。
  • 責任制:確保系統的開發者和使用者能夠對 AI 的運行結果負責。

微軟的架構

微軟對負責任 AI 的核心架構建立在六大原則之上:公平性、可靠性、安全性、隱私與保密性、包容性、透明度及責任制。微軟透過 Azure Machine Learning 提供了負責任 AI 工具,例如公平性評量元件、模型解釋工具和反事實假設模擬,這些工具幫助開發者分析 AI 模型的行為和風險,並確保系統能夠以負責任的方式運行。

https://ithelp.ithome.com.tw/upload/images/20240910/20078303L6r0T1h14a.png
圖片來源

Google 的架構

Google 的負責任 AI 架構則強調 AI 的社會效益、安全性以及避免不公平偏見。Google 設立了七項核心原則,包括:

  • 社會效益:開發能對社會產生正面影響的 AI 技術。
  • 避免不公平偏見:防止 AI 系統中產生與性別、種族、宗教等相關的不公正影響。
  • 安全性:確保 AI 系統在設計和運行時具有足夠的安全保障。

更多核心原則,請參考 Google 的原則

此外,Google 還禁止開發或部署可能對人類造成傷害的技術,如武器或侵犯隱私的技術。

實際使用負責任 AI 案例

負責任 AI 的實踐在多個領域中展現了其價值。以微軟的 Tay 聊天機器人為例,該系統因缺乏倫理審核,在公開運行不到一天後便因被用戶訓練成發表種族和性別歧視言論而下線。這一事件反映了在 AI 開發中未能考慮到倫理問題所帶來的潛在風險。

例如 IBM 幫助一家美國公司開發了一個無偏見的招募 AI 工具,確保在吸引和招募人才時,系統能夠做出公平且可信的決策。此外 H&M 也創立了一個負責任 AI 團隊,致力於供應鏈優化和可持續發展的目標,同時確保技術在應用過程中不會對消費者或環境造成負面影響。

參考


上一篇
Day 26 生成式 AI 的相關法規
下一篇
Day 28 生成式 AI 的資料
系列文
生成式 AI 的演進與應用:從理論基礎到未來趨勢30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言