嘿,各位鐵人賽的夥伴們,大家好!還記得 2017、2018 年,AI 應用剛開始在圖像辨識(Image Recognition)領域展現突破性的能力,甚至在物件辨識上可以達到或超越人類的水準嗎?當時,人們對於 AI 抱持著相當正面的態度,期待它能協助人類消除偏見,做出更公正、客觀的決策,像是司法判決或資源分配。
然而,時間快轉到 2022 年 11 月,生成式 AI(Generative AI, GPAI)橫空出世,特別是大型語言模型(LLM)的應用,徹底改變了我們對「人工智慧」的想像。如今,AI 不再只是被動地分析數據,而是主動生成內容、程式碼、甚至是複雜的決策輔助。
這股浪潮為企業帶來了巨大的數位創新潛力和經濟價值,許多組織預期生成式 AI 將在未來 12 至 18 個月內對他們的行業產生極大影響,甚至顛覆整個產業。
但當我們在享受 AI 帶來的效率提升時,我們是否也停下來思考過:這個強大的新工具,背後潛藏著哪些我們必須主動管理的風險?以及我們該如何建立一個穩健的治理框架,才能安全、負責任地擁抱 AI 時代?
今天的文章,我們將從生成式 AI 的核心概念出發,深入探討其應用場景、模型限制,並全面解析國際(尤其是歐盟 AI Act)和企業層面的 AI 治理與風險控管策略。
生成式 AI(General Purpose AI, GPAI)之所以帶來新的挑戰,是因為這類通用目的的模型,其應用目的並未在一開始就被限定於特定的場域。它的應用脈絡是動態(dynamic)的,且最終應用方式很大程度上由使用者決定,這使得風險預設變得困難。
無論是開發商還是使用者,若想在企業內部有效部署 AI 系統,建立「可信賴 AI」(Trustworthy AI)是基礎。歐盟早在 2019 年就提出了 7 個可信賴 AI 的原則,影響了全球對於 AI 規範的架構思考。安永的研究也彙整了 AI 服務提供商和使用者應關注的可信賴 AI 指標。
核心要素 | 說明與重點 | 相關應用原則 |
---|---|---|
以人為本/人工介入與監督 (Human Oversight) | 系統應保留人類的監督與控制權,不能完全剝奪人類的決策能力。在關鍵決策中需有人為判斷的可能。 | 歐盟七原則, 新加坡 Verify AI |
技術穩健性與安全性 (Technical Robustness & Security) | 確保 AI 系統在非預期輸入時能持續運行(穩健性),並且具備資安防護措施。 | 新加坡 Verify AI (安全性/穩健性) |
隱私防護與資料治理 (Privacy & Data Governance) | 涉及隱私權和資料的合法收集、安全儲存、以及處理過程的風險評估。資料來源須清晰,且品質需受管制。 | 歐盟七原則, ISO/IEC 23894 |
透明度 (Transparency) | 演算法的過程應盡可能透明,且使用者需知悉互動對象不是真人。對於高風險 AI,透明度揭露是強制要求。 | 歐盟七原則, 新加坡 Verify AI |
多元、無偏見且公平性 (Fairness & Non-Bias) | 演算法不應複製或加強社會既有偏見。訓練資料應具代表性,以避免對弱勢群體產生誤判。 | 歐盟七原則, 企業倫理框架 |
問責性 (Accountability) | 系統開發和維運需有良好的權責劃分,能夠追溯錯誤來源。高風險 AI 須有完整的檔案紀錄與稽核機制。 | 企業倫理框架, 新加坡 Verify AI |
社會與環境友善 (Social and Environmental well-being) | 確保 AI 系統對於人類和環境是友善的,並促進包容性成長。例如大型語言模型的高耗能問題。 | IEEE 7010-2020 |
儘管生成式 AI 帶來強大的能力,但其模型本身具有幾個難以克服的固有特性,成為企業在導入時必須管理的風險點:
這些限制表明,AI 系統的準確度即使高於人類,但它所犯的錯誤類型可能與人類不同。因此,「人為介入」(human in loop) 在判讀或決策過程中仍必須扮演重要角色。
生成式 AI 雖然是提升效率的利器,但其應用必須高度警惕數據偏見、資訊安全,以及法律責任問題。
生成式 AI 已經快速進入企業的各種應用領域,例如:
應用 AI 系統是否真的能做到客觀公平?從 2020 年開始,大量文獻開始反省這個問題。
AI 產生的偏見通常來自於訓練資料不具代表性,或人類訓練標註中帶入了既有的偏見。
應用領域 | 偏見情境 | 具體影響 |
---|---|---|
司法量刑 | 若使用過往黑人再犯率高於白人的資料進行訓練,系統在預測未來時會複製並加強既有偏見。 | 如美國 COMPAS 系統問題,可能導致歧視性判決。 |
就業廣告 | 演算法根據過往紀錄客製化搜尋結果。 | 提供給女性的就業廣告通常不是領導階級,或賣車廣告不會是最貴的車種。 |
人臉辨識/醫療診斷 | 訓練資料缺乏特定族群(如黑人女性)的代表性。 | Amazon 人臉辨識系統對白人男性準確率近乎 100%,對黑人女性卻降至 70% 以下。在皮膚病診斷中,可能因缺乏黑人皮膚病患資料而導致誤診,忽略需要照護的弱勢群體。 |
資訊標註 | 情感 AI 僅將情緒分為七大類,但在標註時,個人主觀判斷會影響結果。 | 標註反映了人類對現象既存的社會判斷,進而影響 AI 產出的結果。 |
當 AI 出現後,它會深化社會上已存在的偏見效果,且由於人們對演算法的信任,若無法反省其偏見,會更傾向相信 AI 做出的決定,使偏見合理化。
除了潛在的歧視風險,生成式 AI 也帶來直接的法律和營運風險:
在傳統上,過失責任是基於「應注意而未注意」所產生的責任。但當 AI 參與決策時,判斷何為應注意而未注意會出現困難。例如,是否每個醫療決策都需要 AI 輔助系統的雙重驗證才能被視為已盡到注意義務?這將影響未來的注意義務內容是否必須包含 AI 的應用。
面對生成式 AI 帶來的挑戰,國際間和企業都意識到,必須建立強大的治理框架來管理風險。
歐盟是目前發展最快的 AI 監管地區,於 2024 年 3 月通過了里程碑式的《歐盟 AI 法案》(EU AI Act)。該法案採用「風險原則」(Risk-Based Approach),根據 AI 應用可能引發的危險程度進行管制,將 AI 系統分為四個等級:
風險等級 | 定義與要求 | 規範重點 | 舉例應用 |
---|---|---|---|
不可接受的風險 (Unacceptable Risk) | 對人類構成嚴重威脅,全面禁止。 | 完全禁止。 | 具有操弄性 AI、以行為或社經地位為基礎的社會評分(Social Scoring)、即時生物辨識系統(有例外)。 |
高風險 (High Risk) | 可能損害人身安全或基本人權的 AI 系統。需滿足透明度、文獻紀錄、稽核、人為監管及基本權利影響評估等要求。 | 上市前審查,上市後持續追蹤。 | 教育、就業(人才招募篩選)、執法、移民、銀行借貸、關鍵基礎建設、交通、醫療設備(Medical Device)。 |
限制風險 (Limited Risk) | 須有透明度要求,讓使用者知道正在與 AI 互動,並標示 AI 生成內容。 | 資訊透明。 | 生成式 AI(如普通層級 GPAI)。 |
最小風險 (Minimum Risk) | 僅採用行為準則(Code of Conduct)進行自願性監理。 | 自律規範。 | 過濾垃圾信件、遊戲軟體。 |
值得注意的是,對於 生成式 AI(GPAI),歐盟根據其是否具有 系統性風險(Systematic Risks) 進行分類。具有系統性風險的 GPAI(例如 GPT 4.0,因算力評估而被歸類)除了著作權和透明性要求外,還需滿足減少風險(risk mitigation)義務、意外事件回報、網路安全要求,並揭露能源消耗。
鑑於國際監管趨勢,企業必須建立穩健的 AI 治理框架。趨勢科技指出,AI 政策是用來確保 AI 技術合規使用的一套營運規範,有助於保障資料隱私和維護數位安全。
根據 OECD、NIST 和 EU AI Act 的建議,企業應從以下四大面向制定生成式 AI 治理機制,以克服其固有缺陷:
治理面向 | 實施重點策略 |
---|---|
1. 應用盤點與風險分級 | 建立低、中、高風險分級架構,確保針對不同應用(如內部草稿 vs. 法律合約)設定不同的安全要求。 |
2. Prompt 可追溯與審查制度 | 建立自動紀錄系統,保存每次 Prompt 與輸出。提供經審核的 Prompt 範本,並對高風險輸出內容設置複審流程。 |
3. 輸出內容責任與產權管理 | 審查生成內容是否引用受保護素材以避免侵權。明訂 AI 內容審核流程,確保人類決策主導。在外部溝通時,標註 AI 參與內容比例。 |
4. 模型與資料來源治理 | 確認模型是否由可信供應商提供且持續監控。微調(fine-tuning)資料是否完成匿名化與合法授權。完整記錄訓練與應用過程以便未來查核與問責。 |
在推動生成式 AI 治理工作時,企業的資訊長(CIO)可以從以下三個面向進行推動:
資料是 AI 發展的核心。資料治理(Data Governance) 不僅是一門研究,更是一門實務政策,旨在為整個資料生命週期(來源、清理、更新、儲存、分析、傳輸、備份、刪除)的每一階段設定政策和程序。
在 AI 時代,企業必須關注全球主要的資料保護法規:
AI 系統需要大量資料進行訓練,這使得資料的合法收集、安全儲存和合理使用成為企業面臨的首要挑戰。企業必須遵循以下原則:
AI 模型可能存在偏見,導致歧視性決策,因此企業需要建立 AI 倫理框架。
相較於歐盟採用可直接適用的風險基礎立法模式,台灣目前也在討論制定 AI 基本法。
然而,台灣的「基本法」概念與歐盟的系統性法案有所不同。法界觀察者指出,台灣現行的基本法多數是框架式立法,類似原住民基本法,雖然能起到讓大家知道「有跟上世界的腳步」的目的,但可能缺乏處理細節問題的法律效力,存在感低落。這種方式被部分人士視為一種「託辭立法」(alibi legislation)。
因此,對於台灣企業而言,在國家層級的法律框架仍在建構中時,參照歐盟 AI Act、NIST RMF 等國際標準(如 ISO 42001),並主動建立內部治理機制,成為確保合規和競爭力的關鍵。
AI 系統的演進,特別是生成式 AI 的出現,讓我們重新思考法律在規範層面的侷限性。法律規範不應只是單純的禁止,也可能是一種授權空間,為 AI 發展提供更好的基礎。
我們不能只問 AI 能做什麼,更應該問 AI 應該做什麼。這是一場持續演進的動態過程。
要真正實現可信賴的 AI 發展,需要所有參與者—從開發商到使用者—共同努力。我們必須認知到:
生成式 AI 為我們打開了一個充滿無限可能的新世界。雖然前方的道路充滿挑戰,但只要我們能夠保持警惕,將法規遵循與風險控管融入企業的整體戰略,並持續學習與對話,我們就能在享受 AI 帶來的巨大優勢時,同時將其背後風險降到最低。
讓我們帶著對技術的熱情,以及對倫理與治理的敬畏之心,繼續在 AI 浪潮中乘風破浪吧!期待在明年的鐵人賽中,我們能分享更多關於「綠能 AI」(GreenAI)或 Edge 端 AI 應用,共同邁向一個更美好、更負責任的 AI 新世界!