這幾年 AI 發展神速,但伴隨「無限可能」而來的,是「無限風險」。IBM 的 Jeff Crume 在影片 Security & AI Governance: Reducing Risks in AI Systems裡,談到了 如何透過治理(Governance)與安全(Security)來降低 AI 系統的風險。我把內容整理成幾個重點,並加上自己的反思。
AI 能做很棒的事,但同時也可能:
👉 治理:避免「自己造成的傷害」——像是用錯模型、資料來源不純、偏見或幻覺。
👉 安全:避免「別人造成的傷害」——惡意攻擊、內部濫用、提示注入等。
Jeff 提到,治理與安全看似兩條線,但其實應該整合成「多層防護」:
治理層:
安全層:
OWASP 2025 年的 LLM 十大風險,正好呼應了 Jeff 提到的治理 & 安全核心:
OWASP Top 10 (2025) | 治理重點 (Governance) | 安全重點 (Security) |
---|---|---|
1. Prompt Injection | 制定可接受的使用政策 | 建立 AI 防火牆、提示注入測試 |
2. Data Leakage | 知識來源管理、資料合規 | 存取控制、加密、防洩漏監控 |
3. Model Theft/IP Risk | 模型血統追蹤、合法授權 | 防止未授權存取與下載 |
4. Model Bias & Fairness | 訓練數據審查、偏見檢測 | - |
5. Supply Chain Risk | 模型來源驗證 | 攻擊檢測、完整性保護 |
6. Inadequate Monitoring | 生命週期治理、持續審計 | 威脅監控、事件回報 |
7. Model Drift / Reliability | 模型效能監控 | - |
8. Insecure Plugins/Extensions | 外掛政策審查 | 外掛安全測試 |
9. Shadow AI | AI 使用案例登錄 | AI 安全態勢管理 |
10. Over-reliance on LLMs | 強調人機協作、決策透明 | - |
📌 洞見:
想像一家銀行導入客服 AI:
👉 治理確保 AI 說對的話;安全確保 AI 不被操縱說錯的話。
影片最後 Jeff 強調:
如果我們把 AI、本身的治理、再加上安全層,三者整合起來,就能真正降低 AI 的風險。
換句話說,AI 的未來不是「更聰明」而已,而是「更可信、更可控」。
這才是讓 AI 真正落地的條件。