AI 應用在企業環境中,除了效能與成本之外,另一個關鍵問題是:
👉 「我的資料會不會外洩?」
👉 「誰可以用 AI 平台?權限要怎麼管?」
今天我們就來聊聊 安全性與權限控管。
1️⃣ AI 專案中的安全挑戰
在企業導入 AI 時,常見的資安風險包括:
敏感資料外洩:把內部文件送到模型 API 時,是否會被用來再訓練?
存取權限不明確:所有人都能呼叫 AI API → 可能濫用資源
合規要求:醫療、金融、政府部門,必須符合 GDPR、ISO、HIPAA 等規範
模型回覆風險:AI 生成錯誤或不當內容(幻覺、偏見、攻擊性回答)
2️⃣ Azure AI Foundry 的安全機制
資料不會被用於再訓練(企業版保證)
角色型存取控制 (RBAC):
Owner、Contributor、Reader
可限制哪些人能部署模型、呼叫 API
網路安全:
VNET (虛擬網路) 隔離
Private Endpoint → 避免 API 暴露在公網
資料加密:
靜態資料(at rest)
傳輸中(in transit, TLS 1.2+)
3️⃣ GCP Vertex AI 的安全機制
資料保護:
Google 保證企業客戶資料不會用於公開模型訓練
支援自帶金鑰 (Customer Managed Encryption Keys, CMEK)
IAM 權限控管:
roles/aiplatform.admin、roles/aiplatform.user
精細化控制誰能部署、誰能測試
網路安全:
VPC Service Controls → 隔離資源
Private Service Connect → API 不暴露在公網
安全審計 (Audit Logging):
所有 API 呼叫與操作可追蹤
4️⃣ 開發實務中的安全守則
✅ 最小權限原則 (Principle of Least Privilege)
不要給所有人 Admin 權限
建立不同層級:開發者、測試者、營運人員
✅ 資料脫敏
在送入模型前,過濾敏感資訊(客戶姓名、身份證號碼)
✅ 使用私有網路
避免讓 API Key 在公開網路環境中外洩
✅ 審計與監控
追蹤誰呼叫了 API、使用了多少次
監控異常請求(例如突發的大量 Token 消耗)
5️⃣ 小結
今天我們學會:
企業導入 AI 的常見安全挑戰
Azure AI Foundry 與 GCP Vertex AI 的安全機制
開發實務中必須遵守的安全守則