iT邦幫忙

2025 iThome 鐵人賽

DAY 14
0
AI & Data

AI 實戰 30 天:Azure Foundry 與 Vertex AI 全面探索系列 第 14

Day 14:安全性與權限控管 — 讓 AI 在企業中安全落地

  • 分享至 

  • xImage
  •  

AI 應用在企業環境中,除了效能與成本之外,另一個關鍵問題是:
👉 「我的資料會不會外洩?」
👉 「誰可以用 AI 平台?權限要怎麼管?」

今天我們就來聊聊 安全性與權限控管。

1️⃣ AI 專案中的安全挑戰

在企業導入 AI 時,常見的資安風險包括:

敏感資料外洩:把內部文件送到模型 API 時,是否會被用來再訓練?

存取權限不明確:所有人都能呼叫 AI API → 可能濫用資源

合規要求:醫療、金融、政府部門,必須符合 GDPR、ISO、HIPAA 等規範

模型回覆風險:AI 生成錯誤或不當內容(幻覺、偏見、攻擊性回答)

2️⃣ Azure AI Foundry 的安全機制

資料不會被用於再訓練(企業版保證)

角色型存取控制 (RBAC):

Owner、Contributor、Reader

可限制哪些人能部署模型、呼叫 API

網路安全:

VNET (虛擬網路) 隔離

Private Endpoint → 避免 API 暴露在公網

資料加密:

靜態資料(at rest)

傳輸中(in transit, TLS 1.2+)

3️⃣ GCP Vertex AI 的安全機制

資料保護:

Google 保證企業客戶資料不會用於公開模型訓練

支援自帶金鑰 (Customer Managed Encryption Keys, CMEK)

IAM 權限控管:

roles/aiplatform.admin、roles/aiplatform.user

精細化控制誰能部署、誰能測試

網路安全:

VPC Service Controls → 隔離資源

Private Service Connect → API 不暴露在公網

安全審計 (Audit Logging):

所有 API 呼叫與操作可追蹤

4️⃣ 開發實務中的安全守則

✅ 最小權限原則 (Principle of Least Privilege)

不要給所有人 Admin 權限

建立不同層級:開發者、測試者、營運人員

✅ 資料脫敏

在送入模型前,過濾敏感資訊(客戶姓名、身份證號碼)

✅ 使用私有網路

避免讓 API Key 在公開網路環境中外洩

✅ 審計與監控

追蹤誰呼叫了 API、使用了多少次

監控異常請求(例如突發的大量 Token 消耗)

5️⃣ 小結

今天我們學會:

企業導入 AI 的常見安全挑戰

Azure AI Foundry 與 GCP Vertex AI 的安全機制

開發實務中必須遵守的安全守則


上一篇
Day 13:成本控管 — 平衡效能與花費
系列文
AI 實戰 30 天:Azure Foundry 與 Vertex AI 全面探索14
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言