今天要討論的是關於使用AI時的隱私與資料安全問題。
無論是個人用AI整理筆記,或企業在產品中導入生成式 AI,資料安全都是很重要的部分。
為什麼應該特別注意隱私問題?
包含使用者敏感資料:對話中可能包含個資、公司內部資訊。
AI是雲端服務:大多數模型(像ChatGPT、Gemini)在雲端運行,資料會被送出,當然如果用本地端就另當別論。
法律與合規:GDPR、CCPA、台灣個資法等法規,都要求保護個人資料。
資料內容刺激 : 有些內容可能不適合AI的小小腦袋,他可能會爆炸。
生成式 AI 的常見隱私風險
機密資料外洩 : 對話中輸入的敏感內容被第三方儲存
模型記憶 : 某些服務可能用輸入資料改善模型
未授權存取資料 : 若服務端被攻擊,資料可能遭外洩
違反某些規定 : 未遵守GDPR/個資法規定
Prompt Injection : 惡意輸入引導AI洩露隱私
使用雲端生成式AI個人使用者的安全建議
1.不要輸入敏感資訊
避免上傳身分證號、地址、電話等。
2.確認服務隱私政策
ChatGPT「進階資料控制」可關閉對話訓練。
付費版通常提供更好的資料保護。
3.雙重驗證與金鑰管理
使用API時,不要把金鑰硬寫在程式碼中。
避免在公開平台(像GitHub)上外洩金鑰。
相關法規
GDPR(歐盟):要求明確告知資料使用方式,可要求刪除個資。
台灣個資法:收集、處理、利用個人資料須合法且告知。
企業責任:若因AI造成個資外洩,企業須負賠償責任並通報主管機關。