iT邦幫忙

1

你貼到 ChatGPT 的這 5 種東西,正在讓公司損失數億——Samsung、醫院、財務部踩過的同一個坑

  • 分享至 

  • xImage
  •  

2023 年 3 月,Samsung 半導體部門剛剛開放員工使用 ChatGPT。

20 天內,發生了 3 起重大機密外洩事故

  • 工程師 A 把半導體設備量測資料庫的原始碼貼進去,想讓 ChatGPT 幫他 debug
  • 工程師 B 把良率計算程式的完整原始碼貼進去,想優化程式
  • 員工 C 把會議錄音先用 NAVER Clova 轉成逐字稿,再把整份內部會議紀錄貼進 ChatGPT 做摘要

Samsung 立刻把員工輸入 ChatGPT 的 prompt 限制在 1024 個 byte 以內作為緊急應對,並啟動紀律調查(來源)。

但資料已經進到 OpenAI 的伺服器,再也拿不回來。

這不是個別員工的疏失。Cyberhaven 2025 年追蹤 160 萬名工作者後發現,員工貼進 AI 工具的資料中,34.8% 是敏感資料——兩年前這個數字是 10.7%,去年是 27.4%。一年一年往上升(來源)。

這篇文章把員工實際貼進去的東西分成 5 類,每一類都配對一個真實發生過的事故。你會發現你的同事——或你自己——可能正在做同樣的事。

第 1 種:原始碼

佔比:員工貼進 AI 工具的敏感資料中,18.7% 是原始碼來源,Cyberhaven 2025)

誰踩過坑:上面提到的 Samsung 工程師 A 和 B。

工程師 A 貼的是半導體量測資料庫的程式——這是 Samsung 競爭優勢的核心之一。工程師 B 貼的是良率計算邏輯——良率是半導體廠最敏感的 KPI,競爭對手拿到可以反推出製程參數。

為什麼員工會做:debug 很痛苦。把程式碼貼進 ChatGPT,3 秒鐘就有人幫你找到問題、優化、重構。對工程師來說,生產力是 10 倍。

為什麼很危險

  • 程式碼裡常常有 hardcoded 的 API key、資料庫連線字串、內部 URL
  • OpenAI 預設會保留使用者輸入作為訓練資料(除非你用 API 並明確 opt-out,或是 Enterprise 版)
  • 程式碼結構本身就是智慧財產權——被訓練進模型後,可能出現在別人的回答裡

對應的比例:Cyberhaven 發現一般 10 萬人規模公司,每週被貼進 ChatGPT 的原始碼片段約有 278 次

第 2 種:會議紀錄與內部討論

誰踩過坑:Samsung 的員工 C。他把會議錄音轉成逐字稿,再把整份貼進 ChatGPT 做摘要。

整場會議的內容——討論的技術路線、預算、競爭策略、個別主管的發言——全部進了 OpenAI 的伺服器。

為什麼員工會做:寫會議紀錄是最被討厭的工作。把逐字稿丟給 ChatGPT,30 秒出一份格式工整的摘要。誰不想?

為什麼很危險

  • 會議紀錄通常包含尚未公開的戰略內部人事異動預算數字對客戶的真實看法
  • 會議中會有高層的即席發言——這些東西如果外流,可能被斷章取義
  • 逐字稿裡常常有員工的名字、職稱、聯絡方式——這是 PII

Cyberhaven 的一個客戶案例:一位主管把 2023 年公司戰略文件貼進 ChatGPT,要求它轉成 PowerPoint 簡報。整份戰略文件——包括市場分析、產品路線圖、競爭對手評估——被貼進去(來源)。

第 3 種:客戶與病患資料

佔比:Cyberhaven 觀察到客戶資料是企業外洩到 ChatGPT 第 2 常見的敏感資料類型(僅次於源碼)

誰踩過坑:Cyberhaven 公開過另一個客戶案例——一位醫師把病患姓名加上診斷結果貼進 ChatGPT,要求它幫忙寫信給保險公司申請理賠。

一瞬間完成兩個違規:HIPAA 違反(美國健康保險可攜性及責任法案)+醫療機密洩漏

為什麼這類場景很普遍

  • 業務:把客戶名單貼進去,要求 ChatGPT 分類或寫追蹤郵件
  • 客服:把客訴內容(含客戶姓名、訂單編號、抱怨細節)貼進去,要求生成回覆
  • 律師:把案件當事人資料貼進去,要求起草文件
  • 醫療:如同上述案例

為什麼很危險

  • 幾乎所有個資保護法規都明令禁止這種跨境資料傳輸(GDPR、HIPAA、台灣個資法、日本個人情報保護法)
  • Varonis 的研究顯示,90% 的醫療機構的 PHI(受保護健康資訊)已經透過 AI copilot 外洩過來源
  • 一旦被主管機關查到,單次違規的罰款就可能達到公司營收的 4%(GDPR 上限)

IBM 2025 年《資料外洩成本報告》統計,醫療產業的資料外洩平均成本是 742 萬美元——是所有產業最高。

第 4 種:內部戰略、財務、未公開計劃

誰踩過坑:上面 Cyberhaven 那位主管的戰略文件案例就是典型。另一個 Cyberhaven 觀察到的類型是財務分析師把季報前的財務資料貼進 ChatGPT 要求做預測分析——這等於把未公開的財報重點提早洩露。

常見場景

  • PM 把產品路線圖貼進去要 ChatGPT 幫忙整理優先順序
  • HR 把薪資結構表貼進去要 ChatGPT 幫忙做分析
  • 財務把未公開的季度數字貼進去要 ChatGPT 幫忙做預測
  • 法務把併購談判紀錄貼進去要 ChatGPT 幫忙分析條款

為什麼很危險

  • 金融業的員工這樣做,等於內線交易風險——如果 OpenAI 的員工或模型將來輸出這些資訊,監管機構會回溯追查
  • IBM 報告指出金融業的資料外洩平均成本是 556 萬美元
  • 未公開的併購、財報、組織變動資訊外洩,公司股價會立刻受影響

第 5 種:R&D 與專利前技術

佔比:Cyberhaven 統計敏感資料的 17.1% 是 R&D 資料——排在原始碼之後、行銷資料之前

典型場景

  • 研究員把尚未申請專利的技術構想貼進 ChatGPT 要求幫忙寫成論文
  • 工程師把新產品的設計規格貼進去要求生成測試案例
  • 生技研究者把臨床試驗資料貼進去要求統計分析

為什麼特別危險

  • 專利法要求技術必須是「未公開」的才能申請——只要你貼進 ChatGPT,技術上已經「揭露給第三方」
  • 尚未發表的學術研究貼進去後,如果有另一個研究者看過 ChatGPT 的輸出中類似概念,你的 priority 就消失了
  • 商業機密的法律保護,前提是你有合理的保密措施——隨便貼進 ChatGPT 不符合「合理保密」的定義

為什麼擋不住

你可能會想:「公司應該禁止員工這樣做吧?」

現實

  • 77% 的員工承認透過 AI 工具分享過公司機密資料(LayerX Security 調查,來源
  • 32.3% 的 ChatGPT 使用、58.2% 的 Claude 使用、60.9% 的 Perplexity 使用,是透過個人帳號完成的來源,Cyberhaven 2026)
  • 86% 的組織對員工 AI 使用沒有任何可見度

員工用個人帳號在個人手機上登入 ChatGPT。公司的 DLP(資料外洩防護)系統看不到瀏覽器內容、看不到輸入內容、看不到剪貼簿貼上——因為它根本不在企業網路內。

IBM 2025 年報告也給出了數字:有重度 Shadow AI 使用的公司,單次資料外洩平均多付 67 萬美元來源)。

而且 97% 發生 AI 相關資料外洩的公司,沒有建立正確的 AI 存取控制

你們公司可能已經在漏

員工每 3 天就把敏感資料輸入 AI 工具一次。

這是 Cyberhaven 2026 年的數字——跟蹤了他們客戶的實際資料流動得到的。不是調查,是真實的行為資料。

更糟的是:0.9% 的員工製造了 80% 的資料外洩事件。也就是說——每 100 人的公司裡,大約 1 個人正在反覆把敏感資料丟給 AI。

這個人可能是你團隊裡最高生產力的那一個——因為他學會用 AI 加速工作。
也可能是新進的年輕員工——對資料敏感性還不夠敏感。
或者是最資深的主管——他覺得自己的判斷力不會出錯。

你能做的事

個人層面

  1. 永遠不要貼公司資料到 ChatGPT 的免費版 / 個人版
  2. 貼之前先問自己:這份資料我願意給競爭對手看嗎?
  3. 如果真的需要 AI 協助,使用公司提供的 Enterprise 版本(ChatGPT Enterprise、Claude for Work)——這些版本合約上不會拿你的資料做訓練

公司層面

  1. 建立AI 使用政策(目前 63% 的公司沒有)
  2. 部署AI 感知的 DLP——傳統 DLP 看不到 AI 互動
  3. 提供經過核可的 Enterprise AI 工具——禁止不如疏通
  4. 員工教育——但不是靠 PPT 威嚇,要用真實案例讓他們覺得「這可能是我」

最殘酷的事實

Samsung 事件是 2023 年的事。

三年過去了,所有產業都在重複同樣的錯誤。不是因為員工變笨,而是因為:

  • AI 工具的生產力提升太真實、太即時
  • 資料外洩的後果太延遲、太抽象
  • 公司的防護措施太慢、太複雜

當你的工程師對著 bug 耗了 2 小時,而旁邊的同事說「我剛剛貼進 ChatGPT,它 5 秒就找到問題了」——在那個瞬間,生產力的誘惑永遠會贏。

除非——公司先提供了同樣快、同樣好、但安全的替代方案。

這就是為什麼 2026 年的 AI 資安策略,核心不再是「禁止」,而是「如何在員工選擇個人帳號之前,先把 Enterprise 版本送到他們桌上」。

參考資料


圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言