iT邦幫忙

0

你跟 ChatGPT 講的每一句話,對方律師都可以 subpoena——2026 年美國判決讓你的「AI 私密對話」消失了

  • 分享至 

  • xImage
  •  

你正在離婚。

你不敢跟朋友說,不敢跟家人說。但 ChatGPT 可以。所以你在深夜打字:

「我先生把我們的共同帳戶 200 萬偷偷轉到他媽媽名下了。律師說要怎麼追討?我可以先把家裡的股票賣掉轉移嗎?」

你以為這是匿名的。你以為跟 AI 講話就像對著空氣講話。

2026 年 2 月,美國聯邦法院的一份判決終結了這個假設。

你先生的律師現在可以用 subpoena 令要求 OpenAI 提交你所有的 ChatGPT 對話記錄。包括上面那一段「可以先把股票賣掉轉移嗎」——這在法庭上會變成你試圖隱匿資產的證據

這不是假設。這是真實發生的判決,而且影響遠不只離婚。

關鍵判決:US v. Heppner(2026 年 2 月)

事情是這樣的:一位聯邦調查案的目標人,用公開 AI 平台生成了一份「案件策略分析報告」。他把從自己律師那裡得到的資訊,加上自己的案件事實,全部丟進 AI,讓它生成戰略建議。

後來檢察官要求調閱這些 AI 對話紀錄。這位當事人主張:「這些對話屬於律師-當事人特權保護範圍,不能被調閱。」

法院的判決(來源):

1. AI 不是你的律師
律師-當事人特權保護的是「你和你的律師之間的機密通訊」。ChatGPT 不是律師。你跟它講的話,不在特權範圍內。

2. 公開 AI 平台是「第三方」
跟 ChatGPT 分享機密資訊,等於把同一份機密電子郵件轉寄給陌生人。這個動作本身就放棄(waive)了特權

3. 事後找律師也救不了
你不能把 AI 對話紀錄丟到律師那邊,然後說「這現在是律師工作產品」。特權一旦放棄就永久放棄,後來讓律師看過也沒用。

4. OpenAI 的隱私政策明寫了會配合司法程序
OpenAI 的服務條款明確表示,收到合法的 subpoena 時會交出使用者資料

這代表什麼

所有離婚、監護權、財產分配的案件,你的 ChatGPT 對話都可以被要求提交作為證據。

美國婚姻律師協會(AAML)2024 年調查:35% 的家事法律師已經遇到過 AI 生成的內容出現在離婚案件中來源)。現在這個數字只會繼續升高。

具體的場景:

  • 你問 ChatGPT「我老婆有外遇的證據要怎麼收集?」→ 對方律師可以用來證明你主動在監控伴侶
  • 你問 ChatGPT「我收入要申報多少才能少付贍養費?」→ 對方律師可以用來證明你企圖隱瞞收入
  • 你問 ChatGPT「我把小孩帶到別州,前配偶可以告我嗎?」→ 對方律師可以用來證明你計畫親子綁架
  • 你問 ChatGPT「我先生的公司股票有什麼我不知道的?」→ 證明你試圖取得對方商業機密

你以為你在問一個虛擬助手。法庭把它當成你寫在日記裡的供詞。

OpenAI 已經被下令提交 2,000 萬筆對話紀錄

這不是假設性的威脅。

2026 年 1 月,美國聯邦法官 Sidney Stein 在 NYT v. OpenAI 的著作權訴訟中,裁定 OpenAI 必須提交 2,000 萬筆 ChatGPT 使用者對話紀錄作為證據(來源)。

這些使用者沒有被通知,也沒有機會反對

早在 2025 年 5 月,另一位法官 Wang 就已經下達了保全命令(preservation order),要求 OpenAI「保留並隔離所有原本應該被刪除的 output log 資料」——包括你以為你已經刪掉的那些對話。

也就是說:

  • 你在 ChatGPT 設定裡按了「關閉對話歷史」
  • 你把某個對話「刪除」
  • 你登出了帳號、甚至關閉了帳號

全部都還在 OpenAI 的伺服器上,保全命令下被凍結,等著有需要時被調出來。

連 Sam Altman 自己都警告

OpenAI 的 CEO Sam Altman 在 2025 年的一次播客訪談中直接說:

「人們把 ChatGPT 當成律師、醫師、神父在用。我覺得這非常糟糕,因為那些對話可以被傳喚(subpoenaed)。」

他的原話。不是資安研究員的警告,是 OpenAI 自己的 CEO 講的。

律師自己也在踩這個坑

更離譜的是:律師自己也在把當事人的機密資料貼進 ChatGPT。

幾個已經被公開處分的案例:

事件 結果
Mata v. Avianca(2023,紐約) 律師用 ChatGPT 找判例,6 個引用都是 AI 捏造的。$5,000 罰款+全美通報
Mostafavi 案(2025,加州) 律師在上訴狀寫了 23 條引用,21 條是 ChatGPT 捏造的。$10,000 罰款——創加州紀錄
加州兩家律師事務所(2025) 用 Google Gemini + Westlaw 產出虛假判例。$31,000 罰款
Johnson v. Dunn(2025,阿拉巴馬) 大型律師事務所提交虛假判例。整個律師團隊被取消代理資格+通報全美律師公會
伊利諾州 Chicago Housing Authority(2025) 律師用 ChatGPT 寫大型案件答辯書,被抓到引用不存在的伊利諾州最高法院判決。律師被解僱

到 2025 年為止,已追蹤到全美 600 多起類似案件(來源)。

但問題比 hallucination 更嚴重。當律師把當事人的離婚文件、財務紀錄、犯罪案件細節丟進 ChatGPT ——這些資料已經到了 OpenAI 的伺服器上,當事人特權已經被放棄

這意味著:

  1. 你付錢請律師,律師把你的資料貼進 ChatGPT
  2. 對方律師知道後,發 subpoena 給 OpenAI
  3. OpenAI 交出所有相關對話
  4. 你付錢的「律師機密保護」自動失效

為什麼律師會做這件事

同樣的原因,員工會把公司機密貼進 ChatGPT:

  • 寫答辯書要 3 小時,用 ChatGPT 15 分鐘就搞定
  • 整理當事人陳述要半天,貼進 ChatGPT 要求摘要只要 30 秒
  • 研究判例要翻 10 本書,問 ChatGPT 立刻列出來(儘管可能是編的)

史丹佛大學 RegLab 的 2024 年研究:75% 的美國律師打算在執業中使用生成式 AI來源)。而某些類型的查詢有 1/3 的機率產生 hallucination

這就是為什麼美國各州開始要求律師強制揭露 AI 使用。加州司法委員會要求所有法院在 2025 年 12 月 15 日之前制定 AI 使用政策或全面禁止

你現在應該做什麼

如果你正在打官司、準備離婚、處理任何法律糾紛

  1. 立刻停止跟 ChatGPT 或任何公開 AI 討論你的案件細節。不要問「我該怎麼處理」,不要問「我的機率有多大」,什麼都不要問
  2. 不要把法律文件、財務紀錄、通訊紀錄、監護協議草稿貼進任何免費版 AI
  3. 如果你已經貼過了——立刻告訴你的律師。讓他評估曝險程度,不要等到對方律師發現
  4. 想做一般法律知識查詢(例如「什麼是共同財產制」)時,絕對不要加入你自己的案件細節

如果你是律師

  1. 強制使用律師專用 AI 工具(例如 Lexis+ AI、Westlaw Precision AI、Spellbook)——這些工具的服務條款保證不會用客戶資料訓練
  2. 如果要用 ChatGPT 或 Claude,用 API 並且打開 zero-data-retention 模式,或使用 Enterprise 版本
  3. 每一條 AI 產出的引用都親自到 Westlaw 或 LexisNexis 驗證過。這不再是禮貌建議,是裁判官要求的專業義務
  4. 所有律師事務所員工(包括 paralegal)都必須接受訓練。一個助理隨意貼進去的文件,會讓整個事務所失去代理資格

如果你是個人,不打官司但日常用 ChatGPT:

  1. 假設你輸入的每一個字都可能出現在未來的法庭上
  2. 不要問任何可能被解讀為「有罪」的問題(例如稅務技巧、感情糾紛、商業秘密)
  3. 看 OpenAI 的資料政策——即使你「關閉對話歷史」,資料仍會保留 30 天,並且可能因為法院保全命令被永久保留

最令人不安的事實

私密對話消失了。

過去 20 年,你可以假設:你付錢給律師、醫生、神父,他們聽到的話有法律保護。你可以假設你跟 Google 搜尋的紀錄會漸漸被遺忘。

2026 年的世界:

  • AI 對話沒有律師-當事人特權
  • AI 對話沒有醫病保密
  • AI 對話沒有「遺忘權」——保全命令一下,永久凍結
  • AI 公司會配合司法程序——他們的隱私政策明寫了

你以為你跟 ChatGPT 講的那些話是消散在空氣中的自言自語。

法庭把它當成你的證詞。

參考資料


圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言