iT邦幫忙

2025 iThome 鐵人賽

DAY 9
0
生成式 AI

生成式 AI 與資安防線:探索、實驗與實作系列 第 9

Day 9:AI 與社交工程攻擊(釣魚郵件、Deepfake 聲音)

  • 分享至 

  • xImage
  •  

今天我們來談一個很貼近日常、也很危險的議題:生成式 AI 怎麼被用來強化社交工程攻擊(social engineering),像是 釣魚郵件 和 Deepfake 聲音,以及我們能採取哪些防禦策略。

為什麼 AI 讓社交工程更可怕?
傳統社交工程仰賴文案與人性的弱點;生成式 AI 則把「語言能力」和「個性化」放大了:

  • AI 能快速生成語句流暢、語氣自然的郵件或訊息,降低被識破的機率。
  • 結合公開資料(社群、LinkedIn、公司官網),攻擊內容能更加針對某人或某公司(spear-phishing)。
  • 透過語音 / 影像生成技術,攻擊者可以偽造領導者或同事的聲音/影像,進一步提升信任感。

結果:攻擊變得更逼真、成本更低、覆蓋面更廣 — 這對個人與企業都構成實際風險。

常見場景(非操作性示例)

  • 釣魚郵件升級版:收到看似來自公司財務或主管的請款/匯款指示,語氣與內容都很像真實信件,甚至引用過去專案細節。
  • 語音詐騙(Deepfake Voice):打電話聲音極像你的主管,要求立即轉帳或下達機密指示。
  • 社交平台偽裝:假帳號以高品質的個人介紹與對話吸引目標建立信任,然後索取敏感資訊。
    注意:上面是描述攻擊形式,不包含任何教學或製作步驟。

防護策略(個人與企業皆適用):
以下是實務上能立刻採取或建議的防護措施,重點放在「降低被騙機率」與「快速偵測回應」:

  1. 教育與提升警覺(最重要):
  • 定期訓練員工辨識釣魚郵件與可疑訊息:不要只講理論,多做情境演練(由安全團隊設計、控制的模擬測試)。
  • 強調「二次確認」文化:任何涉及資金或敏感資料的請求,採用第二種通信方式(例如面對面、已知的手機號碼、公司內部系統)確認。
  1. 技術層面防線:
  • 啟用 Email 認證與過濾:SPF、DKIM、DMARC 可減少冒用發信的風險。
  • 使用郵件網關與內容過濾:自動偵測可疑附件、惡意連結與高度相似信件。
  • 多因素驗證(MFA):即使帳號或密碼被騙取,也能阻止直接登入與竊取資料。
  1. 身份與內容驗證:
  • 對於語音或視訊要求高度信任行為前,使用事先約定的驗證口令或流程(例如預先約定的確認碼)。
  • 採用數位簽章與內容的來源標記(provenance)技術,尤其在敏感文件交流上。
  1. 偵測與回應:
  • 建立日誌與異常偵測機制(如行為分析、登入異常、非典型高額金流)。
  • 設立明確的通報流程:一旦懷疑釣魚或 Deepfake,員工知道如何快速通報、暫停交易或封鎖帳號。
  1. 法律與政策準備:
  • 訂立公司內部的「數位溝通政策」,規範用於付款、機密交換的正式流程。
  • 與法務團隊準備好處理被冒用情況的應變與通知流程。

結論:防禦比追查更重要
生成式 AI 讓社交工程更具威脅性,但也並非無解。關鍵在於:
1.建立「不只一次的驗證」文化(尤其是金錢與機密事項)。
2.把教育、技術與流程三者結合:訓練員工、強化技術防護、設計應變流程。
3.持續演練並更新策略,因為攻擊技術也在演進。


上一篇
Day 8:AI 在資安領域的潛在風險
系列文
生成式 AI 與資安防線:探索、實驗與實作9
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言