iT邦幫忙

2025 iThome 鐵人賽

0

海納百川》醫療暴力再現 照護體系的制度斷裂(王勝)
https://www.chinatimes.com/opinion/20251118003563-262110?chdtv

醫療暴力再現:當照護體系斷裂,生成式 AI 必須成為「制度級護欄」

近年台灣多起醫療暴力事件,一再發生在門診走廊、急診室與病房。
最新一起,是一位已司法定讞、清白無虞的高齡醫師,在門診遭到攻擊——他一輩子投入臨床、教學與行政,卻仍無法免於暴力風險。

社會輿論每次都會譴責加害者,但討論多停留在「情緒」與「個案」,忽略了一個更核心的問題:

醫療暴力不是偶發衝動,而是照護體系「預警失靈」與「人力過載」的系統性結果。

在生成式 AI 快速進入醫療場域的此刻,我們如果只把 AI 用在寫病歷、生成文書,而不處理「安全」與「風險治理」,其實是錯失了一個關鍵機會。

本文嘗試從社工個案管理、醫療治理與生成式 AI 的交會點,討論:
AI 應該如何從「好用工具」進化為「制度護欄」,保護醫師、護理師與社工?


一、醫療暴力是什麼?是「系統錯過了一連串可以介入的時刻」

在社工專業中,莫克斯利(Moxley, 1997)提出的個案管理模式,強調四個核心功能:

  • 服務連結(Linkage)
  • 倡導(Advocacy)
  • 風險監測(Monitoring)
  • 持續追蹤(Follow-up)

理想狀態下,高風險個案在踏進醫院之前,就應該被系統性評估、串聯並持續追蹤;
但現實是:

  1. 資訊斷裂:法院、社福、醫院、長照之間資訊無法流通,高風險歷史被切成一段一段。
  2. 人力耗竭:醫療社工與護理師花大量時間在行政、填表、系統重複 key 資料。
  3. 預警缺位:除非個案當場失控,否則難以在高壓環境中即時察覺「不對勁」。

最後我們看到的暴力事件,往往是:

一連串被錯過的求救訊號,累積成一個爆點。


二、生成式 AI 不該只是「寫病歷」,而是「放大早期危險訊號」

很多醫療機構已經在使用生成式 AI(Generative AI, LLM)做三件事:

  • 協助撰寫病歷摘要
  • 生成衛教說明
  • 協助整理研究或 guideline

這些都很有價值,但如果僅止於此,其實只是在「既有流程」上灑一層 AI 的糖霜。
在醫療暴力與高風險個案管理的脈絡中,生成式 AI 更重要的角色是:

幫系統「看見」第一線人員看不完、看不及、記不住的訊號。

以下用四個具體場景說明。


三、四個可落地的應用場景:從語意雷達到風險儀表板

1. 「公開訊息 × 語意雷達」:提早偵測危險敘事

在嚴格遵守隱私與法規的前提下,生成式 AI 可以被用來:

  • 分析 公開留言板、投訴信件、匿名評論 中的語意模式
  • 偵測以下類型的文字:
    • 長期反覆點名特定醫師或醫院
    • 持續出現「報復」、「教訓」、「我要討回公道」等暴力傾向字眼
    • 情緒曲線逐漸升高(從失望 → 憤怒 → 威脅)

這並不是在「監控人民」,而是在已公開的文字中,
讓系統提早標記可能需要社工或醫院窗口「關心一下」的個案。

AI 的角色不是「抓壞人」,而是幫忙把本來埋在資料海裡的紅色旗幟拉出來。


2. 「異常行為 × 多源資料」:門禁與出入模式的早期警示

在合規的資安前提下,醫院本來就會記錄:

  • 進出門禁記錄
  • 某些敏感區域(如醫師辦公室)的出入頻率
  • 夜間或例外時間的異常停留

生成式 AI 不需要看到個人姓名與完整身分,只需要閱讀「模式」:

  • 是否有人頻繁在診間外徘徊但不掛號?
  • 是否出現不尋常的進出動線組合?
  • 是否與過往已知的高風險行為模式相似?

這類分析過去需要工程師、統計與 IT 反覆合作,
生成式 AI + 向量資料庫的組合,已經可以讓:

  • 社工 / 安管 / 護理長 直接用自然語言詢問:
    • 「過去三個月,在 X 樓反覆出現且有投訴紀錄的對象有哪些模式?」
    • 「幫我整理與某醫師糾紛案件相關的出入紀錄與投訴內容摘要。」

3. 「行政減壓 × 智能表單」:讓專業人力從文書抽身

醫療暴力事件背後一個被忽略的現實是:

第一線人員已經過載,再多一個表單,就是再少一份注意力。

生成式 AI 可以做的不是再多一套填報系統,而是:

  • 將既有表單 語音化 + 對話化
    • 社工或護理師描述情境,AI 自動完成 70% 以上紀錄
  • 自動整合:
    • 住院紀錄、門診紀錄、投訴紀錄、社工紀錄摘要
    • 變成一頁「高風險個案快照」

讓專業人員不用在多個系統 tab 之間切來切去,
也比較有餘裕去觀察真正的「人」,而不是只看「資料」。


4. 「事件後 × AI Debrief」:把痛苦經驗變成系統學習

每一次醫療暴力事件,對當事醫師、護理師與社工都是創傷。
過去這些經驗多停留在口耳相傳或內部會議簡報,難以被系統化整理。

生成式 AI 可以協助:

  • 整理事件經過、訪談、會議紀錄,產出:
    • 一份結構化的 「事件地圖」
    • 重新標出哪個時間點原本可以有不同介入
  • 匿名化後,納入院內或跨院的 安全教材庫

久而久之,醫院內就會累積一套「活的」風險情境庫,
讓新進人員不只是看冷冰冰的 SOP,而是看到真實故事中的關鍵分岔點。


四、AI 能做什麼,也必須清楚寫出「AI 不可以做什麼」

如果要讓生成式 AI 真正被現場接受,而不是被視為監控工具,
有幾條紅線必須在一開始講清楚,而且寫進制度:

  1. AI 不直接下結論,只提供「需要關注」提示
    • 不貼「危險人物」標籤,只提供「請社工評估」的提醒。
  2. 不做秘密監聽或違法蒐集資料
    • 僅限合法取得的公開訊息或既有院內系統資料。
  3. 所有風險評估結果,必須留有「人工覆核」權限與流程
    • 任何處置(如通報、列管)都不能完全由 AI 觸發。
  4. AI 模型與規則需要定期校正與外部審查
    • 避免對特定族群(例如精神疾病患者或特定族裔)產生偏見性標記。

簡單說:AI 是社工與醫護的副駕,不是裁判,更不是警總。


五、從小規模試點開始:醫院可以怎麼走第一步?

對多數醫療機構來說,不需要一開始就打造「全院級 AI 安全平台」,
更務實的路徑是:

  1. 選一個場域試點
    • 例如:精神科門診、長期爭議較多的專科、急診或高齡醫師門診。
  2. 明確定義一個小問題
    • 例如:「如何在門診前,提前標記有多次投訴紀錄且情緒逐漸升高的個案?」
  3. 用既有資料 + 小型生成式 AI 服務 PoC
    • 不必一開始自建大模型,可用企業級 LLM API + 院內資料庫。
  4. 把社工、護理、醫師、資安一起拉進來共設計
    • 讓 AI 不是 IT 部門的專案,而是「照護團隊的工具」。
  5. 尊重現場經驗,允許調整與下架
    • 若某種風險提示被第一線認為不實用,就要能快速調整策略或關閉。

六、結語:保護醫護與社工,是整個系統的「最低倫理要求」

醫療暴力不應該被視為「醫療文化的一部分」。
每一次攻擊事件,都同時傷害了:

  • 一個人的身心
  • 一個團隊的士氣
  • 一個制度的信任

在生成式 AI 興起的這個時間點,如果我們只把科技用在「效率」與「行銷」,
而沒有用在「保護人」與「降低結構性風險」,那才是真正的錯位。

真正的數位轉型,不是讓醫護更快下班而已,而是讓他們「有安全感地繼續留下來」。

生成式 AI 不會自動讓醫療暴力消失,
但它可以讓本來被淹沒在資訊海中的紅色旗幟浮上檯面,
讓社工、護理與醫師不再孤軍奮戰。

當我們用 AI 把這些「可以提早介入的時刻」重新接起來,
我們做的不只是技術創新,而是替整個照護體系補上一道 制度級的護欄 ——
這是高齡醫師、第一線護理與社工,都應該獲得的基本保障。


https://www.chinatimes.com/opinion/20251118003563-262110?chdtv


上一篇
生成式 AI 時代,傳統部落格與聲量平台如何存活?
系列文
生成式 AI 在醫療與長照中的應用:從照顧紀錄、健康教育到生命故事保存,提升社工與照護效能。66
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言