TL;DR
臨床 AI 進場後,風險不在「AI 取代醫師」,而在「專業判斷被工作流程悄悄架空」。如果把醫療現場當成一套可治理的系統,Odoo 這類 ERP 的觀點能提供一個很實用的反思框架:流程、權限、責任、稽核、例外處理。AI 應該被設計成「可追溯、可分權、可回饋」的模組,而不是一個讓人類變成按確認鍵的黑盒答案。
我第一次開始接觸臨床 AI 工具時,其實非常興奮。
AI 看起來像一位合作夥伴:可以減少臨床決策的認知負荷、提示隱藏風險、讓第一線把時間還給病人。
但隨著我越用越多,也越寫越多,我開始把問題收斂成一句話:
我不是反對 AI,我擔心的是:在 AI 越來越快、越自信、越有說服力時,我們怎麼保住「判斷力」?
當研究進入正式審查,我遇到的不是敵意,而是質疑:
那種挫折感很真實:你看見風險,但它還沒有被制度命名,也沒有被框架收編。
這時我突然想到一個熟悉的場景——Odoo/ERP 導入失敗。
在 Odoo 導入時,如果你沒有把流程、角色權限、責任歸屬、例外處理設計好,系統就算功能再強,也只會變成「大家用來做表面紀錄」的工具。
臨床 AI 的風險也一樣:問題常常不是模型,而是沒有被設計過的合作流程。
Odoo 的優點之一,是它逼你面對一件事:系統不是工具集合,而是治理邏輯。
把這個觀點搬到臨床 AI,我覺得至少有五個必問問題:
在 Odoo 你一定要問:這個模組接在哪個流程節點?
同樣地,AI 是在「初步分診」出現?還是在「醫師下決策前最後一刻」才跳出?
如果 AI 出現在太靠後的節點,它很容易變成「壓倒性建議」,人類只剩確認。
Odoo 的 ACL/RBAC 會要求你定義角色:誰能看、誰能改、誰能核准。
臨床 AI 也需要等價設計:
沒有權限設計,就會產生最糟狀態:AI 輸出像命令,但責任仍在人類身上。
Odoo 強調紀錄與可追溯:誰在什麼時間改了什麼欄位。
臨床 AI 更需要:AI 的輸出、版本、輸入摘要、採用/拒絕理由,要能被稽核。
否則「AI 很準」最後會變成一句口號,而不是可治理的品質管理。
在 Odoo,例外流程是必寫的:缺料、退貨、對帳差異、超額折扣……
臨床 AI 也一樣:
AI 若沒有例外處理,就會讓「不確定」被包裝成「看起來很確定」。
Odoo 會把流程上的異常變成資料:用來改善 SOP 與設定。
臨床 AI 更該把「人類拒絕」當作高價值訊號,回到模型治理與流程改善。
否則人類每次的判斷,都只是被系統吞掉,最後就會產生「去技能化」。
臨床判斷不是靜態技能。它靠不確定、錯誤、反思、責任累積。
AI 提供的是清晰與速度,但它沒有責任。
所以真正的危險是:
當工作流程把 AI 輸出當成權威,專業人員會慢慢退出推理過程,只剩「按確認」。
用 Odoo 的話講就是:
你把人從「決策者」變成「資料輸入員」,而且還要求他負責結果。
這段經驗讓我重新定位自己的角色。
我不需要當反對者,也不必當啦啦隊。
更有價值的角色,是把技術與專業之間的落差翻譯成可治理的設計語言:
這些聽起來像「管理」,但其實是在保護專業判斷。
AI 會持續進步。
難的是:讓人類判斷力同步成長,而不是同步萎縮。
如果用 Odoo 的一句話來比喻:
AI 不該是取代人的模組,而該是讓專業更強的流程引擎。
遭遇阻力,不代表問題不存在。
有時只是因為你站在一個對話尚未成熟的邊緣,而你正在替它建立「可被討論的架構」。
作者簡介
郭冠廷(Gerald Kuo),輔仁大學商學研究所博士生,研究領域涵蓋醫療管理、長期照護系統、臨床與社會照護場域中的 AI 治理,以及高齡政策。現參與居家健康關懷公益組織與日照中心營運,長期與家庭、護理人員與社區醫師合作。其研究與實務關注如何透過資料、科技與跨領域協作,減輕第一線人員的行政負擔、強化照護連續性,並在 AI 導入過程中維持專業判斷與公共信任。
https://kevinmd.com/2025/12/preserving-clinical-judgment-in-the-age-of-clinical-ai-tools.html