TL;DR (EN→ZH)
Focus on the reasoning core (ratio decidendi) first, then align facts and outcomes to that core. → 先抓「中間的論證」這個核心,再回頭檢核事實與結果是否一致。
口訣:去頭 → 去尾 → 補中間 → 回頭砍頭尾(循環)
去頭(Facts 去雜)
去尾(Outcome 去惑)
補中間(Reasoning 補齊)
回頭砍頭尾(Consistency 校驗)
形成螺旋式精煉:每次循環都讓「理由表徵」更清晰,資料管線更乾淨,模型更可靠。
| 法律元素 | 讀判決的任務 | AI 對應任務 | 具體做法(例) | 
|---|---|---|---|
| Facts(頭) | 去雜訊、去情緒 | 去洩漏、標準化 | 文本清洗、遮蓋姓名/案號、時間正規化 | 
| Holding(尾) | 暫置結局 | 標籤隔離 | 訓練前不暴露 outcome 給特徵工程 | 
| Ratio(中間) | 抽出可遷移原則 | 原則特徵化 | 自由/福祉/德性指標、比例/嚴格審查標籤 | 
| Tests/Rules | 建立可複用測試 | 可機讀規則 | 以結構化 JSON 呈現要件與例外 | 
| Dissent/Concurring | 找分歧點 | 多視角 embedding | 以多向量空間存不同意見對應向量 | 
| Standard of Review | 審查強度 | 權重/閾值 | 在推理引擎中調整權重與信心需求 | 
| Policy Considerations | 公共利益考量 | 社會損益特徵 | 加入成本/風險/外部性估計欄位 | 
步驟 A:資料進場與清洗
步驟 B:補中間(論證向量化)
步驟 C:監督式學習(可解釋優先)
步驟 D:回頭砍頭尾(一致性與健壯性)
(說明:以下是「一步一步做」的概念步驟,你可用 Python/JS/R 皆可實作)
Step 1:載入與遮蔽
Step 2:中間論證抽取
Step 3:結構化
Step 4:可解釋模型
Step 5:一致性回檢
(範例純為示意,請替換為你的實際文本)
事實摘要(去頭版):
中間論證 → 向量化:
擬議規則(JSON示意):
{
"rule": "契約自由受德性與最佳利益限制",
"tests": [
{"name": "tainted_consent", "elements": ["info_asymmetry", "economic_coercion"]},
{"name": "best_interest_child", "elements": ["stability", "care_capacity"]}
],
"std_of_review": "proportionality"
}
模型可解釋觀察:
重點:我們不是用 AI「取代」法官,而是讓資料科學的方法把「中間論證」變得可重用、可檢核、可教學。
把「去頭去尾,再補中間的論證」轉成 AI Data 的工作流,核心不變:先問原則,再看事實與結果能否被原則一致地解釋。
這能同時滿足:
一句話:中間(論證)是橋,把哲學/法學的可思辨性,接到了 AI 的可計算性。