原文來源:Thinking Machines Lab:擊敗大語言模型推理中的非確定性
這個故事要從 Mira Murati 說起。她曾是 OpenAI 的 CTO,也在 Sam Altman 被暫時撤職時,短暫擔任 CEO。2024 年,她創立了 Thinking Machines Lab,並獲得超過 20 億美元種子融資,估值達 120 億美元,背後投資人包含 a16z、Nvidia、AMD、Cisco。
這家公司一開始就立下目標:要解決 LLM 世界裡最棘手的隱藏問題。
我們習慣以為:同樣輸入 → 一樣輸出。
但在大型語言模型中,情況卻常常不是這樣。
即使你固定隨機種子,LLM 還是可能給出不同答案。原因不是模型「心情不好」,而是 伺服器在不同批次處理時,浮點數運算順序不一樣,導致結果不同。
👉 這對需要可重複性的場景(金融、醫療、法規應用)來說,是大危機。
Thinking Machines Lab 的研究,聚焦在 浮點數運算非結合性 (non-associativity) 問題:
(a + b) + c ≠ a + (b + c)
在矩陣乘法、注意力機制 (attention)、RMSNorm 中,批次切法不同,最後輸出也不一樣。
例子:就像餐廳裡,你點了一樣的菜,但廚房一次煮十桌 vs 一次煮一桌,出餐順序不同,味道竟然有差。
他們提出 Batch-Invariant Core:
成果:
面向 | 治理 (Governance) | 安全 (Security) | 非確定性問題 |
---|---|---|---|
核心關注 | 模型可解釋、公平、合規 | 防駭、防洩漏、可用性 | 同樣輸入不同輸出 |
風險來源 | 自己搞砸(偏見、幻覺、違規) | 外部攻擊(提示注入、未授權存取) | 浮點數 + 批次運算差異 |
解法 | 模型血統追蹤、生命週期管理 | AI 防火牆、滲透測試 | 批次不變核心(Batch-Invariant Core) |
想像一家銀行導入客服 AI:
👉 治理確保 AI 說對話、安全確保 AI 不被操縱說錯話、穩定性確保 AI 每次都說一樣的話。
這篇文章提醒我:
AI 的未來不只是「更聰明」,而是「更可靠、更穩定、更可信」。
Thinking Machines Lab 把 LLM 的「非確定性」問題搬上檯面,並提出解法。對我們來說,這是一個很好的提醒 ——
在追求模型威力之前,要先確保它 能被信任。