隨著大型語言模型 (LLM) 應用日益普及,我們必須正視其帶來的安全性與倫理挑戰。理解這些潛在風險,是負責任地開發和部署 AI 的關鍵。
定義:幻覺指的是模型在缺乏事實依據時,仍會生成看似合理但實際上錯誤或虛假的資訊。
策略 | 核心做法 | 作用 |
---|---|---|
RAG (知識檢索增強生成) | 結合外部、可信的知識庫。 | 強制模型根據提供的上下文回答,大幅降低編造的可能性。 |
來源標註 (Citations) | 生成答案時附帶出處連結。 | 讓使用者可以驗證答案的真實性。 |
Chain-of-Thought (CoT) | 要求模型逐步推理。 | 增加推理過程的透明度,提高準確性。 |
人工驗證 | 在高風險場景,由人類專家對模型輸出進行最終審查。 | 作為最後一道防線,確保事實正確性。 |
定義:LLM 訓練於海量的網路資料,自然繼承了社會中存在的各種偏見(性別、種族、文化、職業等),並可能在輸出中複製甚至放大這些刻板印象。