今天要來介紹的是YOLO的運作流程,經由前幾天對YOLO的原理以及每個版本的迭代有了些微的了解後,相信之後在實作的時候會更得心應手,能夠理解YOLO在物件偵測時的處理方式,那話不多說,讓我們開始吧!
圖片來源:Model. https://chih-sheng-huang821.medium.com/深度學習-物件偵測-you-only-look-once-yolo-4fb9cf49453c
損失函數是訓練深度學習模型的關鍵組件,對於物件檢測模型如 YOLO(You Only Look Once)來說,損失函數同時考量定位、置信度和類別的準確性,確保模型能夠準確檢測並分類物件。以下是對損失函數的說明:
定位誤差主要衡量預測的邊界框與真實邊界框之間的位置差異,通常使用 平方差誤差(Mean Squared Error, MSE) 來計算。具體來說,YOLO 訓練的邊界框包含 4 個參數:框的中心坐標(x, y)及框的寬度和高度(w, h)。這些值與真實框的值之間的差異會被最小化。
公式:
置信度誤差用來衡量模型對預測框是否包含物體的置信度。YOLO 模型的預測包括置信度分數,它表示該框中是否有物體以及預測框與真實框重疊的程度(即 IoU,Intersection over Union)。YOLO 使用平方差來計算預測的置信度與真實的置信度之間的誤差。
置信度損失可分為兩部分:
類別誤差用來衡量預測物體類別的準確性。YOLO 使用 交叉熵損失(Cross-Entropy Loss) 來衡量每個網格單元中預測類別與真實類別之間的差異。
公式:
YOLO 損失函數是上述三個損失的總和,用於同時優化定位、置信度和分類。總損失可以表示為:
這樣的設計使得 YOLO 模型能夠同時考慮物體的位置、物體存在的置信度及其類別標籤,達到有效的物體檢測效果。
介紹完運作流程以及損失函數後,下一篇我們來講評估模型的術語,那我們下篇見。