iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 26
1
自我挑戰組

我們 der 暑假學習紀錄 :D系列 第 26

DAY26 深度學習-卷積神經網路-Yolo V1



接續昨天的文章,今天介紹一下Yolo v1的Loss Function,由於在訓練的時候我們當然希望模型的結果是越接近正確的結果越好,但是實際上不太可能,預測和現實會有誤差,稱之為殘差,然後訓練的目的就是將這個殘差壓到越低越好,因為越低代表越接近正確的結果,模型不斷訓練。計算殘差,在不斷調整將殘差降低,直到訓練結束。

所以來看一下Yolo v1的殘差計算公式:

  • i = 第幾個網格
  • j = 這個網格的第 j 個物件框
  • x,y = 物件框的中心點x,y座標
  • w,h = 物件框的長寬
  • c = 物件框的置信度
  • λ~coord~,λ~noobj~ = 分別為5和0.5,這是由於通常沒有物件的網格佔多數,所以在計算時,模型會更傾向於沒有物件的網格,所以透過這個參數進行調整。
  • 算式的最後一行則是物體類別的預測。

最後再來介紹一下非極大值抑制(Non Maximum Suppression, NMS),
這個東西是為了解決當一些物體被2個或以上的網格中的物件框給選中時,到底該用哪個物件框,首先將所有物件框的置信度計算出來,並選擇置信度最高的物件框,拿他和其他的物件框計算IOU,如果重合程度到一定程度,便將該物件框移除。

以上便是Yolo v1的介紹,有說不清楚或編排的地方以後會再來修改:)。


上一篇
DAY25 深度學習-卷積神經網路-Yolo V1 (序)
下一篇
DAY27 深度學習-卷積神經網路-Yolo v2 (一)
系列文
我們 der 暑假學習紀錄 :D30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言