iT邦幫忙

2023 iThome 鐵人賽

DAY 28
0

再續昨天!今天的筆記把論文剩餘的部分整理完

Hard negative mining 難例挖掘

  • 由於存在大量的負樣本,所以導致嚴重的類別不平衡問題,訓練時難以收斂
  • 解決方法:
    • 對負樣本根據 confidence loss(也就是分類損失)排序,選取損失最高的一部分保留 (也就是最不像目標的那些)
    • 使得負樣本和正樣本的比例保持在 3:1,此論文使用這個比例獲得了穩定的訓練性能,並加快了優化速度

Data augmentation 數據增強

  • 為了使模型對於不同尺寸和長寬比的目標更加具有穩定性,使用了數據增強(或稱數據擴增)
  • 每張訓練圖像隨機進行以下操作:
    1. 使用原圖
    2. 在原圖上採樣一個片段(patch),這些 patch 與目標的最小Jaccard overlap 為 0.1, 0.3, 0.5, 0.7, 0.9
    3. 隨機採樣一個 patch

Model analysis 模型分析

  • Data augmentation is crucial:數據擴充至關重要,論文中使用的數據擴增的方式對預測精度的提升特別明顯
  • More default box shapes is better:更多樣性化的 default box 會產生更好的結果
  • Atrous is faster:使用空洞卷積運行的更快
  • Multiple output layers at different resolutions is better:多個不同分辨率的輸出層更好

參考資料


上一篇
# Day27-Single Shot MultiBox Detector (SSD) part2
下一篇
Day29-混淆矩陣(confusion matrix)
系列文
什麼演算法?一起來學機器學習!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言