iT邦幫忙

2023 iThome 鐵人賽

DAY 13
0
AI & Data

YOLO系列網路技術採用以及實作系列 第 13

[DAY 13] YOLOv6-下篇

  • 分享至 

  • xImage
  •  

本篇將延續上篇的內容,說明YOLOv6採用的其他技術以及其實驗結果。

其他提升準確度的方法

Tricks

  • Self distillation
    • 在Teacher與Student之間的預測結果利用知識蒸餾(knowledge distillation)計算兩者的KL-divergence。
    • 但是在此時Teacher model為student本身,唯一的不同是teacher有pretrained過。
      https://ithelp.ithome.com.tw/upload/images/20230928/20120310HFeHGdcn4S.png
    • 因此加到原本的loss後:
      https://ithelp.ithome.com.tw/upload/images/20230928/20120310jvdqf32ULl.png
      其中https://ithelp.ithome.com.tw/upload/images/20230928/20120310Z3xUBfNXSH.png為兩者間的比例,會利用cosine weight decay進行動態調整。
  • 更多的Epochs。
    • 300提升到400。
  • 添加灰色的邊界框:
    • YOLOv5以及YOLOv7都添加半個步長(stride)的邊界框在影像外圍,會幫助模型預測接近於影像邊界的物件,但是採用該技術會增加推論花費的時間。
    • YOLOv6也有採用,他發現推論時間增加的原因在於使用了Mosiac的Augmentation的策略,因此關掉Mosiac後會發現提升準確度的同時不會將低推論所花的時間。

Label assignment策略

  • 採用發表自TOOD論文的TAL(Task alignment learning)技術。
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310nh7caS4xBc.png

利用Channel-wise distillation進行Quantization。

  • 模型由Float32降為只需使用INT8進行編碼。
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310ClDg38d580.png

實驗結果

  • 與其他方法的比較:
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310Dcajny1qSN.png
  • 激活函數的使用:
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310bBF8pzsG8S.png
    • 雖然結果顯示激活函數使用SiLU準確度比較高,但是若是將模型進行工業應用的話,ReLU會有最好的速度優勢。
  • Classification Loss設計的消融實驗:
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310t2R5gqpYEk.png
  • 添加灰色邊界框以及關閉Mosiac後的實驗結果:
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310omF4TTuQeE.png
  • Quantization實驗結果。
    https://ithelp.ithome.com.tw/upload/images/20230928/20120310IvaEus4ej1.png

文章使用之圖片擷取自該篇論文


上一篇
[DAY 12] YOLOv6-上篇
下一篇
[DAY 14] YOLOv7-上篇
系列文
YOLO系列網路技術採用以及實作30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言