You Only Look Once(YOLO),是近幾年十分熱門的演算法,最初由Joseph Redmon等人在2016年提出,目的是透過單次的前向傳播進行識別及定位圖片中多個物體,最大的特點是速度快,可以快速識別圖片中的目標,但對於定位某些小的物體上的精度不高。
優點:
圖片來源:ci - iDetection app https://www.iphoneness.com/iphone-apps/ai-object-detection-iphone-apps/
YOLO的卷積架構來自於GoogleNet的模型,在YOLO v1的版本中使用了24個卷積層(convolutional layer)和2層全連結層(fully connected layer),整體架構如下圖:
圖片來源: YOLO network structure
https://www.researchgate.net/figure/Network-structure-of-tiny-YOLO3-It-consists-of-13-convolution-layers-6-max-pooling_fig2_343411360
簡單來說,YOLO在偵測物品的部分上就是將圖片拆成許多個網格,然後在網格進行2個bounding box的預測和屬於哪個類別的機率預測,最後用閥值和NMS的方式得到結果,如下圖。
圖片來源: YOLO Model. https://chih-sheng-huang821.medium.com/深度學習-物件偵測-you-only-look-once-yolo-4fb9cf49453c
參考網址:https://chih-sheng-huang821.medium.com/深度學習-物件偵測-you-only-look-once-yolo-4fb9cf49453c
YOLO的應用非常的廣泛,也已經普遍在生活當中,這邊筆者提幾個較為常見的例子作為舉例。
YOLO系蝦米挖歌,希望各位看完後能對YOLO有了初步的認識,接著將會提到關於YOLO版本的更迭,每個版本都有不同更新的重點,且每個版本的作者都不同,因此想法也不同,弄得筆者頭也很痛???不廢話,下一篇將進入一系列的版本介紹,感謝各位今天的觀看。