iT邦幫忙

2024 iThome 鐵人賽

DAY 2
0
AI/ ML & Data

我的深度學習-從0開始實作物件偵測系列 第 2

【Day2】YOLO系蝦咪挖歌?

  • 分享至 

  • xImage
  •  

一、YOLO是什麼?

You Only Look Once(YOLO),是近幾年十分熱門的演算法,最初由Joseph Redmon等人在2016年提出,目的是透過單次的前向傳播進行識別及定位圖片中多個物體,最大的特點是速度快,可以快速識別圖片中的目標,但對於定位某些小的物體上的精度不高。

優點:

  • 速度快:能夠達到即時的要求
  • 全局推理:使用整張圖片作為全局資訊,並非只考慮局部而已,提高了檢測的準確性。
    iDetection

圖片來源:ci - iDetection app https://www.iphoneness.com/iphone-apps/ai-object-detection-iphone-apps/

二、原理

1、卷積神經網路

YOLO的卷積架構來自於GoogleNet的模型,在YOLO v1的版本中使用了24個卷積層(convolutional layer)和2層全連結層(fully connected layer),整體架構如下圖:
Network-structure-of-tiny-YOLO3-It-consists-of-13-convolution-layers-6-max-pooling.ppm

圖片來源: YOLO network structure
https://www.researchgate.net/figure/Network-structure-of-tiny-YOLO3-It-consists-of-13-convolution-layers-6-max-pooling_fig2_343411360

2、偵測物體的方式

簡單來說,YOLO在偵測物品的部分上就是將圖片拆成許多個網格,然後在網格進行2個bounding box的預測和屬於哪個類別的機率預測,最後用閥值和NMS的方式得到結果,如下圖。
68747470733a2f2f63646e2d696d616765732d312e6d656469756d2e636f6d2f6d61782f313030302f312a34596350747176396d794a31767970676235774b6e412e706e67

圖片來源: YOLO Model. https://chih-sheng-huang821.medium.com/深度學習-物件偵測-you-only-look-once-yolo-4fb9cf49453c

參考網址:https://chih-sheng-huang821.medium.com/深度學習-物件偵測-you-only-look-once-yolo-4fb9cf49453c

3、YOLO在生活上的應用

YOLO的應用非常的廣泛,也已經普遍在生活當中,這邊筆者提幾個較為常見的例子作為舉例。

  1. 無人駕駛技術:目前無人駕駛已經成為未來汽車的趨勢,YOLO在其中擔任的角色就是替代人類的眼睛,去辨識四周的物體,掌握路面上的各種狀況,來判斷要進行甚麼樣的動作。
  2. 監控系統:可以利用YOLO去檢測關於人員或車輛的監控與追蹤,是否有可疑行為或物體,例如違規停車、非法入侵等。
  3. 醫療影像分析:YOLO也被應用在分析醫學影像上,例如CT、X光等,可以幫助醫生更快的判定病變的區域或異常的組織。
  4. 賣場實時商品監控:可以快速檢測商品數量及商品陳列狀況,可以提升營運效率。

YOLO系蝦米挖歌,希望各位看完後能對YOLO有了初步的認識,接著將會提到關於YOLO版本的更迭,每個版本都有不同更新的重點,且每個版本的作者都不同,因此想法也不同,弄得筆者頭也很痛???不廢話,下一篇將進入一系列的版本介紹,感謝各位今天的觀看。

https://imgur.com/jlhkig.gif


上一篇
【Day1】初談:物件偵測的應用與規劃
下一篇
【Day 3】YOLO的版本迭代介紹之 1
系列文
我的深度學習-從0開始實作物件偵測30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言