iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 29
0
AI & Data

AI世界初探系列 第 29

Day 29:AI世界的初探(深度學習模型 - Part 2)

  • 分享至 

  • xImage
  •  

關於深度學習的文章, 當然要推一下IT邦友寫的
英雄集結:深度學習的魔法使們, 非常的詳細介紹深度學習的來龍去脈。

所以小編這裡也快速的整理一下:
AlexNet(8層):一到5層做converlution operation and Pooling, 6到8層到fully connected layers。
程式的部份可參考:

git clone https://github.com/deep-diver/AlexNet

當然AlexNet太出名, 小編只參考一篇文章簡單說明AlexNet的運作:

https://ithelp.ithome.com.tw/upload/images/20190930/20118900K6olvvxh1s.jpg

ZFnet架構是由AlexNet修改而來, 可參考這篇文章, 基本上就是比AlexNet多了卷積層:

https://ithelp.ithome.com.tw/upload/images/20190930/20118900DNUanbgsP7.jpg

GoogLeNet比AlexNet用的參數還少, 是Google為了向LeNet表達敬意而取名, 但比AlexNet更精準, 其深度4x4的Convolution可達256層, 比較重要的名詞是Inception V1 to V4, 可參考這篇文章

https://ithelp.ithome.com.tw/upload/images/20190930/20118900C852h2HGE3.jpg

ResNet全名Residual Neural Network由微軟開發, 2015所用的是152層, 比前一年GoogLeNet的22層多了7倍, 這裡提節的是Residual Block, 可參考這篇文章

https://ithelp.ithome.com.tw/upload/images/20191001/20118900ory9il5qFE.jpg

GDB-Net雖然在2016年由中國隊拿到冠軍, 但整體效率也比2015提升2.2%

SeNet由新加坡團隊研發, 比ResNet錯誤率少了36%, 全名為Squeeze-and-Excitation Networks, 重點是在執行時要先squeez然後excitation再scaling。

這裡的深度學習資料很多, 實際上的應用分析也可參考這篇文章

https://ithelp.ithome.com.tw/upload/images/20191001/20118900LcGZagbuXH.jpg

總結來說, 不一定準確率高, 訓練的方法就會快, 沒有百分之一百好用的深度學習模型, 當適合的模型搭配適合的硬體及適合的訓練好的Model, AI就可以發揮到最大的CP值。


上一篇
Day 28:AI世界的初探(深度學習模型)
下一篇
Day 30:AI世界的初探(AOI & TRIZ)
系列文
AI世界初探30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言