iT邦幫忙

2022 iThome 鐵人賽

DAY 10
0
AI & Data

上課了!李宏毅老師 機器學習 (2021)系列 第 10

卷積神經網路 (Convolutional Neural Networks, CNN) 之一

  • 分享至 

  • xImage
  •  

今天進行到第十天了,在正課之前先說一點感想,有關李宏毅老師的課與鐵人賽的部分。

有關課的部分:

李宏毅老師真的相當厲害與認真。其實 AI 發展很快,從 2018 年開始把課程陸續放到網路上,可以發覺老師每次教的內容都有很多更新。我不知道其他領域是不是變化這麼快,但 AI 真的非常的不好教,尤其每年都有新出現好多技術或觀念。

像以之前講到可以把類神經網路看作是數個 activation functions 的疊加,這個講法似乎就是從信號分析的角度來說明。其實就是像傅立葉轉換一樣。傅立葉轉換是說「可以使用弦波來組成任意的週期信號」,而類神經網路則是「可以使用 activation function 來組合成出正確的模型」一樣。這邊的講法比起傳統「認真算一次來認識類神經網路」來得更好理解。此外,老師在其他課中也提到了為何深的網路比起胖的網路來的好。這些教學都相當直覺也很容易吸收。感覺老師有將各式各樣的資訊濃縮在用最簡單的方式講出來。但是時間真的有限,所以還是有帶出觀念,但有些細節要再去別處才會學到的地方。例如回歸問題、二元分類問題,或是多類別的分類問題,所適合使用的 loss function有些也不一樣。但可能因為時間的緣故,老師在課程裡只有提到 cross-entropy 的方法。其他方法需要再去看一下別的地方。

而訓練模型會遇到很多瓶頸,老師也有系統地介紹了問題與解決方法。其實這些方法都很實用,不像一些沒實際經驗的人教淺淺的這樣。總而言之,這是門相當好的課程,我連重看一次都會覺得又有收穫一些。

另外針對鐵人賽部分,我發覺「It邦幫忙」的編輯器有點不好用。第一個是數學式部分。在 Dropbox Paper 編輯數學式之後,便可以看到結果。如果輸入後發現打錯,可以再做修正。而這邊的數學式是呼叫 Google API (?),打完之後就不能更改了,打錯就得重打一次。有點麻煩。另一點圖片不能直接複製貼上,要存成圖片才能上傳。但不得不說,顯示程式碼的功能還不錯(要叫人多寫程式碼少用數學和圖的意思?),但我都好少用到。或許之後可以補上程式碼與課程的內容互相對照呢?


上一篇
類神經網路訓練不起來怎麼辦之五: 批次標準化 (Batch Normalization) 簡介
下一篇
卷積神經網路 (Convolutional Neural Networks, CNN)
系列文
上課了!李宏毅老師 機器學習 (2021)16
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言