iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 12
0
Google Developers Machine Learning

初心者的自我挑戰系列 第 12

Google Study Jam- Launching into machine learning on coursera Module2 - part6

  • 分享至 

  • xImage
  •  

Loss Curve Troubleshooting:
這章主要是接續上回,在玩tensorflow playground時會發現螺旋型的pattern分類特別難訓練出來,有時候會發現loss已經降低到一定程度後就不下降了,但是output卻不好,那這樣怎麼解決呢? 一個方法: 重新架構網路,增加hidden layers.
這種Loss遲遲不降低的現象可能是落在local min 的位置, 形成這種的現象的成因有很多,當然就有很多解決方法:
我們可以使用data weighting, oversampling, synthetic data creation 去解決local min的問題.


Performance matrics:

為解決long trainning times, suboptimal minima, inappropriate minima.

What is inappropriate minima?當存在這個狀況時你可以想像是你的model不能很有效的泛化(generalization),甚麼意思呢? 舉一個例子: 當你今天想要做一個停車場空位的偵測系統, 你總共有100個停車格,而今天大客滿,還剩下1個空位, 而你的系統因為有inappropriate minima , 他開始預測每一個空位,當她每一次都預測沒有空位時,發現他的正確率高達0.99! 這顯然是有問題的,原因是我們在乎的是那一個有空位的位置,而不是其他已停車的位置,驚人的發現這樣錯誤率極低,但顯然是一個表現不佳的模型.
以上這個例子也讓我想到做罕見疾病的研究也是如此, 我輸入的data之後 model全部猜沒病,
當然啦他是罕見疾病 機率是 1/100000, 難道我的正確率就99.9999嗎? 顯然一樣不切實際!
因此performance matrics可以解決這個問題:相比於loss function
他有著 訓練完之後衡量的特性 , 易懂的統計數值, 直接與任務目的相關.
甚麼是訓練完之後衡量的特性? 他其實是在訓練結束後衡量的指標,可以把一些訓練後loss很低但實際上表現不好的model篩選掉,也就是剔除卡在inappropriate minima 的model.

下次開始深入各種的performance matrics.
confusion matrics
precision
recall


上一篇
Google Study Jam- Launching into machine learning on coursera Module2 - part5
下一篇
Google Study Jam- Launching into machine learning on coursera Module2 - Last part - summary
系列文
初心者的自我挑戰30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言