iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 28
0
Google Developers Machine Learning

文組腦的機器學習異想世界系列 第 28

【Day28】文組腦教你解決overfitting

  • 分享至 

  • xImage
  •  

哈囉大家好~~~

今天我們要來說說正則化,當我們不小心過度訓練我們的機器學習模型,會發生過度擬合(overfitting),當發生overfitting時,你的模型可能在預測你的測試集時很精確,但當你餵新數據給它預測時,它的表現卻會非常的差,我們可以減少訓練迭代的次數,或使用提早停止(early stopping),簡單來說,如果一直訓練到後來會overfitting,那我就不要訓練那麼的久,我就停下來了,這就叫early stopping,除了提早停止(early stopping),最常見的方式會是正則化,這是一種控制模型複雜性的做法,因為當我們不小心過度訓練我們的機器學習模型,讓他變得太複雜,複雜到他只能解出你訓練集的答案,無法解出你餵進去的新資料的答案,那我們讓這複雜的模型簡單點,讓模型不會太過於overfitting,太簡單也不行,過度簡化的模型表現也很差,不然我們學這麼多種ML模型幹嘛?正則化的重點就是我們需要在簡單和overfitting之間找到適當的平衡,正則化包括L1、L2正則化和dropout等方法,希望大家的模型不僅在訓練數據上,也可以在未見過的測試數據上表現良好。

那我們明天見!!!


上一篇
【Day27】文組腦介紹BigQuery
下一篇
【Day29】文組腦談談批量大小和學習率
系列文
文組腦的機器學習異想世界30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言