iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 8
0
Google Developers Machine Learning

30天鍊成機器學習系列 第 8

過擬合與欠擬合

前言

在上編文章中,我們使用多項式迴歸獲得更加淮確的擬合曲線,得到了對訓練數據更好的擬合結果。然而我們也發現過份地對訓練數據擬合也會丟失信息。

  • 欠擬合 underfitting
    擬合程度不高,數據離擬合曲線較遠

  • 過擬合 overfitting
    擬合了每一個數據,反而丟失我們要的規律,使用擬合結果去預測另一個訓練集時誤差會更為明顯。

防止過擬合

防止過擬合發生的方法,常見的有以下幾種:

  1. 減少特徵數量
  2. 手動篩選特徵
  3. 採用特徵篩選算法
  4. 正則化。保留所有特徵,但盡可能使參數盡量小。
    ps. 正則化在很多特徵變量對目標值只有很有影響的情況下非常有用。

上一篇
多項式迴歸
下一篇
邏輯迴歸-分類問題
系列文
30天鍊成機器學習30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言