當開始興致勃勃的嘗試畫魔法陣,搭建神經網絡模型時,也許會遇到下面的情形: 哥布林之吶喊:我明明在訓練集表現很好啊,為什麼實際上線時結果卻崩潰了(抱頭) 那你...
交叉驗證 Cross-Validation (wiki) 交叉驗證,有時亦稱循環估計,是一種統計學上將數據樣本切割成較小子集的實用方法。於是可以先在一個子集上做...
前言 前一日已經開始進行模型的訓練。本日將討論要如何確認或挑選訓練出來的模型是否真的好?真的朝著正確的方向在邁進呢? 過擬合 (Overfitting) 在訓練...
Overfitting是在執行任何模型的時候我們都要注意的問題,今天就來聊聊overfitting是什麼 Overfitting vs. underfittin...
前言 走過了資料分析、演算法選擇後,我們得知了有些可以改善模型的方向: 解決資料不平衡(Done) 學習率的設定(To do) 訓練輪數(To do) 模型深...
前言 本篇開始之後的幾天,預計將介紹模型訓練的最後一個章節,正規化(Regularization)。本篇會先給一些Overview的介紹,後續的幾篇則會有實作。...
簡單回顧介紹regularization之前,必須要了解什麼是overfitting。在之前的章節或多或少都有提到overfitting這號人物,那他為什麼那...