iT邦幫忙

鐵人檔案

第 11 屆 iThome 鐵人賽
回列表
AI & Data

跟top kaggler學習如何贏得資料分析競賽 系列

以Courser 課程 How to Win a Data Science Competition: Learn from Top Kagglers
How to Win a Data Science Competition: Learn from Top Kagglers, 學習如何贏得資料分析競賽.

鐵人鍊成 | 共 30 篇文章 | 21 人訂閱 訂閱系列文 RSS系列文
DAY 21

[Day 21] Regularization 正規化 - part II

Extensions and generalization :4 種資料狀態的處理 回歸與多類別中進行 Mean encoding 多對多關係的運用 時間序列...

2019-09-22 ‧ 由 madeleine 分享
DAY 22

[Day 22] Hyperparameter tuning / 調校超參數 part I

這一小段主要是說明 Hyperparameter / 超參數 1. Hyperparameter tuning / 調校超參數 2. Hyperparamete...

2019-09-23 ‧ 由 madeleine 分享
DAY 23

[Day 23] Hyperparameter tuning / 調校超參數 part II

Tree beased models GBDT: XGBoost, LightGBM, CatBoost RandomForest/ExtraTrees...

2019-09-24 ‧ 由 madeleine 分享
DAY 24

[Day 24] Hyperparameter tuning / 調校超參數 part III

Neural nets – Pytorch, Tensorflow, Keras... Linear models – SVM, logistic regres...

2019-09-25 ‧ 由 madeleine 分享
DAY 25

[Day 25] tSNE - dimension reduction / 非線性降維方法與視覺化

tSNE 介紹 : tSNE 非線性降維, 用在非監督問題類類型中, 流形還原的意義是將高維度上相近的點,對應到低維度上相近的點,盡量保持資料點之間的遠近關係...

2019-09-26 ‧ 由 madeleine 分享
DAY 26

[Day 26] ensembling - bagging / 集成機器學習方法

Exmined ensem methods Averaging(or blending) Weighted averaging Conditional ave...

2019-09-27 ‧ 由 madeleine 分享
DAY 27

[Day 27] ensembling - boosting / 提升法

Boosting / 提升法 定義 提升法是把之前的預測透過權重或殘差整合成一個綜合模型的方法, 厲害的 XGBoost, LightGBM 跟 H2O's...

2019-09-28 ‧ 由 madeleine 分享
DAY 28

[Day 28] ensembling - stacking

Stacking / 堆疊 定義 上2篇把預測結果混合以提升泛化效能(也可以是加強Robustness魯棒性), 本篇 Stacking 開始, 講的是改以先...

2019-09-29 ‧ 由 madeleine 分享
DAY 29

[Day 29] ensembling - stacknet 及瑪博(Marios Michailidis)大神級秘訣分享

Stacknet 定義 瑪博(Marios Michailidis)大神級的參賽紀錄, 昨天查還是全世界排名第五名, 根據搜尋到的文章, 瑪博用Java開發了...

2019-09-30 ‧ 由 madeleine 分享
DAY 30

[Day 30] tips and tricks

由各個課程講師提供參賽各階段的心法 1. 選擇比賽, 瞭解 Kaggle 的類別 --- 作者自己整理 2. Before you enter a compet...

2019-10-01 ‧ 由 madeleine 分享