iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 21
0
AI & Data

Python零基礎到Kaggle 系列 第 21

Python零基礎到kaggle-Day20

今日目標

安裝XGBoost,試著替換掉隨機森林看Kaggle分數會不會比較高

看完文章您將學到什麼

XGBoost安裝與如何使用

實際操作與程式撰寫

(py36)$brew --version  
版本太舊的話brew update  
沒有的話/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"  
(py36)$install gcc --without-multilib  
(py36)$brew install llvm  
(py36)$brew install clang-omp  
如果找不到clang-omp  
(py36)$brew install --with-clang llvm  
(py36)$pip install xgboost  

到這步XGBoost就裝好了

接下來是程式部分:
https://ithelp.ithome.com.tw/upload/images/20190922/201149067CxI8ANXD0.png
完整程式碼

資料處理都相同,演算法取代隨機森林後Kaggle分數是0.81818,分數沒有比較高,但跟隨機森林0.82296比差距不大,我們也知道算法選擇跟分數有很大相關
我想可能因為是否生存是二分類問題,而樹狀結構正好適合處理
順帶一提,Kaggle也有很棒的學習資源,可以參考這裡

反思回顧

可以用SVM或其他算法試試嗎?
如何選擇對問題合適算法?

參考資料

https://zhuanlan.zhihu.com/p/23996104


上一篇
Python零基礎到kaggle-Day19
下一篇
Python零基礎到kaggle-Day21
系列文
Python零基礎到Kaggle 31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言