iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

紮實的ML機器學習原理~打造你對資料使用sklearn的靈敏度 系列

我有很多實作經驗,透過sklearn數學原理
讓你快速可以上線AI專案

鐵人鍊成 | 共 30 篇文章 | 4 人訂閱 訂閱系列文 RSS系列文
DAY 11

DAY 11 「XGBoost(eXtreme Gradient Boosting)」來做乳腺癌分類啦~

首先除了安裝Sklearn外需要先安裝XGBoost import xgboost as xgb XGBoost(eXtreme Gradient Boosti...

2023-09-26 ‧ 由 sharonchen 分享
DAY 12

DAY 12 「集成學習(Ensemble Learning)Boosting 和 AdaBoost」AI專案落地必有的觀念啦~

集成學習是真正落地專案必須要有的觀念~ 白話來說集成也就是組合多個弱學習器(弱分類器)以構建一個強學習器從而提升模型的性能~~~重要重要重要 Boostin...

2023-09-27 ‧ 由 sharonchen 分享
DAY 13

DAY 13 「隨機搜索(Random Search)& Halving 網格搜索(Halving Grid Search)」最佳超參數組合來做鳶尾花分類啦~

模型調優最佳幫手演算法~~ 白話來說可以幫助找到模型的最佳超參數組合~~ 隨機搜索(Random Search):隨機搜索是一種簡單但高效的超參數調優方法,...

2023-09-28 ‧ 由 sharonchen 分享
DAY 14

DAY 14 「梯度提升樹(Gradient Boosting Decision Trees / GBDT)」集成來做鳶尾花分類啦~

再一個集成學習方法~~ 白話來說通過叠代地訓練決策樹每一棵樹都試圖糾正前一棵樹的預測錯誤從而逐步提升模型的性能 基本原理:初始化模型:使用一個簡單的模型(比如...

2023-09-29 ‧ 由 sharonchen 分享
DAY 15

DAY 15 「樸素貝葉斯優化HyperOpt&Optuna&GPyOpt&Scikit-Optimize」大魔王教你超級強大自動優化sklearn參數啦~

通過貝葉斯推斷來尋找最優的超參數組合以最大化或最小化目標函數 貝葉斯推斷:利用貝葉斯定理來建模超參數與目標函數之間的關系,從而通過已知的數據點預測出未知的目...

2023-09-30 ‧ 由 sharonchen 分享
DAY 16

DAY 16 「模型融合(Model Ensemble)」落地AI除了集成演算法外必學的另一種思路~

通過結合多個模型的預測結果提升整體性能 白話說就是將多個獨立訓練的機器學習模型整合在一起以提升整體性能的技術可以降低過擬合風險,提高泛化能力,從而在許多情況下提...

2023-10-01 ‧ 由 sharonchen 分享
DAY 17

DAY 17 「HyperOpt」分布式異步優化的Python庫~

通過 HyperOpt 對一個簡單的分類模型(比如邏輯回歸)進行超參數優化~ import numpy as np from hyperopt import f...

2023-10-02 ‧ 由 sharonchen 分享
DAY 18

DAY 18 「Optuna:一個用於超參數優化的Python庫」分類模型啦~

Optuna 對一個簡單的分類模型(比如邏輯回歸)進行超參數優化~ pip install optuna import optuna import numpy...

2023-10-03 ‧ 由 sharonchen 分享
DAY 19

DAY 19 「四個庫(HyperOpt、Optuna、GPyOpt、Scikit-Optimize)」來做超參數優化啦~

用於解決超參數優化問題的工具~ HyperOpt 使用了不同的優化算法,包括隨機搜索、TPE(Tree-structured Parzen Estimator...

2023-10-04 ‧ 由 sharonchen 分享
DAY 20

DAY 20 「GPyOpt:一個用於貝葉斯優化的Python庫」來做分類啦~

基於 GPy(高斯過程庫)的優化方法~ 適用於黑盒函數優化問題,特別是在高維和噪聲環境下 pip install gpyopt import GPyOpt f...

2023-10-05 ‧ 由 sharonchen 分享