iT邦幫忙

2023 iThome 鐵人賽

DAY 13
0

boosting

前幾天有寫過一點關於boosting跟bagging大概的概念,今天開始前再簡單說一下

  • 透過組合弱學習機、改進每一次的錯誤、從而獲得一個 強學習機
  • 弱學習機就是比亂猜要好一點的模型

Gradient Descent

透過最佳化方法最小化損失函數

  • 用梯度下降法找到函數的局部最小值
  • 是一種不斷去更新參數找解的方法
    https://ithelp.ithome.com.tw/upload/images/20230928/20163280nU0pUQCkQS.png

Gradient Boosting

  • 是一種集成學習方法
  • 通過組合多個弱學習機來構建一個強學習機
    • 通過迭代訓練一系列弱學習機,每個弱學習機都試圖糾正前一個學習器的錯誤
  • 每次迭代需要定義一個損失函數(也稱為目標函數),用於測量模型預測與實際值之間的差距
  • 每個新的弱學習機都會被添加到模型中,並與之前的學習機組合起來

參考資料


上一篇
Day12-Adaboost
下一篇
Day14-xgboost( Extreme Gradient Boosting )
系列文
什麼演算法?一起來學機器學習!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言