iT邦幫忙

2023 iThome 鐵人賽

DAY 6
0

在前幾天的筆記中有介紹過線性回歸(Linear Regression),線性回歸中的因變數與自變數呈現直線關係(線性關係),但實際上直線並不一定能很好的展現因變數與自變數間的關係,此時可以將原本的一次線性回歸改成n次方,也就是n次線性回歸

線性回歸(Linear Regression)V.S. 多項式回歸(Polynomial Regression)

  • 這裡有一組資料,使用線性回歸並不能很好的擬合這些資料,也就不能很好的展現因變數與自變數間的關係
    https://ithelp.ithome.com.tw/upload/images/20230921/20163280ceN9Kmrlja.png
  • 此時若我們增加成較高次方的函式就能更好的擬合
    https://ithelp.ithome.com.tw/upload/images/20230921/20163280sSAXjzx2Yi.png

多項式回歸(Polynomial Regression)

  • 多項式回歸模型
    https://ithelp.ithome.com.tw/upload/images/20230921/20163280vp8wwA7PTv.png
    • data的自變數和因變數之間的關係不需要是線性的
  • 如何找到正確的n
    • 遞增:從低次方開始嘗試,逐步提升
    • 遞減:從高次方開始嘗試,逐步下降
  • cost function
    • 均方差
      https://ithelp.ithome.com.tw/upload/images/20230921/20163280dkSFvKVitV.png

參考資料


上一篇
Day5-線性回歸(Linear Regression)與L1、L2 regularization & Elastic net實作 + jupyter notebook路徑&瀏覽器設定教學
下一篇
Day7-邏輯回歸 (Logistic Regression)
系列文
什麼演算法?一起來學機器學習!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言