NCPC 小炮灰,謝謝你簽到題,至少不是 0。
用於預測未知資料的值
找多個自變數( independent variable )和應變數( dependent variable )之間的線性關係
線性迴歸用一條直線來擬合資料,並用直線來預測未知資料
Y 是應變數(要預測的數值型變數)
X 是自變數(用於預測的特徵)
是截距項(模型的截距,表示當所有自變數為 0 時的應變數的值)
是係數(模型的參數,表示自變數對應變數的影響程度)
是誤差項(隨機誤差,表示模型未能解釋的部分)
為了建立線性迴歸模型,要找到最適合資料的直線,使預測值和實際觀察值的誤差最小
最常見的方法是使用最小平方法
假設我們有一組資料點
當想要擬合一個線性模型
其中 Y 是應變數 X 是自變數
最小平方法的目標
找到一組係數使得模型預測值與實際觀察值之間的誤差平方和最小
最小化目標函數
對目標函數求解
目標函數關於係數的偏微分設為 0 然後解出係數的值
就可以找到使誤差平方和最小的係數
偏微分
解方程系統
設定偏微分為 0
得方程系統
使用均方誤差(MSE)和決定係數(R²)等指標評估線性迴歸模型的性能
MSE 用來度量模型預測值和實際觀察值之間的平均誤差的指標
MSE越小,表示模型的預測越準確
數學公式
n 是資料點的數量
是實際觀察到的目標值
是模型預測的目標值
R² 用來度量模型對應變數的變異中可由自變數解釋部分所占的比例
R²的範圍從 0 到 1 ,越接近 1 模型越能解釋應變數的變異性
數學公式
常用於解決二元分類問題的監督式機器學習算法
雖然名稱中包含"迴歸"( Regression )一詞,但其實邏輯迴歸用在分類,而不是迴歸
邏輯分布公式
https://zh.wikipedia.org/zh-tw/%E7%B7%9A%E6%80%A7%E5%9B%9E%E6%AD%B8
https://zh.wikipedia.org/zh-tw/%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%98%E6%B3%95
https://zh.wikipedia.org/zh-tw/%E5%9D%87%E6%96%B9%E8%AF%AF%E5%B7%AE
https://zh.wikipedia.org/zh-tw/%E5%86%B3%E5%AE%9A%E7%B3%BB%E6%95%B0
https://zh.wikipedia.org/zh-tw/%E9%82%8F%E8%BC%AF%E6%96%AF%E8%AB%A6%E8%BF%B4%E6%AD%B8