wiki 說明頁:迴歸分析
想了解詳細的說明,請見wiki或者其他參考資料。
或者也可以直接看下面,自己對關於回歸的簡單概念說明。
迴歸分析的本身來自統計學,統計學又是來自數學的延伸,所以模型運算
其實背後就是做一堆數學運算,這一點也不違和,反倒是非常自然。
到這裡,其實我們也可以理解成作ML訓練模型,就是利用程式的方式輔助做一堆數學運算,得到一個數學運算後的結果/函式。
既然是這樣,那用手算人腦算可不可行?其實以簡單的回歸模型來說,還真的可以。
不過就像用計算機做加減乘除,和手算加減乘除一樣,基本上用手算會非常辛苦。
做迴歸分析的話,最簡單入門的做法就是一次方程式,例如說:
y = ax + b1
y = aX1 + bX2 + cX3 + dX4 ......
y = 我們想要的結果 = `應變數` = 受自變數影響而變化的值
x ,X1, X2, X3, X4 = 參數/特徵值 = `自變數`
a,b,c,d = `係數` = 每個參數的權重(影響力)
b1 = `截距` = 數值的起點
截距,這個名詞不用太陌生,譬如說一般成年男性可能從158公分開始往上加(借用服兵役的入伍標準),那資料範圍大概就在158~200之類的,而不是從0開始,158就是基本值的概念。
假設在我們商品最低消費的單位是10元,那麼如果過去一個小時內我們有100張訂單,我們也可以預期訂單總金額至少在1000元以上對吧?
如果我們訓練的迴歸模型,如了參數(自變數)可以自行決定以外,那些係數(權重)要怎麼給出一個數值呢?
所謂的訓練,簡單的可以理解,就是為了找出這些係數,更進階的一點,可以說是為了確定這些參數是不適用,或者使用的函式本身(上面的例子就是一元方程式)能不能適用,亦或者需要換成別種方程式。