這系列結束後,我將繼續挑戰IT鐵人30日:
佛心分享 : it 考照之路
主題:從摸索7個月到下定決心訂下3週後考試:自學取得PMP 3AT 執照
昨日我們談到regression的起源與原理。
今日我們要談的是:
regression 的數學式:
regression 的程式碼:
y = w_0 + w_1x
上面這個式子 :就是國中所學的一元方程式:y = b + ax其中的w_0對應到b就是截距intercept即x=0直線與y軸相交的點,w_1對應到a也就是斜率slope,直線的傾斜程度,在統計上又稱相關係數。昨日 的左圖的紅色直線就是對應y = w_0 + w_1x。
y = w_0x_0+w_1x_1+…+w_mx_m = \sum_{i=0}^{m} w_i \times x_i ,其中的\times 是乘的意思,也就是國中所學的多元方程組,只是這裡的x假設有m個。昨日 的右圖的紅色平面就是:y = w_0 + w_1 \times x_1 + w_2 \times x_2,其中x_0 = 1 代入。
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
lr.fit(X_train, y_train)
plr = lr.predict(X_train)
lr.score(X_train, y_train)
print("lr's solpe = %.3f" , lr.coief_[0])
print("lr's intercept = %.3f" , lr.intercept_)
載入sklearn.linear_model 的 LinearRegression套件。
模型配飾。
模型預測。
模型評估效能。
LinearRegression 的 slope就是,lr.coief_[0]。coief_[0]是lr的屬性attribute。
LinearRegression 的 intercept就是,lr.intercept_。同理intercept也是lr的attribute。
明天我們將會談SVM,敬請期待。
接下來請同學要有心理準備,因為我們這一系列的文章總共有30天,而我們現在已經學習到一半以上,已經具備一定基礎,未來的文章內容加深文章篇幅會開始變長,不過不用擔心我會用淺顯易懂的方式,也是這系列文章的核心理念,讓你輕鬆學習ML相關知識。