iT邦幫忙

第 11 屆 iT 邦幫忙鐵人賽

DAY 6
0

昨天介紹完貝氏分類器(Bayes Classification),有沒有覺得SKlearn內的函數真的很好用呀!今天要來介紹常用的線性迴歸(Linear-Regression)。

Linear Regression

線性回歸簡單來說,就是將複雜的資料數據,擬和至一條直線上,就能方便預測未來的資料。

import matplotlib.pyplot as plt
import seaborn as sns; sns.set()
import numpy as np

先從簡單的線性回歸舉例,,a稱為截距,b稱為斜率。

  • 考慮到使用的數據,如下所舉例斜率為3,截距為-5。
rng = np.random.RandomState(1)
x = 10 * rng.rand(50)
y = 3 * x - 5 + rng.randn(50)
plt.scatter(x, y);

  • 再來,使用SKlearn中的LinearRegression模組來擬合數據,並利用plt.plot()方式建構繪製出最適合的線。
from sklearn.linear_model import LinearRegression
model = LinearRegression(fit_intercept=True)

model.fit(x[:, np.newaxis], y)

xfit = np.linspace(0, 10, 1000)
yfit = model.predict(xfit[:, np.newaxis])

plt.scatter(x, y)
plt.plot(xfit, yfit);


上一篇
Day5 機器學習-Bayes Classification
下一篇
Day4 機器學習-Gaussian Linear Regression
系列文
成為機器學習的王者7

尚未有邦友留言

立即登入留言