简单线性回归
从今日起,开始算法部分学习
- 第一个算法,简单线性回归(Simple Linear Regressor)
- 原理:
-- y = ax+b - 学习
- 这是最简单的线性相关,考查的是y和x之间的相互关系,a代表斜率,b代表截距,只要上过初中,就可以理解,无需多言,总体而言,y和x处于同一条直线附近.
sklearn
当然可以利用Python自行实现,不过在现在的时代,各种算法框架层出不穷,实在没有必要舍近求远,sklearn足够好用.
导入
from sklearn.linear_model import LinearRegression
实例化
model = LinearRegression()
- 训练
model.fit(X,y) #X为矩阵,y为list
- 预测
predict = model.predict(test)[0] #test为需要预测的值
评估
- 评估,可应用方差和协方差进行
- numpy计算方差
np.var(X,ddof=1) #ddof为指定类型
- 协方差
- 首先将list(y) 变为array格式
np.cov(X.T,y)[0][1]
R指数是默认的评估方式
model.score(x,y)
总结
- 简单线性回归较为简单,不必过度上心,快速进入下一环节:K-NN!