- 概述
对于普通最小二乘的参数估计问题,当模型的各项是相关时,最小二乘估计对于随机误差非常敏感,会产生很大的方差。一般来说,对于没有经过实验设计搜集到的数据,很容易出现这种多重共线性。而岭回归在最小二乘法的基础上通过对回归系数施加‘惩罚’来解决这些问题,具体来说,就是在偏差平方和函数中加上了一个l2正则项,通过正则项来调节参数,删除那些相关的项。岭回归的误差平方和函数为:
其中,是控制系数伸缩量的参数,可以通过的值使模型的方差和偏差达到平衡。随着的增大,方差减小而偏差增大。
- 实际应用
Scitkit-learn使用Ridge()
函数实现岭回归。
class sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0.001, solver='auto', random_state=None)¶
- Parameters
alpha
:正则化系数,较大的值指定更强的正则化。
fit_intercept
:是否计算模型的截距,默认为True,计算截距
normalize
:在需要计算截距时,如果值为True,则变量x在进行回归之前先进行归一化(),如果需要进行标准化则normalize=False
。若不计算截距,则忽略此参数。
copy_X
:默认为True,将复制X;否则,X可能在计算中被覆盖。
max_iter
:共轭梯度求解器的最大迭代次数。对于sparse_cg
和lsqr
,默认值由scipy.sparse.linalg
确定。对于sag
求解器,默认值为1000.
tol
:float类型,指定计算精度。
solver
:求解器{auto
,svd
,cholesky
,lsqr
,sparse_cg
,sag
,saga
}
aotu
:根据数据类型自动选择求解器
svd
:使用X的奇异值分解计算岭系数。奇异矩阵比cholesky
更稳定
cholesky
:使用标准的scipy.linalg.solve
函数获得收敛的系数
sparsr_cg
:使用scipy.sparse.linalg.cg
中的共轭梯度求解器。作为一种迭代算法,这个求解器比cholesky
更适合大规模数据(设置tol和max_iter的可能性)
lsqr
:使用专用的正则化最小二乘方法scipy.sparse.linalg.lsqr
。
sag
:使用随机平均梯度下降,saga
使用其改进的,无偏见的版本,两种方法都使用迭代过程。
random_state
:随机数生成器的种子。
- Attributes
coef_
:返回模型的估计系数。
intercept_
:线性模型的独立项,一维情形下的截距。
n_iter
:实际迭代次数。
- Methods
fit(X,y)
:使用数据训练模型
get_params([deep=True])
:返回函数LinearRegression()
内部的参数值
predict(X)
:使用模型做预测
score(X,y)
:返回模型的拟合优度判定系数
为回归平方和与总离差平方和的比值,介于0-1之间,越接近1模型的拟合效果越显著。
set_params(**params)
:设置函数LinearRegression()
内部的参数。
- 实例
from sklearn.preprocessing import scale
from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge
from sklearn.datasets import load_boston
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
boston = load_boston()
X = scale(boston.data)
y = boston.target
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.8)
lmodel = Ridge(alpha=i,fit_intercept = True,solver = 'auto',copy_X=True)
lmodel.fit(X_train,y_train)
Ridge(alpha=1.0, copy_X=True, fit_intercept=True, max_iter=None,
normalize=False, random_state=None, solver='auto', tol=0.001)
lmodel.coef_
array([-1.11125473, 0.89842868, -0.00522108, 0.65887304, -1.93970763,
2.95928617, -0.13589642, -2.98057045, 2.57068677, -2.03507147,
-2.02756142, 0.88785945, -3.39465369])
lmodel.intercept_
22.48662693222167
lmodel.score(X_train,y_train)
0.7818715197682596
lmodel.get_params()
{'alpha': 1.0,
'copy_X': True,
'fit_intercept': True,
'max_iter': None,
'normalize': False,
'random_state': None,
'solver': 'auto',
'tol': 0.001}
error = pow(lmodel.predict(X_test)-y_test,1)/len(X_test)
plt.figure(1,dpi = 100)
plt.scatter(np.arange(len(error)),error)
plt.ylabel('残差')
plt.title('残差图')
Text(0.5,1,'残差图')