一、线性回归概述
I‘m Linear Regression, One of the most important mathematical models and Mother of Models.
线性回归模型形式简单、易于建模,简单到让人怀疑其是否有研究价值以及使用价值。但实际上,线性回归模型可以说是最重要的数学模型之一,蕴含着机器学习中很多重要的思想,很多功能更强大的非线性模型(nonlinear nodel)都是建立在它的基础之上,可以被称为是“模型之母”。
二、简单线性回归
2.1、简单线性回归的定义
在机器学习算法中,算法大体被分为分类和回归两种类型,比如kNN算法属于分类(Classification),即label为离散类别型(categorical variable),如:颜色类别、手机品牌、是否患病等。
而线性回归是属于回归(regression),即label为连续数值型(continuous numerical variable),如:房价、股票价格、降雨量等。
那么什么是简单线性回归?
- 简单,是指只有一个样本特征,即只有一个自变量;
- 线性,是指方程是线性的;
- 回归,是指用方程来模拟变量之间是如何关联的。
2.2、简单的小例子
首先引入一个数据源,该数据源中保存了工作年限与薪水的若干条相关信息
income = pd.read_csv(r'./file/Salary_Data.csv')
income.head()
通过seabourn绘制工作年限与收入之间的散点图
# 导入第三方模块
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
# 绘制散点图
sns.lmplot(x = 'YearsExperience', y = 'Salary', data = income, ci = None, fit_reg=False)
# 显示图形
plt.show()
通过对数据源的可视化会发现工作年限与薪水存在着一定的线性关系,那么我们是否可以画出一条直线,最大程度的拟合样本特征和样本数据标记之间的关系。如下图所示:
sns.lmplot(x = 'YearsExperience', y = 'Salary', data = income, ci = None)
plt.show()
2.3、求解的基本思路
通过上图发现,这条直线是我们初中就学过的一个一次函数 y = ax + b
,那么我们如何求出参数a
与b
的值呢?下面是简单的推导过程:
首先,则对于每个样本点,根据我们的直线方程,预测值为:。
我们所期望的是当选取合适的a
和b
后,直线方程能够尽可能地拟合真实情况,换句话说,就是真实值与方程得到的预测值之间的差距尽可能的小。
这二者直接的值有可能为正也有可能为负,因此使用绝对值来表示二者之间的差距:。
但是在线性回归中,我们需要找极值,需要函数可导,而 不是一个处处可导的函数,因此很自然地想到可以使用:
考虑所有样本,我们推导出:
最终我们目标变为:已知训练数据样本x、y ,找到a和b的值,使尽可能小。
2.4、损失函数与风险函数
2.4.1、损失函数
在2.3节的思路中,我们的目的是找到一组参数,使得真实值与预测值之间的差距尽可能地小,也就是损失的部分尽量小。
在机器学习中,我们使用损失函数(loss function)(也有算法是衡量拟合的程度,称函数为效用函数(utility function))来描述没有拟合的部分,损失函数是衡量预测模型预测期望结果表现的指标,用来度量模型一次预测的好坏。损失函数越小,模型的鲁棒性越好。
常见的损失函数有一下几种:
- 0-1损失函数:用来表述分类问题,当预测分类错误时,损失函数值为1,正确为0
- 平方损失函数:用来描述回归问题,用来表示连续性变量,为预测值与真实值差值的平方。(误差值越大、惩罚力度越强,也就是对差值敏感)
- 绝对损失函数:用在回归模型,用距离的绝对值来衡量
- 对数损失函数:是预测值Y和条件概率之间的衡量。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要使用乘法,为了将其转化为加法,我们将其取对数。最后由于是损失函数,所以预测正确的概率越高,其损失值应该是越小,因此再加个负号取反。
以上损失函数是针对于单个样本的,但是一个训练数据集中存在N个样本,N个样本给出N个损失,如何进行选择呢?
这就引出了风险函数。
2.4.2、风险函数
期望风险:对所有样本预测错误程度的均值【全局】
期望风险是损失函数的期望,用来表达理论上模型f(X)关于联合分布P(X,Y)的平均意义下的损失。又叫期望损失/风险函数。期望风险是全局的,基于所有样本点损失函数最小化。期望风险是全局最优,是理想化的不可求的。
经验风险:多次预测的错误程度的均值【局部】
模型f(X)关于训练数据集的平均损失,称为经验风险或经验损失。经验风险是局部的,基于训练集所有样本点损失函数最小化。经验风险是局部最优,是现实的可求的。
其公式含义为:模型关于训练集的平均损失(每个样本的损失加起来,然后平均一下)
经验风险最小的模型为最优模型。在训练集上最小经验风险最小,也就意味着预测值和真实值尽可能接近,模型的效果越好。公式含义为取训练样本集中对数损失函数平均值的最小。
期望风险是模型关于联合分布的期望损失,经验风险是模型关于训练样本数据集的平均损失。根据大数定律,当样本容量N趋于无穷时,经验风险趋于期望风险。
因此很自然地想到用经验风险去估计期望风险。但是由于训练样本个数有限,可能会出现过拟合的问题,即决策函数对于训练集几乎全部拟合,但是对于测试集拟合效果过差。因此需要对其进行矫正
结构风险:经验风险 + 正则项(惩罚项)
结构风险最小化:当样本容量不大的时候,经验风险最小化容易产生“过拟合”的问题,为了“减缓”过拟合问题,提出了结构风险最小理论。结构风险最小化为经验风险与复杂度同时较小。
通过公式可以看出,结构风险:在经验风险上加上一个正则化项(regularizer),或者叫做罚项(penalty) 。正则化项是J(f)是函数的复杂度再乘一个权重系数(用以权衡经验风险和复杂度)
2.5、参数学习算法的基本思路
对于所有的参数学习模型来说,推导思路大致为:
- 通过分析问题,确定问题的损失函数或者效用函数
- 然后通过最优化损失函数或者效用函数,获得机器学习的模型
区别在于模型不同,建立的目标函数不同,优化的方式也不同。
2.6、最小二乘法
回归到之前的问题,如何计算的最小值呢?这里引入最小二乘法的概念
最小二乘法源于法国数学家阿德里安的猜想:
对于测量值来说,让总的误差的平方最小的就是真实值。这是基于,如果误差是随机的,应该围绕真值上下波动。
....推导过程未完待续
最小二乘法得到a、b的表达式: