1.线性回归
给定数据集,其中,."线性模型"试图学习一个线性模型以尽可能准确的预测实值标记。
数据集上的函数,若二阶导数大于0,则为凸函数,若二阶导数小于0,则为凹函数。
上述的闭式解,是指可以通过公式直接推导得出的解,区别于数值解,数值解为逼近值。
下面从统计学意义看线性回归模型:
模型表达式:
X为向量,代表多元的线性回归模型。
误差:
误差是独立并且具有相同的分布,并且服从均值为0,方差为的高斯分布;
预测值与误差: (1)
误差服从高斯分布: (2)
将(1)式代入(2)式,得
使用似然函数估计预测与真实值的可能性
什么样的参数跟我们的额数据结合后恰好接近真实值。
对数似然函数:
目标让似然函数越大越好,则损失函数为:
最小二乘法
方程式: 可通过直接求解获得参数,闭式解
也可采用梯度下降获得他的数值解。
m为样本个数,上述为批量梯度下降,这种方法容易得到最优解,但是每次需要考虑所有样本,所以速度很慢。
可以尝试随机梯度下降(SGD),,每次找一个样本,迭代速度块,但不一定每次都朝着差值收敛的方向
此外,还有mini-batch方式的梯度下降,将分成小样本来更新权值。
广义线性模型:
广义线性模型的参数估计通常使用加权最小二乘法或极大似然法进行。
2.对数几率回归(logistic regression)
对数几率函数:,图像为:
对数几率函数是一种“Sigmoid”函数,它将z值转化成一个接近0~1的值,
称为“几率(odds)”反应了x作为正例的相对可能性,对几率取对数则得到“对数几率”
。(3.18)实际上是再用线性回归模型的预测值取逼近真实标记的对数几率,称为“对数几率函数”
优点:无需事先假设数据的分布;对数函数是任意阶可导的凸函数,可以通过许多数值优化算法直接求解最优值。
模型的参数估计:
对于给定的数据集,,令,.
我们通过“极大似然函数”来估计和,使每个样本属于其真实标记的概率越大越好。
似然函数为: 最大化似然函数来求解
代价函数:,求似然函数的极大,技术最小化代价函数。
另一种说法:交叉熵,用于评估学习模型与训练分布之间的差异。
对上式求导:
使用迭代改变,达到最大值。