Logistic函数
可用牛顿迭代法/梯度下降法求解。
随机梯度下降法:一次仅用一个样本点(的回归误差)来更新回归系数。随着迭代的进行,alpha越来越小,这会缓解系数的高频波动
支持向量机(SVM)
对偶问题:
同样的方法:
训练SVM和使用SVM都用到了样本间的内积,而且只用到内积。那如果我们可以找到一种方法来计算两个样本映射到高维空间后的内积的值就可以了。核函数就是完成这伟大的使命的:
坐标上升(下降)法:只调整一个变量αi的值
SMO算法:每次只选取两个变量进行优化。原因是: