正则化主要是用于降低过拟合的风险。
L1 引入稀疏性,删除影响较少的参数,可减少计算量。拉普拉斯分布(背靠背的指数分布)
L2 均衡各个参数的影响,比较平滑,效果比较好。高斯分布。可以获得更少的非0分类。
L!和L2正则化的过程如图所示
从贝叶斯估计的角度看,正则化项目对应于模型的先验概率,可以假设复杂的模型有比较小的先验概率,简单的模型有较大的先验概率。
正则化主要是用于降低过拟合的风险。
L1 引入稀疏性,删除影响较少的参数,可减少计算量。拉普拉斯分布(背靠背的指数分布)
L2 均衡各个参数的影响,比较平滑,效果比较好。高斯分布。可以获得更少的非0分类。
L!和L2正则化的过程如图所示
从贝叶斯估计的角度看,正则化项目对应于模型的先验概率,可以假设复杂的模型有比较小的先验概率,简单的模型有较大的先验概率。