1.批量梯度下降
每次遍历所有的样本对进行梯度更新,迭代次数较少,在样本数量较多的训练速度慢。
2.随机梯度下降
每次只是用一个样本,更新速度慢,可能会收敛到局部最优。
3.小批量梯度下降
设置batch__size,结果相对精确,速度相对快。
梯度下降方法
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 转载自链接:https://www.cnblogs.com/lliuye/p/9451903.html 梯度下降法...
- 之所以叫盒饭版算法,是希望能在最短时间讲一些没那么正式的东西。 在机器学习里,我们通常用优化方法来计算模型的未知参...