在这两周中参加了由 Datawhale 组织的李宏毅深度学习组队项目,总的来说还是比较有收获的。去年学完了吴恩达的机器学习课程,不过之后就没怎么...
动量梯度下降法 动量梯度下降法(Momentum),这也是另外一个,有可能可以对抗 Saddle Point,或 Local Minima 的技...
分批梯度下降法 实际上在算微分的时候,并不是真的对所有数据算出来的损失函数作微分,而是把所有的数据分成一个一个的批次。 [图片上传失败...(i...
临界点 临界点分析 临界点,即梯度为0的点,分为两类:局部极值点和鞍点。 [图片上传失败...(image-8137ab-16268782492...
神经网络 网络构建 神经网络(Neural network)里面的节点,类似我们的神经元,从其他节点接受信息,经过处理后传递给其他节点。网络节点...
梯度下降法 由于给出的训练数据集固定,损失函数只与模型参数有关。所以可对损失函数在参数上的梯度来更新参数。其中称为学习率 学习速率 梯度下降法的...
偏差与方差 使用的模型往往与真实情况存在一定的误差(error)。误差主要有两个来源:偏差(bias)和方差(Variance)。偏差类似于预测...
线性回归 回归:寻找输入变量与输出变量间的对应关系,常通过类似于对已有数据集进行拟合的方法进行。但考虑到模型稳定性和泛化性,并非对训练数据集拟合...
机器学习简介 机器学习与常规程序的特点 常规程序:由人主动设定完成任务的所需要的步骤,显式地写出所有需要的参数和分支可能。适用于处理“简单”的问...