说在前头
理解不清楚的同学,可以看视频教程(下篇)
1-1感受卷积神经网络的强大14:55
1-2卷积层详解12:53
1-3卷积计算流程12:30
1-4卷积核心参数分析13:13
1-5卷积参数共享原则08:09
1-6池化层(Pooling)原理08:24
1-7卷积神经网络反向传播原理14:44
1-8实现卷积层的前向传播与反向传播10:19
1-9实现pooling层的前向传播与反向传播12:00
1-10经典卷及网络架构实例20:35
1-11RNN网络结枘08:39
1-12python实现RNN算法33:46
1-13LSTM网络结构简介12:36
1-14分类与回归(Location)任务应用详解33:30
1-15物休检实例33:16
1-16如何巧妙设计网络结枘21:52
1-17训练技巧之数据增强12.20
1-18训练技巧之Transfer Learning11:09
1-19深度学习框架caffe简介20:43
2-0深度学习框架caffe训练过程20:39
2-1深度学习框架caffe接囗使用实例
全连接的结构有没有什么弊端呢?
答:参数过于多,无论从效果还是效率上来说,都存在着很大的问题。
卷积神经网路有一个重要的特性,就是他会做一个权重的共享。
权重共享:每个特征图上,每个点,都进行权重共享。
权重共享的特性:如上图所示,每个特征图上,只有5*5*3个特性,一共75个参数就OK。还有一个偏置,一共76个参数。如果提取了十个特征图,那么只需要760个参数就可以了,相比传统的神经网络来说,省了太多。
池化层
假设我们现在有这样一个特征图,大小为224*224*64
池化层的意思就是选出一个窗口,之后将窗口里的特征进行压缩。
压缩方式也比较简单,一般来说有两种压缩方式,一种是mean方式,一种是max方式。
现在我们可以完整的看一下卷积神经网络的工作流程。
step1:假设小车是我们的一个输入。
step2:将我们输入的图像进行一次卷积
step3: 用RELU函数进行激活
step4:将我们输入的图像进行一次卷积
step5:用RELU函数进行激活
step6:之后进行池化层操作
通过不断的卷积核不断的池化操作,要对特征不断的进行提取。
最后我们拿到了最后的特征FC,我们用最后的特征去做一些任务。