卷积核被用于边缘检测,也称作filter。其中卷积核的一个属性是局部性,即它只关注局部特征,局部的程度取决于卷积核的大小。
在信号处理中,时域卷积对应频域相乘。此处,原图像与convolution kernel的卷积,就是对频域信息进行选择。比如,图像中的边缘和轮廓属于高频信息,图像中某区域强度的综合考量属于低配信息。
CNN中的convolution kernel:
cnn的独特之处:
1. 卷积核中德每个权值可以看成DNN中的w,且与DNN一样,多一个参数。
2. 一个卷积核在与input不同区域做卷积时,它的参数是固定不变的。就是对同一层layer中的神经元而言,所有神经元的w和b相同,只是所连接的节点在改变。因此在cnn中,这叫做shared weights and biases
3. 在cnn中,卷积核是高维的,比如输入是m*n*k,那么卷积核是d*d*k,即输入和卷积核的深度一致。
4. 在cnn中,不需要特意设计卷积核的权值,只需要初始化,再通过GD来优化。初始化格外重要。
5. 通过卷积核后,得到的是原图的某些特征(如边缘信息),所以在cnn中,convolution kernel卷积得到的layer称作feature map.
6. 一般cnn中两层之间会有多个卷积核,这样做是为了学习输入的不同特征值,得到对应的多个feature map.
卷积核后的大小问题:
多少个参数的问题:
总结: