视频链接:b站 有字幕 . https://www.bilibili.com/video/av16388822/?from=search&seid=6753351402600537490
Lecture_1
主要说了一些CV的历史发展
1973年,如何识别物品,思想是复杂对象都是由简单元素组成的,例如圆柱体和圆形。
2000左右主要使用统计机器学习相关方法,例如SVM,神经网络等。
在2011年, 上图的最左侧,分层的,首先计算一些功能,接着计算本地的不变性,经过加工后输入给线性SVM
2012年,Hinton,七层卷积神经网络,AlexNet
之后的网络更深
CNN出现与1998年,贝尔实验室,用于识别数字。经过十几年流行起来的原因1.计算机的计算能力增强。2.过去没有很多有标注的数据。
Lecture_2:
Image Classification pipeline
python学习链接:http://cs231n.github.io/python-numpy-tutorial/
google cloud使用地址:http://cs231n.github.io/gce-tutorial/
1. 根据边界线----太脆弱了,效果不好。
2. 神经网络分类器
1)分类器:最近邻
数据集例子:CIFAR10,有10类,五万个训练集,一万个测试集
如何对比图片:L1 distance
时间复杂度:训练O(1),predict:O(N)
k近邻可以使得分类更加准确,边缘更加平滑。
可视化:http://vision.stanford.edu/teaching/cs231n-demos/knn/
白色部分:没有最近邻的
选择在验证集上表现最好的一组参数,按照该参数训练好模型后,在测试集上跑的结果才出现在报告或者论文中。所以只有在最后才接触测试集。
K近邻方法不适用于图像分类的原因:1. 图像的相似性用L1或L2距离不适用。2.纬数灾难,纬数越高则越需要更多的数据去覆盖空间。
2)线性分类器 Linear classifiers
最简单的模型为:参数模型,令输入图片为32x32x3,偏置项不与训练数据交互,只是提供某种数据的独立性。如果数据中喵占比例比汪大,那么就增加喵的偏置项
线性分类器为了学习一个模版,如果这个类有什么变化,分类器会想要平衡所有的不同的外表,而使用单一的模版。
线性分类器每个类只有一个模版
对于线性分类器来说很难的案例: