管理,先看看最近有没有什么有趣的新闻发生。关注学界的应该都知道IJCAI近几天在斯德哥尔摩举行(机器学习三大顶会之一),卷积神经网络之父Yann LeCun发表了题为《Learning World Models: the next step towards AI》的演讲,各大公众号也争相转载,感兴趣的可以去机器之心看看。关于大神的演讲,我最大的感触就是AI的发展刚刚起步,还有许多需要研究的东西,监督学习也许是低垂的果实,但是想要摘取AI王冠上最大的宝石,还有很长的路要走。LeCun最后依然使用蛋糕做对比,只不过这次强化学习成了蛋糕上的樱桃,监督学习成了奶油,自监督学习才是主体的蛋糕坯。LeCun还有一个观点我认为值得我们深入思考,在诸多学科之间往往存在着一条隐藏的线将诸多珍珠串联成美丽的珍珠项链,而目前AI领域大多在研究穿线手法,广泛认可的基本指导思想依旧没有产生,就像LeCun说的,什么才是AI的“热力学”。
人工智能和自然智能的背后是否存在底层原则?
学习的背后是否存在简单的尊则?
大脑是否是进化产生的大量“hack”的集合?
闲话扯完了,LeCun说的离现在还比较远,路要一步一步走,饭要一口一口吃,还是接着读论文吧。
今天的论文题目是“Minimizing Supervision for Free-space Segmentation”,论文的想法很直观做法也很简单,但有几个地方还是值得学习的。
有题目可知,本片论文做的是开放空间检测,或者叫可行域检测也行,至于“Minimizing Supervision”的理解就是在实验过程中需要少量的认为干预,离无监督还有一小步的距离。
整篇文章的基调基于两个假设:
1.可行域一般出现在整张图片的中间偏下的位置(车载前置摄像头采集的图片)。
2.可行域具有比较固定的纹理特征(水泥路面或者沥青路面)。
在这两个假设的基础上,作者采用传统的基于图的前景提取的方法提取超像素,然后利用K-means方法对图片里的像素进行聚类(可行区域会聚为一类),然后将产生的路面类作为训练标签训练一个语义分割网络。
想法很直观,也把传统的计算机视觉方法与机器学习结合得很好,整个架构需要少量人工参与,极大的节省了人力成本。
上图中热力图使用的是高斯分布,也是需要人为设计的地方,由于先验知识具有极强的领域独有性,因此导致本方法无法迁移到其他领域。
本文还有一个比较好的想法就是批量聚类,由于K-means方法为聚类结果随机分配标签,就算在加入先验知识后也会产生上图中间最左边图的情况,因此作者提出了一种批量聚类的方法,是的聚类效果大大提升。
可以看到本文方法得到的结果还是具有很好的效果的,但是本文基于的两条假设也成了本文最大的限制,因为过强的假设条件就会导致方法泛化性能降低。我认为本文有几点需要改进:
1.可行域先验假设可否在鲁棒一些,是有类似启发式或则注意力机制的方法作为先验。
2,路面的纹理特征检测体现的并不明显。
本文总体还是很优秀的,针对开放区域检测的效果也很不错,从中学到了很多,感谢作者优秀的工作。
最后,祝好!愿与诸君一起进步。