1.过拟合的解决办法
2.L1/L2正则化
3.特征如何降维 (pca lda)
4.pca和lda的区别
5.GBDT,XGBOOST,RF,对XGB参数的理解
(LR,SVM,XGBOOST,这三个模型中哪个处理数据不平衡的Cover能力最强,答案:XGBoost,号称能处理10:1的数据不平衡)
6.SSD,Faster-rcnn,Mask-Rcnn
faster rcnn的rpn和anchor机制和ROI pooling,SSD在哪方面比YOLOv1检测小物体更有效,损失函数为何用交叉熵不用平方损失
7.检测单阶段和两阶段的优缺点
8.神经网络的反向传播机制,pooling和卷积
7.逻辑回归与SVM的区别,logistic和SVM要弄得很清楚,大数据量的情况下逻辑回归和SVM哪个好
LR计算比较方便,SVM高维kernel计算复杂,但是准确。如果数据多,要求实时得到预测结果,用LR;如果数据不多,要求准确率,可以选择SVM
8.范数,满秩和正定的联系?
9.svd中间项的秩
10.kmeans聚类和EM聚类
11.smooth L1为什么是L1不是L2
12.梯度下降法和牛顿法
13.momentum
14.核范数的计算和意义和优化,1/2范数
15.SIFT,HOG和LBP,Hough直线检测的原理
16.聚类求视频中的人
17.谱聚类图切(谱聚类了解一下)
18.SVD怎么做的,和特征值分解的区别和联系
(矩阵作用在向量上就是等于对该向量进行了变换)
19.svm的核函数?(一个低维空间向高维空间的映射,这个映射可以把低维空间线性不可分的变成线性可分的,可能面临维度灾难,使用对偶和核技巧可以避免显式的特征变换)
SVM的离群点(软间隔)
20.形态学操作
开运算:先腐蚀后膨胀 :过滤噪声的同时不对物体的形状,轮廓造成明显的影响
闭运算:先膨胀后腐蚀,能够弥合狭窄的间断,填充小的孔洞。
21.边缘检测算法
sobel prewitt roberts log canny dog
22.深度学习为什么在图像领域效果这么好
23.光流算法
24.1*1卷积的作用
25.depth wise convolution?
26.为什么mobile net 精度下降
27.优化算法再仔细看一遍
28.CNN的核心,卷积操作,卷积反向传播,tensorflow中卷积操作是怎样实现的,池化是怎样的操作,反向传播过程中池化层怎么接受后面传过来的损失?
29.研究一下tensorflow框架
30.手写BP,用SGD写
31.目标检测在提升小目标检测上的改进
32.滤波器尺寸一般设计成奇数?
33.dropout:train和test不一样,test把active function的输出都乘以P,这样就把train和test的输出期望都scale到了一个range
34.BN:降低了样本之间的差异,scale到(alpha,beta);降低了层层之间的依赖,主要体现在前一层的输出是下一层的输入,那么我们把所有数据都scale到(alpha,beta)的分布,那么就降低了层层之间的依赖关系,从而使数据更加准确
35.感受野:
36.pooling:maxpooling:提取最具代表性的特征,average pooling:提取比较general的特征;global average pooling:用来分类的,因为后面的网络加深,full connected layer 参数太多了,不容易训练,为了快速准确得到结果,采用global average pooling ,没有参数,但是得到的分类结果效果跟FC差不多。
37.积分图像
38.一些评价指标AUC,ROC
绝境逆生
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
- 101.深度学习(CNN RNN Attention)解决大规模文本分类问题。 用深度学习(CNN RNN Att...
- 第一次听到林俊杰的歌是在初中,那时走在大街小巷都能听到那首《小酒窝》,可以毫不夸张地说,林俊杰的歌曲,陪伴了我一整...