1.过拟合的解决办法
2.L1/L2正则化
3.特征如何降维 (pca lda)
4.pca和lda的区别
5.GBDT,XGBOOST,RF,对XGB参数的理解
(LR,SVM,XGBOOST,这三个模型中哪个处理数据不平衡的Cover能力最强,答案:XGBoost,号称能处理10:1的数据不平衡)
6.SSD,Faster-rcnn,Mask-Rcnn
faster rcnn的rpn和anchor机制和ROI pooling,SSD在哪方面比YOLOv1检测小物体更有效,损失函数为何用交叉熵不用平方损失
7.检测单阶段和两阶段的优缺点
8.神经网络的反向传播机制,pooling和卷积
7.逻辑回归与SVM的区别,logistic和SVM要弄得很清楚,大数据量的情况下逻辑回归和SVM哪个好
LR计算比较方便,SVM高维kernel计算复杂,但是准确。如果数据多,要求实时得到预测结果,用LR;如果数据不多,要求准确率,可以选择SVM
8.范数,满秩和正定的联系?
9.svd中间项的秩
10.kmeans聚类和EM聚类
11.smooth L1为什么是L1不是L2
12.梯度下降法和牛顿法
13.momentum
14.核范数的计算和意义和优化,1/2范数
15.SIFT,HOG和LBP,Hough直线检测的原理
16.聚类求视频中的人
17.谱聚类图切(谱聚类了解一下)
18.SVD怎么做的,和特征值分解的区别和联系
(矩阵作用在向量上就是等于对该向量进行了变换)
19.svm的核函数?(一个低维空间向高维空间的映射,这个映射可以把低维空间线性不可分的变成线性可分的,可能面临维度灾难,使用对偶和核技巧可以避免显式的特征变换)
SVM的离群点(软间隔)
20.形态学操作
开运算:先腐蚀后膨胀 :过滤噪声的同时不对物体的形状,轮廓造成明显的影响
闭运算:先膨胀后腐蚀,能够弥合狭窄的间断,填充小的孔洞。
21.边缘检测算法
sobel prewitt roberts log canny dog
22.深度学习为什么在图像领域效果这么好
23.光流算法
24.1*1卷积的作用
25.depth wise convolution?
26.为什么mobile net 精度下降
27.优化算法再仔细看一遍
28.CNN的核心,卷积操作,卷积反向传播,tensorflow中卷积操作是怎样实现的,池化是怎样的操作,反向传播过程中池化层怎么接受后面传过来的损失?
29.研究一下tensorflow框架
30.手写BP,用SGD写
31.目标检测在提升小目标检测上的改进
32.滤波器尺寸一般设计成奇数?
33.dropout:train和test不一样,test把active function的输出都乘以P,这样就把train和test的输出期望都scale到了一个range
34.BN:降低了样本之间的差异,scale到(alpha,beta);降低了层层之间的依赖,主要体现在前一层的输出是下一层的输入,那么我们把所有数据都scale到(alpha,beta)的分布,那么就降低了层层之间的依赖关系,从而使数据更加准确
35.感受野:
36.pooling:maxpooling:提取最具代表性的特征,average pooling:提取比较general的特征;global average pooling:用来分类的,因为后面的网络加深,full connected layer 参数太多了,不容易训练,为了快速准确得到结果,采用global average pooling ,没有参数,但是得到的分类结果效果跟FC差不多。
37.积分图像
38.一些评价指标AUC,ROC
网友评论