- 本专栏适合于Python已经入门的学生或人士,有一定的编程基础。
- 本专栏适合于算法、机器学习求职的学生或人士。
- 本专栏特点:
- 本专栏囊括了深度学习、机器学习、NLP、特征工程等一系列知识点的讲解,并且最后总结出了高频面试考点(附有答案)【共301道】,知识点讲解全面,事半功倍,为大家春秋招助力。不仅如此,教程还讲解了简历制作、笔试面试准备、面试技巧等内容。网址:本人心血总结,为机器学习、算法求职的同学助力!!!
之前本人的C++与嵌入式教程(详情请看这篇帖子:本人心血总结,为C++软件与嵌入式软件求职的同学助力!!!) 知识点非常全面,适合非科班的同学,几个月以来广受好评。
## 作者介绍
湖南大学(985)硕士研究生(1%保研),**国家奖学金、省优秀研究生称号**获得者。校招面试过数十家公司,经验丰富,获得过华为、京东、顺丰科技等公司offer。个人面试经历写作为专刊文章,目前为牛客网专刊作者。擅长机器学习、C++后台开发、嵌入式软件开发。**非科班研究生**,立志进入互联网领域,最后通过自己的努力拿到大公司的offer,将自己的经历写入了《蒋豆芽的秋招打怪之旅》故事中,和大家分享春秋招的酸甜苦辣。
<br/>
## 大纲
##机器学习面试题汇总与解析——损失函数
<br/>
1. #### 说一下你了解的损失函数?⭐⭐⭐⭐⭐
2. #### 说说你平时都用过什么损失函数,各自什么特点?⭐⭐⭐⭐⭐
3. #### 交叉熵函数与最大似然函数的联系和区别?⭐⭐⭐⭐⭐
4. #### 在用sigmoid作为激活函数的时候,为什么要用交叉熵损失函数,而不用均方误差损失函数?⭐⭐⭐⭐⭐
5. #### 关于交叉熵损失函数(Cross-entropy)和 平方损失(MSE)的区别?⭐⭐⭐⭐⭐
6. #### 推导交叉熵损失函数?⭐⭐⭐⭐⭐
7. #### 为什么交叉熵损失函数有log项?⭐⭐⭐⭐⭐
8. #### 说说adaboost损失函数⭐⭐⭐⭐
9. #### 说说SVM损失函数⭐⭐⭐⭐
10. #### 简单的深度神经网络(DNN)的损失函数是什么?⭐⭐⭐⭐
11. #### 说说KL散度⭐⭐⭐⭐
12. #### 说说Yolo的损失函数⭐⭐⭐⭐⭐
13. #### 交叉熵的设计思想是什么⭐⭐⭐⭐⭐
14. #### 说说iou计算⭐⭐⭐⭐⭐
15. #### 手写miou计算⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——激活函数
<br/>
1. #### 说一下你了解的激活函数?分别应用于什么场景?⭐⭐⭐⭐⭐
2. #### 说说你平时都用过什么激活函数,各自什么特点?⭐⭐⭐⭐⭐
3. #### 写一下leaky ReLU的公式,跟ReLU比有什么优势?⭐⭐⭐⭐⭐
4. #### 了解ReLU6吗?⭐⭐⭐⭐⭐
5. #### sigmoid有什么缺点,有哪些解决办法?⭐⭐⭐⭐⭐
6. #### relu在零点可导吗,不可导如何进行反向传播?⭐⭐⭐⭐⭐
7. #### 推导sigmoid求导公式⭐⭐⭐⭐⭐
8. #### Softmax公式,溢出怎么处理⭐⭐⭐⭐⭐
9. #### Softmax公式求导⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——优化函数
<br/>
1. #### 说一下你了解的优化函数?⭐⭐⭐⭐⭐
2. #### SGD和Adam谁收敛的比较快?谁能达到全局最优解?⭐⭐⭐⭐⭐
3. #### 说说常见的优化器以及优化思路,写出他们的优化公式⭐⭐⭐⭐⭐
4. #### 深度学习中的优化算法总结 Optimizer⭐⭐⭐⭐⭐
5. #### adam用到二阶矩的原理是什么⭐⭐⭐⭐⭐
6. #### Batch的大小如何选择,过大的batch和过小的batch分别有什么影响⭐⭐⭐⭐⭐
7. #### 梯度下降的思想⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——正则化
<br/>
1. #### 解决模型训练过拟合有哪些思路?⭐⭐⭐⭐⭐
2. #### 如何判断过拟合?⭐⭐⭐⭐⭐
3. #### 正则化$l_1$(lasso)和$l_2$(ridge)的区别?⭐⭐⭐⭐⭐
4. #### L1有什么缺点?⭐⭐⭐⭐⭐
4. #### L1正则为什么可以达到模型的稀疏性⭐⭐⭐⭐⭐
5. #### 说说BN(Batch Normolization)的原理⭐⭐⭐⭐⭐
5. #### 知道BN吗?公式写一下,有什么作用与优势?BN的计算过程。⭐⭐⭐⭐⭐
8. #### BN训练和测试有什么不同?⭐⭐⭐⭐⭐
5. #### 介绍一下BN和LN?有什么差异?LN是在哪个维度上进行归一化?⭐⭐⭐⭐⭐
5. #### 要同时使用BN和dropout该如何使用?⭐⭐⭐⭐⭐
11. #### BN的gama labada意义⭐⭐⭐⭐⭐
12. #### 数据增强的方法⭐⭐⭐⭐⭐
13. #### 两个正则化的参数分布⭐⭐⭐⭐⭐
14. #### 在预测的时候,是使用dropout训练出的权重还是要乘以keep-prib呢,为什么?⭐⭐⭐⭐⭐
15. #### 为什么Lasso可以筛选变量?⭐⭐⭐⭐⭐
16. #### L1正则化为什么能缓解过拟合⭐⭐⭐⭐⭐
17. #### BN+CONV融合公式及作用⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——初始化方法
<br/>
1. #### 说说初始化方法有哪些?⭐⭐⭐⭐⭐
2. #### 理想的参数初始化方法是什么?⭐⭐⭐⭐⭐
3. #### 说说你用过的初始化方法,都有哪些优缺点⭐⭐⭐⭐⭐
4. #### 网络参数初始化为0可以吗?⭐⭐⭐⭐⭐
5. #### 随机初始化参数有什么问题?⭐⭐⭐⭐⭐
6. #### 手推梯度消失和梯度爆炸问题⭐⭐⭐⭐⭐
7. #### 怎么缓解梯度消失⭐⭐⭐⭐⭐
8. #### 梯度消失的根本原因⭐⭐⭐⭐⭐
9. #### 说说归一化方法⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——卷积与池化
<br/>
1. #### 说说有哪些卷积⭐⭐⭐⭐⭐
1. #### 卷积实现原理?⭐⭐⭐⭐⭐
3. #### 卷积基本计算公式,padding⭐⭐⭐⭐⭐
4. #### 卷积操作后的特征图大小⭐⭐⭐⭐⭐
5. #### 常规卷积和深度可分离卷积的计算量⭐⭐⭐⭐⭐
5. #### 反卷积是怎么做的, unpooling中maxPooling怎么实现?⭐⭐⭐⭐⭐
5. #### 什么是空洞卷积?⭐⭐⭐⭐⭐
5. #### 知道哪些卷积类型?请介绍一下⭐⭐⭐⭐⭐
5. #### 为什么Depthwise卷积后还要进行pointwise卷积⭐⭐⭐⭐⭐
5. #### 卷积的底层实现/加速技巧⭐⭐⭐⭐⭐
5. #### 1x1卷积有什么作用⭐⭐⭐⭐⭐
12. #### CNN有什么特点和优势⭐⭐⭐⭐⭐
12. #### 说说你了解的pooling方法⭐⭐⭐⭐⭐
12. #### pooling层的作用⭐⭐⭐⭐⭐
13. #### 常用的pooling方法有哪些,那个更好?⭐⭐⭐⭐⭐
16. #### 说一下ROI Pooling⭐⭐⭐⭐⭐
17. #### 说一下maxpooling的反向传播怎么处理⭐⭐⭐⭐⭐
18. #### 语义分割上采样的方法⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——技术发展
<br/>
1. #### 说说分类网络的发展⭐⭐⭐⭐
2. #### 为什么要设计残差连接⭐⭐⭐⭐⭐
3. #### 说说语义分割网络的发展⭐⭐⭐⭐
4. #### deeplabV3有什么改进,具体讲一下⭐⭐⭐⭐⭐
5. #### vgg16同期还有哪些网络,inception网络有什么特点⭐⭐⭐⭐⭐
5. #### 什么是感受野?⭐⭐⭐⭐⭐
5. #### 讲一下 mobileNet系列,ResNet系列⭐⭐⭐⭐⭐
8. #### 说说目标检测的发展⭐⭐⭐⭐⭐
9. #### 讲一下目标检测one stage, two stage,讲一下yoloV1⭐⭐⭐⭐⭐
10. #### yolo实现,损失函数⭐⭐⭐⭐⭐
11. #### Faster R-CNN 的具体流程⭐⭐⭐⭐⭐
12. #### Faster R-CNN 训练和测试的流程有什么不一样⭐⭐⭐⭐⭐
13. #### YOLOv3和Faster R-CNN 的差异⭐⭐⭐⭐⭐
14. #### YOLO系列有几个版本,YOLOv4 用到了哪优化方法⭐⭐⭐⭐⭐
15. #### 除了聚类,还有哪些anchor的设计⭐⭐⭐⭐⭐
16. #### anchor的理解⭐⭐⭐⭐⭐
17. #### Anchor-free的优势在哪里⭐⭐⭐⭐⭐
18. #### 介绍比赛中的有用的trick有哪些⭐⭐⭐⭐
19. #### 手写nms⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——评价指标
<br/>
1. #### 说说机器学习评价指标⭐⭐⭐⭐⭐
2. #### AUC是什么?AUC是否对正负样本比例敏感?⭐⭐⭐⭐⭐
3. #### 分类模型如何评价⭐⭐⭐⭐⭐
4. #### 准确率与精准率的区别⭐⭐⭐⭐⭐
5. #### AUC的意义和两种计算方法⭐⭐⭐⭐⭐
6. #### 讲讲分类,回归,推荐,搜索的评价指标⭐⭐⭐⭐⭐
7. #### AB test的原理⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——线性回归与逻辑回归
<br/>
1. #### 逻辑回归 LR 详细推导⭐⭐⭐⭐⭐
2. #### 回归和分类的区别⭐⭐⭐⭐⭐
3. #### 逻辑回归特征是否归一化⭐⭐⭐⭐⭐
4. #### 什么样的模型需要特征归一化⭐⭐⭐⭐⭐
5. #### 如何提升LR的模型性能?⭐⭐⭐⭐⭐
6. #### 逻辑回归为啥要做特征离散化⭐⭐⭐⭐⭐
7. #### LR的详细过程,如何优化⭐⭐⭐⭐⭐
8. #### 知道什么损失函数,lr公式推导⭐⭐⭐⭐⭐
10. #### 最小二乘法在什么条件下与极大似然估计等价?⭐⭐⭐⭐⭐
11. #### 逻辑回归为什么不用平方损失函数?⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——SVM
<br/>
1. #### 推导SVM⭐⭐⭐⭐⭐
2. #### LR 和 SVM 联系与区别⭐⭐⭐⭐⭐
3. #### svm介绍一下⭐⭐⭐⭐⭐
4. #### 讲一下SVM的原理⭐⭐⭐⭐⭐
5. #### 如果特征比较多,用LR还是SVM?⭐⭐⭐⭐⭐
6. #### 介绍SVM⭐⭐⭐⭐⭐
7. #### SVM是否可以用随机梯度下降⭐⭐⭐⭐⭐
8. #### SVM优缺点⭐⭐⭐⭐⭐
9. #### 为什么要将求解 SVM 的原始问题转换为其对偶问题⭐⭐⭐⭐⭐
10. #### 为什么SVM对缺失数据敏感⭐⭐⭐⭐⭐
11. #### SVM怎么防止过拟合 ?⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——KNN
<br/>
1. #### KNN介绍一下⭐⭐⭐⭐
2. #### KNN优缺点⭐⭐⭐⭐
3. #### KNN的K值怎么选⭐⭐⭐⭐
4. #### KNN数据需要归一化吗?⭐⭐⭐⭐
5. #### KNN三要素说一下⭐⭐⭐⭐
6. #### 欧式距离与曼哈顿距离区别⭐⭐⭐⭐
7. #### knn的k设置的过大会有什么问题⭐⭐⭐⭐
##机器学习面试题汇总与解析——聚类
<br/>
1. #### k-means介绍一下⭐⭐⭐⭐⭐
2. #### k-means优缺点⭐⭐⭐⭐⭐
3. #### k-means的簇怎么选⭐⭐⭐⭐⭐
4. #### k-means如何调优⭐⭐⭐⭐⭐
5. #### 知道哪些聚类模型⭐⭐⭐⭐⭐
6. #### K-means的过程⭐⭐⭐⭐⭐
7. #### K-means如何选取K值⭐⭐⭐⭐⭐
8. #### kmeans聚类如何选择初始点⭐⭐⭐⭐⭐
9. #### kmeans聚类,聚的是特征还是样本?特征的距离如何计算?⭐⭐⭐⭐⭐
10. #### 聚类算法知道哪些⭐⭐⭐⭐⭐
11. #### Kmeans算法和EM算法的关系⭐⭐⭐⭐⭐
12. #### 写Kmeans代码⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——决策树
<br/>
1. #### 决策树介绍一下⭐⭐⭐⭐⭐
2. #### 决策树优缺点⭐⭐⭐⭐⭐
3. #### 决策树的划分标准是什么⭐⭐⭐⭐⭐
4. #### ID3和C4.5的区别⭐⭐⭐⭐⭐
5. #### 树模型对离散特征怎么处理的⭐⭐⭐⭐⭐
6. #### 树模型怎么决定一个叶子结点是否要分裂⭐⭐⭐⭐⭐
7. #### 决策树出现过拟合的原因及解决办法⭐⭐⭐⭐⭐
8. #### 如何对决策树进行剪枝?⭐⭐⭐⭐⭐
9. #### 决策树需要进行归一化处理吗⭐⭐⭐⭐⭐
10. #### 决策树与逻辑回归的区别⭐⭐⭐⭐⭐
11. #### 说下决策树的损失函数⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——集成学习、Adaboost、随机森林、GBDT、xgBoost、LightGBM
<br/>
1. #### LightGBM和xgBoost、GBDT的区别⭐⭐⭐⭐⭐
2. #### xgBoost和gbdt的区别⭐⭐⭐⭐⭐
3. #### xgBoost的block结构⭐⭐⭐⭐⭐
4. #### XGBoost的优缺点⭐⭐⭐⭐⭐
5. #### 集成学习 Bagging Boosting⭐⭐⭐⭐⭐
6. #### RF和GBDT的区别⭐⭐⭐⭐⭐
7. #### GBDT是否适合于处理大规模的ID特征⭐⭐⭐⭐⭐
8. #### LightGBM的直方图 排序后会比xgboost的效果差吗,为什么⭐⭐⭐⭐⭐
9. #### xgboost正则化项和什么有关⭐⭐⭐⭐⭐
10. #### 随机森林哪两个随机⭐⭐⭐⭐⭐
11. #### bootstrap怎么做的⭐⭐⭐⭐⭐
12. #### 介绍GBDT的详细计算过程⭐⭐⭐⭐⭐
13. #### xgb的正则项是什么⭐⭐⭐⭐⭐
14. #### xgboost缺失值处理方法⭐⭐⭐⭐⭐
15. #### 为什么xgboost要二阶展开?⭐⭐⭐⭐⭐
16. #### 集成学习的方法有哪些⭐⭐⭐⭐⭐
17. #### 泰勒公式求e的近似值⭐⭐⭐⭐⭐
18. #### XGBoost 如果损失函数没有二阶导,该怎么办⭐⭐⭐⭐⭐
19. #### GBDT的G梯度的向量长度为多少⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——NLP
<br/>
1. #### LSTM与transform的区别⭐⭐⭐⭐⭐
2. #### 讲一下Bert原理,Bert好在哪里?⭐⭐⭐⭐⭐
3. #### cbow 与 skip-gram 的区别和优缺点⭐⭐⭐⭐⭐
4. #### Bert的MLM预训练任务mask的目的是什么⭐⭐⭐⭐⭐
5. #### CRF原理⭐⭐⭐⭐
6. #### Bert 采用哪种Normalization结构,LayerNorm和BatchNorm区别,LayerNorm结构有参数吗,参数的作用?⭐⭐⭐⭐⭐
7. #### 如何优化BERT效果⭐⭐⭐⭐⭐
8. #### BERT self-attention相比lstm优点是什么?⭐⭐⭐⭐⭐
9. #### 说说循环神经网络⭐⭐⭐⭐⭐
10. #### 说说LSTM⭐⭐⭐⭐⭐
11. #### LSTM的结构⭐⭐⭐⭐⭐
12. #### LSTM的三个门怎么运作的,写一下三个门的公式⭐⭐⭐⭐⭐
13. #### LSTM为什么可以解决长期依赖,LSTM会梯度消失吗⭐⭐⭐⭐⭐
14. #### LSTM相较于RNN的优势⭐⭐⭐⭐⭐
15. #### 讲一下LSTM,LSTM相对于RNN有哪些改进?LSTM为什么可以解决长期问题,相对与RNN改进在哪
16. #### 讲一下LSTM吧,门都是怎么迭代的⭐⭐⭐⭐⭐
17. #### RNN为什么难以训练,LSTM又做了什么改进⭐⭐⭐⭐⭐
18. #### wide & deep 模型 wide 部分和 deep 部分分别侧重学习什么信息⭐⭐⭐⭐⭐
19. #### deepfm 一定优于 wide & deep 吗⭐⭐⭐⭐⭐
20. #### Bert的输入是什么?⭐⭐⭐⭐⭐
21. #### Bert的词向量的embedding怎么训练得到的?⭐⭐⭐⭐⭐
22. #### self-attention理解和作用,为什么要除以根号dk?⭐⭐⭐⭐⭐
23. #### BERT中并行计算体现在哪儿⭐⭐⭐⭐⭐
24. #### 翻译中Q\K\V对应的是什么⭐⭐⭐⭐⭐
25. #### attention和self attention的区别⭐⭐⭐⭐⭐
26. #### 介绍transformer以及讲优势⭐⭐⭐⭐⭐
27. #### Transformer encoder和decoder的介绍⭐⭐⭐⭐⭐
28. #### BERT模型怎么做的?大致的网络架构是怎么样的?⭐⭐⭐⭐⭐
29. #### transformer的position embedding和BERT的position embedding的区别⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——模型优化
<br/>
1. #### 若CNN网络很庞大,在手机上运行效率不高,对应模型压缩方法有了解吗⭐⭐⭐⭐⭐
2. #### 介绍一下模型压缩常用的方法?为什么用知识蒸馏?⭐⭐⭐⭐⭐
3. #### 知道模型蒸馏吗?谈下原理⭐⭐⭐⭐⭐
4. #### 做过模型优化吗?模型蒸馏和模型裁剪?⭐⭐⭐⭐⭐
5. #### squeezeNet的Fire Module有什么特点?⭐⭐⭐⭐
6. #### 降低网络复杂度但不影响精度的方法⭐⭐⭐⭐⭐
7. #### 如果让模型速度提高一倍,有什么解决方案?⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——朴素贝叶斯
<br/>
1. #### 朴素贝叶斯介绍一下⭐⭐⭐⭐⭐
2. #### 朴素贝叶斯优缺点⭐⭐⭐⭐⭐
3. #### 贝叶斯公式⭐⭐⭐⭐⭐
4. #### 朴素贝叶斯中的“朴素”怎么理解?⭐⭐⭐⭐⭐
5. #### 什么是拉普拉斯平滑法?⭐⭐⭐⭐⭐
6. #### 朴素贝叶斯中有没有超参数可以调?⭐⭐⭐⭐⭐
7. #### 你知道朴素贝叶斯有哪些应用吗?⭐⭐⭐⭐⭐
8. #### 朴素贝叶斯对异常值敏不敏感?⭐⭐⭐⭐⭐
9. #### 频率学派与贝叶斯学派的差别⭐⭐⭐⭐
10. #### 概率与期望的公式⭐⭐⭐⭐
11. #### 先验概率与后验概率⭐⭐⭐⭐
##机器学习面试题汇总与解析——PCA与LDA
<br/>
1. #### PCA介绍一下⭐⭐⭐⭐⭐
2. #### PCA算法步骤⭐⭐⭐⭐⭐
3. #### PCA原理⭐⭐⭐⭐⭐
4. #### PCA降维之后的维度怎么确定⭐⭐⭐⭐⭐
5. #### 说说PCA的优缺点⭐⭐⭐⭐⭐
6. #### 推导一下PCA⭐⭐⭐⭐⭐
7. #### 降维方法有哪些?⭐⭐⭐⭐⭐
8. #### LDA介绍一下⭐⭐⭐⭐⭐
9. #### LDA的中心思想是什么⭐⭐⭐⭐⭐
10. #### LDA的优缺点⭐⭐⭐⭐⭐
11. #### 说说LDA的步骤⭐⭐⭐⭐⭐
12. #### 推导一下LDA⭐⭐⭐⭐⭐
13. #### PCA和LDA有什么区别⭐⭐⭐⭐⭐
14. #### 偏差与方差⭐⭐⭐⭐
15. #### SVD懂么⭐⭐⭐⭐⭐
16. #### 方差和协方差的理解⭐⭐⭐⭐
17. #### 伯努利分布和二项分布的区别⭐⭐⭐⭐
##机器学习面试题汇总与解析——GAN
<br/>
1. #### GAN是用来干什么的,怎么用的,介绍一下⭐⭐⭐⭐⭐
2. #### GANs的优缺点是什么?⭐⭐⭐⭐⭐
3. #### GAN为什么不好收敛⭐⭐⭐⭐⭐
4. #### 为什么GAN中的优化器不常用SGD⭐⭐⭐⭐⭐
5. #### 生成对抗网络在哪里用到的,起什么作用,损失函数是什么⭐⭐⭐⭐⭐
6. #### 训练GAN的一些技巧⭐⭐⭐⭐⭐
7. #### 说说GAN的训练过程⭐⭐⭐⭐⭐
8. #### Pix2pix和cycleGan的区别⭐⭐⭐⭐⭐
##机器学习面试题汇总与解析——特征工程
<br/>
1. #### 特征工程有哪些⭐⭐⭐⭐⭐
2. #### 遇到缺值的情况,有哪些处理方式⭐⭐⭐⭐⭐
3. #### 样本不均衡的处理办法⭐⭐⭐⭐⭐
4. #### 训练时样本不平衡问题如何解决;小样本问题如何解决⭐⭐⭐⭐⭐
5. #### 常见的筛选特征的方法有哪些?⭐⭐⭐⭐⭐
6. #### 数据怎么清洗,缺失值怎么填充⭐⭐⭐⭐⭐
7. #### 出现Nan的原因⭐⭐⭐⭐⭐
8. #### 特征筛选,怎么找出相似性高的特征并去掉⭐⭐⭐⭐⭐
9. #### 对于不同场景机器学习和深度学习你怎么选择,你更习惯机器学习还是深度学习?⭐⭐⭐⭐⭐
10. #### 包含百万、上亿特征的数据在深度学习中怎么处理⭐⭐⭐⭐⭐
11. #### 类别型数据你是如何处理的?比如游戏品类,地域,设备⭐⭐⭐⭐
12. #### 计算特征之间的相关性方法有哪些?⭐⭐⭐⭐
##机器学习面试题汇总与解析——传统算法
<br/>
1. #### 傅里叶变换公式及其推导⭐⭐⭐
2. #### 边缘检测算法⭐⭐⭐
3. #### 牛顿法的推导过程⭐⭐⭐
4. #### 了解哪些插值算法⭐⭐⭐
5. #### SIFT的整个详细流程⭐⭐⭐
6. #### SIFT和SURF的区别⭐⭐⭐
7. #### 牛顿法和拟牛顿法⭐⭐⭐
8. #### FFT和DFT的区别⭐⭐⭐
9. #### 双线性差值的操作过程⭐⭐⭐
##机器学习面试题汇总与解析——Python
<br/>
1. #### python 深拷贝与浅拷贝⭐⭐⭐⭐⭐
2. #### python多线程能用多个cpu么?⭐⭐⭐⭐⭐
3. #### python垃圾回收机制⭐⭐⭐⭐⭐
4. #### python里的生成器是什么⭐⭐⭐⭐⭐
5. #### 迭代器和生成器的区别⭐⭐⭐⭐⭐
6. #### 装饰器⭐⭐⭐⭐⭐
7. #### python有哪些数据类型⭐⭐⭐⭐⭐
8. #### Python 中列表( List )中的 del,remove,和 pop 等的用法和区别⭐⭐⭐⭐⭐
9. #### python yeild 和return的区别⭐⭐⭐⭐⭐
10. #### python set底层实现⭐⭐⭐⭐⭐
11. #### python字典和set()的区别⭐⭐⭐⭐⭐
12. #### 怎么对字典的值进行排序?⭐⭐⭐⭐⭐
13. #### __init__和__new__和__call__的区别⭐⭐⭐⭐⭐
14. #### import常用库⭐⭐⭐
15. #### python的lamda函数⭐⭐⭐⭐⭐
16. #### Python内存管理⭐⭐⭐⭐⭐
17. #### python在内存上做了哪些优化?⭐⭐⭐⭐⭐
18. #### Python中类方法和静态方法的区别⭐⭐⭐⭐⭐
19. #### python多线程怎么实现⭐⭐⭐⭐⭐
20. #### 点积和矩阵相乘的区别?⭐⭐⭐⭐
21. #### Python中错误和异常处理⭐⭐⭐⭐
22. #### Python 的传参是传值还是传址?⭐⭐⭐⭐
23. #### 什么是猴子补丁?⭐⭐⭐⭐
24. #### 当退出 Python 时是否释放所有内存分配?⭐⭐⭐⭐
25. #### Python 中的 is 和 == 有什么区别?⭐⭐⭐⭐
26. #### gbk和utf8的区别⭐⭐⭐⭐
27. #### 遍历字典可以用什么方法⭐⭐⭐⭐
28. #### 反转列表的方法⭐⭐⭐⭐
29. #### python 元组中元组转为字典⭐⭐⭐⭐
30. #### range在python2和python3里的区别⭐⭐⭐⭐
31. #### `__init__.py` 文件的作用以及意义⭐⭐⭐⭐
## 机器学习面试题汇总与解析——HR面
<br/>
## 本章讲解知识点
- **1.1 HR心理复盘**
- **1.2 HR常问问题——学校的表现怎么样啊?**
- **1.3 HR常问问题——了解我们公司吗?**
- **1.4 HR常问问题——个人情况**
- **1.5 HR常问问题——业余生活**
- **1.6 HR常问问题——薪资待遇**
- **1.7 HR常问问题——人性考察**
网友评论