面试问题
一面:
- 把数字倒序写出,123->321,同时避免溢出,leetcode第7题
- SVM的原理、写出SVM的优化目标,优化方法(SMO)
- U-net结构,除了跨层连接,还有哪些优点?(优化梯度流 融合高层语义特征和底层纹理特征)
- pooling层的作用?
- ResNet的思想
- 简述那篇苏医生的文章,我做了哪些部分。
- 简述HERO机器人团队经历
- 简述Dijkstra算法
二面:
- 什么是前序、后序、中序遍历。手写二叉树后序遍历非递归
- CNN除了卷积层、池化层还有什么层?
- 卷积层有哪些可调超参数,这些参数的影响。卷积后feature_map的shape,卷积核大小大了好还是小了好?
- 怎么用33的卷积核怎么达到和77卷积核一样的效果(VGGNet, 3层33的卷积层, 参数更少 C333 v.s. C77,网络更深,引入更丰富的非线性关系)
- batchnorm作用(GoogLeNet提出)
- ResNet的结构,batchnorm层的位置,batchnorm层有哪参数是可学习的(我以为没有,其实有)?
- FCN/U-net的结构,输出的shape。反卷积什么含义。
- 局部感受野
- 用过哪些框架,是否读过源码。是否构建过网络,pytorch如何构建一个网络
- pytorch用的哪个版本,0.4和1.0什么区别。
- 图像分类问题,主干网络完成后,需要接什么网络(全连接层,softmax)
- 分类问题最后的softmax层公式的写法
- 全连接层有什么作用,卷积层后最少需要几层全连接(2层)?
- 为什么用ReLu,relu的改进以及为什么改进。
- 什么是神经元死亡、梯度消失、梯度爆炸
- 激活函数的作用(引入非线性)
面试官评价:
建议我不要只停留在理论,多实践。(但是我没有什么GPU啊啊)
两个算法手写都被批评太粗糙。被批评术语掌握不准确,如feature_map.
说的一些想当然的东西,出发点很有道理,但是实际上不是这样的。
我的反思:
主要关心我在深度学习上的了解情况和算法能力,并不太关心我的本科经历。
算法能力太菜,需要学C++、数据结构
面试过程用用了很多“好像、大概、应该是”类似词语",基本功不扎实。
面试时间非常长,后期一定不要不耐烦,抗压能力要足够强,气场不要弱。
自己不太熟练的东西不要主动说,避免给自己挖坑,比如COX什么的。
阿聪面试:
动态规划背包问题阐述一下
python中不变与可变类型
斐波那契数列可以缓存的写代码
卷积操作
batch normalization作用
c++多态
卷积多通道
阿聪面试2
一面
1、简单介绍一下自己
2、说一说自己做过的和机器学习深度学习相关的项目
3、深度优先搜索和广度优先搜索是什么,写写图的深度优先搜索算法
4、二叉树的遍历:写写前序中序后序中的一个代码
5、BN是什么,有什么作用,可以训练的参数
6、softmax公式,损失怎么计算,假设一个预测结果是(1,-1)另一个结果是(10,-10),哪个的损失更大
7、概率题目:8个人围在一个桌子吃饭,计算左边是左撇子右边是右撇子的期望(和马尔可夫扯关系)
8、LSTM的结构
二面
1、简单介绍一下自己
2、什么是监督学习和非监督学习
3、logistic回归的原理是什么
4、什么是参数模型和非参数模型
5、说说几个熟知网络的结构
6、给定一个二叉树,给定一个数,如何判断树中是否有着个长度的路径,写代码
7、什么是信息熵,信息量
8、感受野是什么,推导两个3*3的卷积核的感受野的公式(卷积核大小,stride,padding)
9、sigmoid的公式,relu的优势
网友评论