美文网首页
实习面经

实习面经

作者: 大豆油 | 来源:发表于2021-03-01 12:10 被阅读0次

阿里 新零售(NLP 岗位)

一面

  1. 自我介绍
  2. 项目相关内容,xgboost 与 GBDT的区别,为什么选择 xgboost,以及 xgboost 的原理。
  3. 随机森林特征选取的用的是什么?(信息增益、信息增益比、基尼系数),基尼系数的公式推导,代表的含义。
  4. 样本不均衡怎么办?
  5. TextCNN 与 TextRNN 的区别,CNN 的卷积过程(一维与二维的区别)。
  6. 特征提取器的区别
  7. Attention 机制、与 Self-Attention 的区别。实现细节,Q,K,V的纬度不一致的时候,怎么处理?
  8. 特征输入都是 X,怎么去计算 Q,K,V。也就是走一层线性层,得到三个向量。
  9. 多头注意力机制的输入输出,残差网络层,如果 X 与 Attention 的通道数不一致,也就是问残差网络层,如果纬度不一致,怎么处理?
  10. 传统机器学习,逻辑回归、SVM
  11. 了解哪些排序?冒泡和快排的时间复杂度,最坏最优的情况,堆排序的复杂度。
  12. 算法:取 n 个数里面的前K个最大的值。

二面:(跪)

  1. 自我介绍
  2. 样本不均衡问题,样本增强?
  3. 项目模型上,怎么调优?特征层面,除了做过表征,还提取过如 bert 的隐藏层,去进行训练?
  4. 项目建模上,创新点是什么?怎么去缓解长文本的方式?
  5. NLG 自然语言生成的实践?
  6. GAN 对抗样本攻击?CV 方面有了解过?chatbot 闲聊机器人?
  7. bert 之间的微调过程?
  8. back_translation?
  9. self-attention 复杂度是 N*N,怎么去降低时间复杂度?

灵犀科技 (NLP 岗位)

一面

  1. 项目内容,为什么选取不同的模型,主要是 TextCNN、TextRNN、BERT 之间的区别。
  2. Attention 机制。
  3. 预训练模型怎么解决与当前任务不匹配的问题?微调的过程。
  4. 标注怎么标,怎么确保质量高一点,然后效率也高一点?
  5. python 怎么与后台前端连接?
  6. 算法:反转链表

联想 (NLP 岗位)

一面

  1. 自我介绍
  2. 项目内容,CNN模型的介绍,为什么要用残差网络。模型融合怎么做的。
  3. 样本不均衡问题。
  4. python 装饰器、生成器、map 函数、列表推导、python 特性
  5. 数据分析:pandas
  6. Linux 指令:kill 文件怎么操作,统计文本有多少行

京东(广告算法)(机器学习岗位)

一面

  1. 自我介绍
  2. 介绍一下认为比较好的项目
  3. word2vec 中CBOW和SG的区别,结果上有什么区别,怎么去选择这两种模型?谁快谁慢?那个更准确一点?
  4. word2vec 的两种优化方法,介绍一下?
  5. TextCNN 模型,卷积纬度是多少,(为什么卷积核要和词向量的纬度保持一致)
  6. RNN 中的每个节点不一致的情况,有什么不好?(实现长度可变,参数共享使得模型能够扩展到不同形式的样本(这里指不同长度的样本)并进行泛化。)
  7. Attention 机制,Q,K,V,手写 Attention 公式。
  8. 手写反向传播,手写 LR。
  9. 算法:数组中第 K 大的数。

京东(广告算法)二面

  1. 自我介绍

  2. 多标签问题如何处理。

  3. word2vec ,两种方式的区别?word2cev 如何构造样本集?优化目标函数(两种优化方案)。

  4. 构造训练集,如何确定窗口滑动的大小?
    window越大,训练越慢。还有一种说法是window越小,得到的结果越关注语法,window越大,得到的结果越关注语意。

  5. xgboost 如何计算特征重要性?特征信息增益是怎么做的?

  6. Xgboost 与GBDT的区别?

  7. SVM 里面的硬间隔与软间隔区别?

  8. LR 如何实现非线性分类?在LR 怎么将低纬向量映射到高纬向量。
    (1)利用特殊核函数,对特征进行变换:把低维空间转换到高维空间,而在低维空间不可分的数据,到高维空间中线性可分的几率会高一些。
    (2)扩展LR算法,提出FM算法。

  9. 评价指标的区别,如何去选择评价指标?

  10. 面向对象:继承跟多态的区别?

  11. 算法题: 2 sum


腾讯(应用研究)(机器学习岗)

一面

  1. 数据结构,栈和队列可以用什么数据结构实现?
  2. Linux 命令,查看 CPU 中有多少个核?
  3. 创建线程用什么命令,线程与进程的区别,进程间通信有哪些方式?
  4. 介绍下 Kmeans 和 DBSCAN 聚类算法,DBSCAN 最大的问题是什么?
  5. Xgboost 和 gbdt 的区别,xgboost 基于什么点优化(速度),lightGBM 与xgboost的区别。
  6. 数据挖掘一般用什么来做?特征重要度的实现方式,怎么通过特征区分正负样本?
  7. CNN 与 RNN 的实现原理,优化 CNN 和 RNN 耗时操作?
  8. 算法:两点确定一个矩形框,一共四个点,计算出两者最大的面积?(通用的方式,会有重合的部分)

平安科技 (机器学习岗)

一面

  1. 项目介绍,需要做PPT。
  2. 过拟合的解决方案。L1和L2正则化的区别,batchNorm,dropout,模型融合。
  3. TextCnn 的介绍。
  4. 算法:2 sum
  5. git 如何解决冲突。
  6. 模型优化?调参?

美团外卖 (机器学习岗)

一面

  1. 项目介绍
  2. TextCNN 分类通道数,卷积核数量?卷积的作用?
  3. 有哪些池化的方式,最大池化和平均池化的区别是什么?
  4. xgboost 模型如何对统计特征进行归一化?xgboost 如何选择分裂点?
  5. xgboost 与 GBDT 的区别?
  6. 算法题一:删除链表倒数第 N 个节点
  7. 算法题二:n 个数,把 n 个数分到 k 个桶,是每个桶的数值和尽可能最接近

二面

  1. 介绍下 TextCNN、TextRNN两种模型,区别?
  2. TextCNN、TextRNN与 Bert 差距非常大,为什么?
  3. 分类模型了解哪些?
  4. Bert 的原理?MASK 机制?
  5. Transformer 介绍,整个结构?编码层 self-Attention 怎么做的?
  6. Transformer 归一化层怎么实现的?batch Norm 与 layer Norm 的各自应用场景?
  7. 解决过拟合方法有哪些?
  8. 机器学习常用的损失函数?
  9. L1 与 L2 的正则化的理解?
  10. 算法1:链表反转
  11. 算法2:k 个一组翻转链表

相关文章

  • 实习面经

    阿里 新零售(NLP 岗位) 一面 自我介绍 项目相关内容,xgboost 与 GBDT的区别,为什么选择 xgb...

  • 从面试到跑路--蚂蚁实习小记

    面经篇 面经链接:https://www.nowcoder.com/discuss/179458 实习篇 鉴于...

  • 网易实习面经

    网易面试已经结束了有几天了,想了想还是觉得把这次面试的经历写下来,算是积累经验吧,因为我觉得拿到offer的可能已...

  • 2019实习面经

    国内面经 Coding Trie实现 LCA quicksort 头条一面(2019.3一面+2018.9一面)D...

  • 需要被马住的一些链接

    vue源码实现v-if事件循环可参考的面经,二面挂全部是算法的面经腾讯云实习面经新鲜微信广州面经19年微信前端社招...

  • 滴滴android实习面经

    正文请往下滑,我爱说废话… 大概在40天前我在牛客刷帖子看到滴滴新锐计划的内推,鼓起勇气就投了… 当然一直没回复,...

  • 猿题库实习面经

    昨天下午面试了猿题库,人生第一次的视频面试就给了猿题库。面试之前很紧张,不停地想找人说话和吃东西。中午因为发...

  • 商汤实习offer面经

    我终于回来更新面经啦,有小伙伴定期催稿,真的很不好意思吼~但可是,可但是,我还是不能放弃玩耍~ 最近真的是太懒了,...

  • momenta产品实习面经

    时间线 6.21投简历;6.22一面;6.23 二面;6.24offer 一面(比较轻松) 自我介绍 实习介绍 竞...

  • 手撕面经 - 精准打击

    校招2篇,实习1篇,会及时做出调整 字节跳动前端一面面经(感觉凉凉) [字节]一面凉经 腾讯暑期实习前端面经

网友评论

      本文标题:实习面经

      本文链接:https://www.haomeiwen.com/subject/tsahmhtx.html