美文网首页
实习面经

实习面经

作者: 大豆油 | 来源:发表于2021-03-01 12:10 被阅读0次

    阿里 新零售(NLP 岗位)

    一面

    1. 自我介绍
    2. 项目相关内容,xgboost 与 GBDT的区别,为什么选择 xgboost,以及 xgboost 的原理。
    3. 随机森林特征选取的用的是什么?(信息增益、信息增益比、基尼系数),基尼系数的公式推导,代表的含义。
    4. 样本不均衡怎么办?
    5. TextCNN 与 TextRNN 的区别,CNN 的卷积过程(一维与二维的区别)。
    6. 特征提取器的区别
    7. Attention 机制、与 Self-Attention 的区别。实现细节,Q,K,V的纬度不一致的时候,怎么处理?
    8. 特征输入都是 X,怎么去计算 Q,K,V。也就是走一层线性层,得到三个向量。
    9. 多头注意力机制的输入输出,残差网络层,如果 X 与 Attention 的通道数不一致,也就是问残差网络层,如果纬度不一致,怎么处理?
    10. 传统机器学习,逻辑回归、SVM
    11. 了解哪些排序?冒泡和快排的时间复杂度,最坏最优的情况,堆排序的复杂度。
    12. 算法:取 n 个数里面的前K个最大的值。

    二面:(跪)

    1. 自我介绍
    2. 样本不均衡问题,样本增强?
    3. 项目模型上,怎么调优?特征层面,除了做过表征,还提取过如 bert 的隐藏层,去进行训练?
    4. 项目建模上,创新点是什么?怎么去缓解长文本的方式?
    5. NLG 自然语言生成的实践?
    6. GAN 对抗样本攻击?CV 方面有了解过?chatbot 闲聊机器人?
    7. bert 之间的微调过程?
    8. back_translation?
    9. self-attention 复杂度是 N*N,怎么去降低时间复杂度?

    灵犀科技 (NLP 岗位)

    一面

    1. 项目内容,为什么选取不同的模型,主要是 TextCNN、TextRNN、BERT 之间的区别。
    2. Attention 机制。
    3. 预训练模型怎么解决与当前任务不匹配的问题?微调的过程。
    4. 标注怎么标,怎么确保质量高一点,然后效率也高一点?
    5. python 怎么与后台前端连接?
    6. 算法:反转链表

    联想 (NLP 岗位)

    一面

    1. 自我介绍
    2. 项目内容,CNN模型的介绍,为什么要用残差网络。模型融合怎么做的。
    3. 样本不均衡问题。
    4. python 装饰器、生成器、map 函数、列表推导、python 特性
    5. 数据分析:pandas
    6. Linux 指令:kill 文件怎么操作,统计文本有多少行

    京东(广告算法)(机器学习岗位)

    一面

    1. 自我介绍
    2. 介绍一下认为比较好的项目
    3. word2vec 中CBOW和SG的区别,结果上有什么区别,怎么去选择这两种模型?谁快谁慢?那个更准确一点?
    4. word2vec 的两种优化方法,介绍一下?
    5. TextCNN 模型,卷积纬度是多少,(为什么卷积核要和词向量的纬度保持一致)
    6. RNN 中的每个节点不一致的情况,有什么不好?(实现长度可变,参数共享使得模型能够扩展到不同形式的样本(这里指不同长度的样本)并进行泛化。)
    7. Attention 机制,Q,K,V,手写 Attention 公式。
    8. 手写反向传播,手写 LR。
    9. 算法:数组中第 K 大的数。

    京东(广告算法)二面

    1. 自我介绍

    2. 多标签问题如何处理。

    3. word2vec ,两种方式的区别?word2cev 如何构造样本集?优化目标函数(两种优化方案)。

    4. 构造训练集,如何确定窗口滑动的大小?
      window越大,训练越慢。还有一种说法是window越小,得到的结果越关注语法,window越大,得到的结果越关注语意。

    5. xgboost 如何计算特征重要性?特征信息增益是怎么做的?

    6. Xgboost 与GBDT的区别?

    7. SVM 里面的硬间隔与软间隔区别?

    8. LR 如何实现非线性分类?在LR 怎么将低纬向量映射到高纬向量。
      (1)利用特殊核函数,对特征进行变换:把低维空间转换到高维空间,而在低维空间不可分的数据,到高维空间中线性可分的几率会高一些。
      (2)扩展LR算法,提出FM算法。

    9. 评价指标的区别,如何去选择评价指标?

    10. 面向对象:继承跟多态的区别?

    11. 算法题: 2 sum


    腾讯(应用研究)(机器学习岗)

    一面

    1. 数据结构,栈和队列可以用什么数据结构实现?
    2. Linux 命令,查看 CPU 中有多少个核?
    3. 创建线程用什么命令,线程与进程的区别,进程间通信有哪些方式?
    4. 介绍下 Kmeans 和 DBSCAN 聚类算法,DBSCAN 最大的问题是什么?
    5. Xgboost 和 gbdt 的区别,xgboost 基于什么点优化(速度),lightGBM 与xgboost的区别。
    6. 数据挖掘一般用什么来做?特征重要度的实现方式,怎么通过特征区分正负样本?
    7. CNN 与 RNN 的实现原理,优化 CNN 和 RNN 耗时操作?
    8. 算法:两点确定一个矩形框,一共四个点,计算出两者最大的面积?(通用的方式,会有重合的部分)

    平安科技 (机器学习岗)

    一面

    1. 项目介绍,需要做PPT。
    2. 过拟合的解决方案。L1和L2正则化的区别,batchNorm,dropout,模型融合。
    3. TextCnn 的介绍。
    4. 算法:2 sum
    5. git 如何解决冲突。
    6. 模型优化?调参?

    美团外卖 (机器学习岗)

    一面

    1. 项目介绍
    2. TextCNN 分类通道数,卷积核数量?卷积的作用?
    3. 有哪些池化的方式,最大池化和平均池化的区别是什么?
    4. xgboost 模型如何对统计特征进行归一化?xgboost 如何选择分裂点?
    5. xgboost 与 GBDT 的区别?
    6. 算法题一:删除链表倒数第 N 个节点
    7. 算法题二:n 个数,把 n 个数分到 k 个桶,是每个桶的数值和尽可能最接近

    二面

    1. 介绍下 TextCNN、TextRNN两种模型,区别?
    2. TextCNN、TextRNN与 Bert 差距非常大,为什么?
    3. 分类模型了解哪些?
    4. Bert 的原理?MASK 机制?
    5. Transformer 介绍,整个结构?编码层 self-Attention 怎么做的?
    6. Transformer 归一化层怎么实现的?batch Norm 与 layer Norm 的各自应用场景?
    7. 解决过拟合方法有哪些?
    8. 机器学习常用的损失函数?
    9. L1 与 L2 的正则化的理解?
    10. 算法1:链表反转
    11. 算法2:k 个一组翻转链表

    相关文章

      网友评论

          本文标题:实习面经

          本文链接:https://www.haomeiwen.com/subject/tsahmhtx.html