旷视分布式一面
- transformer加速 O(n2) O(nlogn)
- all reduce, ring all reduce
- batchnorm
- conv+batchnorm
- 模型并行
- deepspeed显存优化
- MOE
旷视video一面
- 有没有自我介绍PPT
- 论文的贡献量
- 两段学校交流主要是做了什么
- 最长回文字串
- 百度做了什么,腾讯做了什么
- 英语口语怎么样,分数
- 了不了解MOT
- transformer加速后续有没有用到业务上
滴滴一面
- 自我介绍
- 介绍你熟悉的transformer加速
- 介绍论文
- 图像顺时针旋转90度代码题
京东一面
- 自我介绍
- 组里的方向
- 期望来之后做的方向
均已发offer
网友评论