美文网首页
面试Orz(数据挖掘向)

面试Orz(数据挖掘向)

作者: 袁一帆 | 来源:发表于2016-04-10 00:41 被阅读954次

    前面干货,后面废话。

    1. 百度

    1. 2个有序数组取中位数
      https://leetcode.com/problems/median-of-two-sorted-arrays/
    2. 建模预测,通过调整服务器更换组件策略,达到利益最大化(成本越低越好)
    3. 数据库:设计用户表。存储登陆信息,存储拓展信息,怎么实现第三方登陆的设计,表过大怎么扩展
    4. linux:awk,top,cat
    5. 1T数据,取最大10个数,分布式计算,hash分块
    6. 介绍决策树id3,c4.5,cart,随机森林,GBDT
    7. LR正则项
    8. SVM推导,核函数,松弛变量
    9. 协同过滤矩阵,推荐方法简述

    2. 360

    1. LR更新权值的公式
    2. 批量梯度下降,随机梯度下降,mini批量梯度下降
    3. n边形的图形内交点个数
    4. 实现memcyp
    5. 二叉树中序遍历转链表
    6. 读过的数学书,编程书,机器学习书

    3. 搜狗

    1. 翻转链表
    2. 顺时针输出矩阵
    3. n sum
      https://leetcode.com/problems/combination-sum/
    4. 无序数组,大小相邻的最大间隔
      例如2,11,8,9,15。相邻最大的是2和8,相差6

    4. 亚马逊

    1. 翻转链表
    2. 一亿个数里找最大100个
    3. 建模分析仓库单位面积的效益,来做出进出货物的策略

    5. 蘑菇街

    1. SVM分类器的输入输出
    2. SVM如何实现多分类,原理,分类器数量
    3. SVM优化的数学原理
    4. 文档词频矩阵构成

    6. 京东(电面)

    1. 协同过滤矩阵的行列的代表意义
    2. 如何根据矩阵进行推荐
    3. 如何LDA打标签进行行为挖掘
    4. SVM分类参数意义
    5. 文本分类流程

    7. 今日头条

    1. 字符串反转,就转单词顺序呢个,要求空间复杂度为1
    2. 大顶堆插入操作,大顶堆写递归的会改成循环
    3. 逻辑回归推导
    4. kmeans讲原理
    5. lda概率图模型,参数意义

    8. 百度(nlp)

    1. 贝叶斯公式
    2. 信息熵度量2篇文章
    3. svm推导,高维映射,松弛变量
    4. lda概率图
    5. lr公式推导
    6. 有监督与无监督
    7. 搜索排名参考什么(词项,分类,主题,query分析,PageRank这些都是我猜的)
    8. 有环图搜索
    9. c++传引用传值,内存对齐,静态变量,对应的python相关问题表达

    9. 滴滴-地图策略

    1. 协同过滤推荐的过程
    2. PageRank为什么会收敛
    3. SVM推导,仅线性硬间隔
    4. 二分
    5. 计算字符串索引。字符全排列,取字典序的位置索引。例如abcd这个字符串,aaaa对应索引为0,aaab对应为1.

    10. 腾讯

    1. 二分查找,递归&循环
    2. 冒泡排序
    3. SVM与贝叶斯对于文本的区别,为什么有区别
    4. Kmeans和LDA区别
    5. L1和L2区别
    6. 自己主动推了一下的SVM的pegasos
    7. 项目相关问了些LDA,PageRank相关的概念,原理,使用场景

    后面是废话

    • 面了这么多有点伤,折腾不动了
    • 可以搞定机器学习的数学原理,但是数学问题再深挖就要蒙蔽,后面计划好好学数学
    • 回归预测系列算法,由于简历原因基本没被问过,集中于LR,GBDT吧

    相关文章

      网友评论

          本文标题:面试Orz(数据挖掘向)

          本文链接:https://www.haomeiwen.com/subject/ulielttx.html