作者:狗皮膏药
链接:https://zhuanlan.zhihu.com/p/58434325
来源:知乎
-
SVM:
-
简单介绍SVM(详细原理):从分类平面,到求两类间的最大间隔,到转化为求间隔分之一,等优化问题,然后就是优化问题的解决办法,首先是用拉格拉日乘子把约束优化转化为无约束优化,对各个变量求导令其为零,得到的式子带入拉格朗日式子从而转化为对偶问题, 最后再利用SMO(序列最小优化)来解决这个对偶问题。svm里面的c有啥用
-
SVM的推导,解释原问题和对偶问题,SVM原问题和对偶问题的关系,KKT限制条件,KKT条件用哪些,完整描述;软间隔问题,解释支持向量、核函数(哪个地方引入、画图解释高维映射,高斯核可以升到多少维,如何选择核函数),引入拉格朗日的优化方法的原因,最大的特点,损失函数解释,
-
SVM与LR最大区别,LR和SVM对于outlier的敏感程度分析,逻辑回归与SVM的区别
-
为什么要把原问题转换为对偶问题?因为原问题是凸二次规划问题,转换为对偶问题更加高效。为什么求解对偶问题更加高效?因为只用求解alpha系数,而alpha系数只有支持向量才非0,其他全部为0.alpha系数有多少个?样本点的个数
-
加大训练数据量一定能提高SVM准确率吗?
-
与感知器的联系和优缺点比较
-
如何解决多分类问题、可以做回归吗,怎么做
-
它与其他分类器对比的优缺点,它的速度
-
机器学习有很多关于核函数的说法,核函数的定义和作用是什么?https://www.zhihu.com/question/24627666
-
支持向量机(SVM)是否适合大规模数据?https://www.zhihu.com/question/19591450
-
SVM和逻辑斯特回归对同一样本A进行训练,如果某类中增加一些数据点,那么原来的决策边界分别会怎么变化?https://www.zhihu.com/question/30123068
-
各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型。https://www.zhihu.com/question/26726794
-
Linear SVM 和 LR 有什么异同?https://www.zhihu.com/question/26768865
-
LR
-
LR推导(伯努利过程,极大似然,损失函数,梯度下降)有没有最优解?
-
LR可以用核么?可以怎么用?l1和l2正则项是啥?lr加l1还是l2好?加哪个可以用核(加l2正则项,和svm类似,加l2正则项可以用核方便处理)
-
LR可以用来处理非线性问题么?(还是lr啊 只不过是加了核的lr 这里加核是显式地把特征映射到高维 然后再做lr)怎么做?可以像SVM那样么?为什么?
-
为什么LR需要归一化或者取对数,为什么LR把特征离散化后效果更好,为什么把特征组合之后还能提升,反正这些基本都是增强了特征的表达能力,或者说更容易线性可分吧
-
美团技术团队《Logistic Regression 模型简介》https://tech.meituan.com/intro_to_logistic_regression.html
-
SVM和logistic回归分别在什么情况下使用?https://www.zhihu.com/question/21704547
-
逻辑斯蒂回归能否解决非线性分类问题?https://www.zhihu.com/question/29385169
-
为什么LR可以用来做CTR预估?https://www.zhihu.com/question/23652394
-
逻辑回归估计参数时的目标函数 (就是极大似然估计那部分),逻辑回归估计参数时的目标函数 (呵呵,第二次) 逻辑回归估计参数时的目标函数 如果加上一个先验的服从高斯分布的假设,会是什么样(天啦。我不知道,其实就是在后面乘一个东西,取log后就变成加一个东西,实际就变成一个正则项)
-
逻辑回归估计参数时的目标函数逻辑回归的值表示概率吗?(值越大可能性越高,但不能说是概率)
-
手推逻辑回归目标函数,正类是1,反类是-1,这里挖了个小坑,一般都是正例是1,反例是0的,他写的时候我就注意到这个坑了,然而写的太快又给忘了,衰,后来他提醒了一下,改了过来,就是极大似然函数的指数不一样,然后说我这里的面试就到这了。
-
看没看过scikit-learn源码LR的实现?(回头看了一下是调用的liblinear,囧)
-
为什么LR需要归一化或者取对数,为什么LR把特征离散化后效果更好,为什么把特征组合之后还能提升,反正这些基本都是增强了特征的表达能力,或者说更容易线性可分吧
-
naive bayes和logistic regression的区别http://m.blog.csdn.net/blog/muye5/19409615
-
LR为什么用sigmoid函数。这个函数有什么优点和缺点?为什么不用其他函数?sigmoid函数由那个指数族分布,加上二项分布导出来的。损失函数是由最大似然估计求出的。
-
了解其他的分类模型吗,问LR缺点,LR怎么推导(当时我真没准备好,写不出来)写LR目标函数,目标函数怎么求最优解(也不会)讲讲LR的梯度下降,梯度下降有哪几种,逻辑函数是啥
-
L1和L2
-
L2正则化,为什么L2正则化可以防止过拟合?L1正则化是啥?
-
深度学习里面怎么防止过拟合?(data aug;dropout;multi-task learning)如何防止过拟合,我跟他列举了4中主要防止过拟合方法:Early Stopping、数据集扩充、正则化法以及dropout,还详细跟他说了每种方法原理及使用的场景,并解释我在哪些项目里具体用到了这些方法,
-
机器学习中使用「正则化来防止过拟合」到底是一个什么原理?为什么正则化项就可以防止过拟合?https://www.zhihu.com/question/20700829
-
机器学习中常常提到的正则化到底是什么意思?https://www.zhihu.com/question/20924039
-
什么是正则项,L1范式,L2范式区别是什么,各自用在什么地方?L1 与 L2 的区别以及如何解决 L1 求导困难;
-
L1正则为什么能让系数变为0?L1正则怎么处理0点不可导的情形?(这个谁会?近端梯度下降)
-
L0,L1,L2正则化(如果能推导绝对是加分项,一般人最多能画个等高线,L0是NP问题)其实上面的这些问题基本都能在《李航:统计学习方法》《周志华:机器学习》里面找到,能翻个4,5遍基本就无压力了
-
避免过拟合策略、如何提高模型泛化能力、L1与L2正则区别,优缺点、生成式,判别式模型、深度学习这块了解多少、
-
如何克服过拟合,欠拟合
-
L1 与 L2 的区别以及如何解决 L1 求导困难;
-
L1正则为什么可以把系数压缩成0,坐标下降法的具体实现细节
-
为什么L1正则可以实现参数稀疏,而L2正则不可以?为什么L1很多系数可以被压缩为0,L2是被压缩至接近于0?
-
树模型
-
rf , gbdt 的区别; gbdt , xgboost 的区别(烂大街的问题最好从底层原理去分析回答)
-
介绍决策树,谈了3种决策树及其区别和适应场景
-
决策树处理连续值的方法;简单介绍决策树几种算法,有什么区别?
-
决策树基本模型介绍?决策树算法中缺失值怎么处理?决策树算法在应用中有什么值得注意的地方。SVM、LR、决策树的对比?GBDT 和 决策森林 的区别?决策树的特性?(3 )决策树处理连续值的方法;
-
解释下随机森林和gbdt的区别。gbdt的boosting体现在哪里。解释下随机森林节点的分裂策略,以及它和gbdt做分类有什么区别?哪个效果更好些?为什么?哪个更容易过拟合?为什么? 问了随机森林的损失函数,和lr的优缺点对比, adaboost和随机森林的比较,为了防止随机森林过拟合可以怎么做,是否用过随机森林,怎么用的。
-
随机森林和GBDT的区别?CART(回归树用平方误差最小化准则,分类树用基尼指数最小化准则)
-
GBDT(利用损失函数的负梯度在当前模型的值作为回归问题提升树算法中的残差的近似值,拟合一个回归树)
-
随机森林(Bagging+CART)
-
SVM与随机森林比较
-
改变随机森林的训练样本数据量,是否会影响到随机森林学习到的模型的复杂度
-
Logistics与随机森林比较
-
GBDT与随机森林比较随机森林的学习过程;随机森林中的每一棵树是如何学习的;随机森林学习算法中CART树的基尼指数是什么?
-
RF 与 GBDT 区别,原理优缺点适用场景分析,哪个具备交叉验证功能等
-
接着写一下信息增益的公式。之后就是问机器学习相关算法,说了一下bagging跟boosting,之后问了GBDT(没做过,只能说说大体思路)。(2 ) rf , gbdt 的区别; gbdt , xgboost 的区别;
-
说说xgboost、gbdt区别、Tree-based Model如何处理连续型特征。
-
让我把一个完整的数据挖掘流程讲一下,从预处理,特征工程,到模型融合。介绍常用的算法,gbdt和xgboost区别,具体怎么做预处理,特征工程,模型融合常用方式,融合一定会提升吗?
-
gbdt树根据什么分裂(瞎扯的梯度近似残差、梯度下降方向,其实还是信息增益这种东西)
-
gbdt怎么并发(特征选择层面,树层面不能并发)
-
介绍LR、RF、GBDT ,分析它们的优缺点,是否写过它们的分布式代码
-
XGB和GBDT区别与联系也会经常问到:https://www.zhihu.com/question/41354392/answer/128008021?group_id=773629156532445184
-
CART(回归树用平方误差最小化准则,分类树用基尼指数最小化准则)、Logistics(推导)、GBDT(利用损失函数的负梯度在当前模型的值作为回归问题提升树算法中的残差的近似值,拟合一个回归树)
-
在面试过程中主动引导面试官提问,比如面试官让你讲解 gbdt 原理时,这会你可以跟他说,一般说起 gbdt ,我们都会跟 rf 以及 xgboost 一块讲,然后你就可以主动地向面试官输出你的知识;面试并不是死板地你问我答,而是一种沟通交流,所以尽可能地把面试转化成聊天式的对话,多输出自己一些有价值的观点而不是仅仅为了回答面试官的问题;
-
几种树模型的原理和对比,
-
特征选取怎么选? 为什么信息增益可以用来选特征?
-
信息熵和基尼指数的关系(信息熵在x=1处一阶泰勒展开就是基尼指数)
-
介绍xgboost一下。写下xgboost目标函数。(因为我提到xgboost在目标函数里显式地加入了正则项..血雪崩)怎么调整XGB参数;xgboost原理
-
K-means
-
k-means 聚类的原理以及缺点及对应的改进;kmeans 算法的优缺点。。。。
-
kmeans 的原理,优缺点以及改进;
-
em 与 kmeans 的关系;
-
kmeans 代码;
-
说说 Kmeans 算法, Kmeans 算法 K 怎么设置、适用什么样数据集、怎么评价 Kmeans 聚类结果、 Kmeans 有什么优缺点?你的项目中使用 Kmeans 遇到哪些问题,怎么解决的 ?
-
用 EM 算法推导解释 Kmeans。
-
KMeans的算法伪代码
-
如何判断自己实现的 LR、Kmeans 算法是否正确?
-
如何优化kmeans算法
-
如何用hadoop实现k-means
-
手写k-means的伪代码(就6行)
-
集成学习
-
bagging和boosting是怎么做的和他们的比较
-
详细讨论了样本采样和bagging的问题
-
聊的比较多的是如何知道一个特征的重要性,如何做ensemble哪些方法比较好。聊了聊计算广告方面FM,embedding。
-
常见融合框架原理,优缺点,bagging,stacking,boosting,为什么融合能提升效果
-
是否了解线性加权、bagging、boosting、cascade等模型融合方式
-
K-means起始点http://www.cnki.com.cn/Article/CJFDTotal-DNZS200832067.htm
-
贝叶斯
-
朴素贝叶斯分类器原理以及公式,出现估计概率值为 0 怎么处理(拉普拉斯平滑),缺点;
-
解释贝叶斯公式和朴素贝叶斯分类。
-
贝叶斯分类,这是一类分类方法,主要代表是朴素贝叶斯,朴素贝叶斯的原理,重点在假设各个属性类条件独立。然后能根据贝叶斯公式具体推导。考察给你一个问题,如何利用朴素贝叶斯分类去分类,比如:给你一个人的特征,判断是男是女,比如身高,体重,头发长度等特征的的数据,那么你要能推到这个过程。给出最后的分类器公式。
-
那你说说贝叶斯怎么分类啊?比如说看看今天天气怎么样?我:blabla,,,利用天气的历史数据,可以知道天气类型的先验分布,以及每种类型下特征数据(比如天气数据的特征:温度啊,湿度啊)的条件分布,这样我们根据贝叶斯公式就能求得天气类型的后验分布了。。。。面试官:en(估计也比较满意吧)那你了解关于求解模型的优化方法吗?一般用什么优化方法来解?
-
贝叶斯分类器的优化和特殊情况的处理
-
深度学习
-
解释一下CNN、介绍CNN、卷积公式,以及特点,假设面试官什么都不懂,详细解释 CNN 的原理;问CNN的细节特点,哪些特点使得CNN这么好用,哪些场景用CNN可以,抽象一下这些场景的特征,可以降采样但仍能保持主要信息;局部连接可以保证获取局部信息;权值共享保证高效,DNN和CNN相比有哪些区别,用过RNN么?画一下RNN的图,你在深度学习过程中遇到过哪些问题?如果出现过拟合你怎么办?dropout是什么?它有什么用?你会怎么用它?当全连接跟dropout连着用需要注意什么?你之前过拟合怎么解决的?如果本身training loss就很大你怎么办?如果数据不变,怎么调整网络结构解决这个问题?(batch normalization)梯度消失知道么?为什么会出现梯度消失?dnn和rnn中的梯度消失原理一样么?dnn中是哪个部分导致梯度消失?(激活层如sigmoid)rnn中怎么解决梯度消失问题?(lstm的结构相对普通RNN多了加和,为避免梯度消散提供了可能。线性自连接的memory是关键。)讲一下CNN吧,有哪些重要的特点?CNN可以处理哪些场景?为什么CNN要用权值共享?(每个卷积核相当于一个特征提取器,它的任务是匹配局部图像中的特征,权值共享后,匹配的特征方式都是一样的,提取若干特征后就知道学习的是啥了)CNN里面哪些层?讲一下卷积。卷积的形式是啥样?给定一个输入,算输出的feature map大小。卷积有啥用?池化有啥用?有哪些池化方式?池化除了降采样还有啥用?(就不知道了)还有哪些层你用过?讲讲dropout。dropout内部是怎么实现只让部分信号通过并不更新其余部分对于输入的权值的?讲讲BN(BatchNormalization)为什么好?全连接有什么用处?知道RNN么?讲讲RNN大致的实现思路。知道梯度消失么?为什么会出现梯度消失?RNN里的梯度消失一般怎么处理?细讲下lstm的结构,这样设计为什么好?(门关闭,当前信息不需要,只有历史依赖;门打开,历史和当前加权平均)你觉得梯度消失靠引入一些新的激活层可以完全解决么?为什么?
-
问了做的比赛里面使用tensorflow的细节,LSTM里调参的细节
-
用过哪些库或者工具,mkl,cuda这些会用吗?
-
有一个弱分类器和大量未被标记过的图像数据,如何人工标记图像来对分类器进行提升
-
介绍下RNN和它的优缺点
-
让我推导BP反向传播、随机梯度下降法权重更新公式
-
卷积神经网络结构特点、各参数对模型结果影响、项目进展遇到的难题、推导BP神经网络参数更新方式、随机梯度下降法(SGD)优化函数存在的缺点以及拟牛顿法在优化函数使用上更有优势、修改Caffe开源框架、开源社区代码贡献量就跟我聊了很多行业发展趋势及问题,知道目前深度学习的一个趋势,也了解到最新行业发展动态,改进相机智能化程度,也聊到了美颜相机美颜效果以及小米相机人脸分类、年龄检测等等不足之处,了解到新兴行业大佬商汤科技和旷视科技(face++脸草)在研究的热门方向
-
看到有deep learning相关的项目,就问了deep learning 相关问题:如何减少参数(权值共享、VGG的感受野、GoogLeNet的inception ),激活函数的选择(sigmoid->ReLu->LReLU->PReLU ),为什么之前没有深度网络出现(数据量不够+机器性能),由数据引申到数据不平衡怎么处理(10W正例,1W负例,牛客上有原题),
-
后面问了下DNN原理,应用,瞎扯一通……
-
你了解神经网络吗?我:了解一些,讲感知机,然后是BP网络。简单讲了一下原理。
-
图像处理题:如何找相似图片。我说用感知哈希算法,计算汉明距离,他说这种方法精度不行;我说那就用SIFT算法吧,他说SIFT效果还可以,但计算有点繁重,有没有轻量级的方法?我想起来去年在美图秀秀实习时,曾经做过一种图像滤波算法,有一步是把像素点用K-means聚类。我就说先把图片灰度化,然后用K-means聚类,把聚类后的各个中心点作为一张图片的特征向量如果两张图片的特征向量相近则说明这两张图片相似。貌似我这个答案有点出乎他的意料,他意味深长地说了个“行吧~~~~”(个人觉得颜色直方图匹配是个他期待的常规回答)
-
介绍卷积神经网络,和 DBN 有什么区别?
-
Deep CNN, Deep RNN, RBM的典型应用与局限,看Hinton讲义和Paper去吧
-
神经网络,plsi的推导
-
验证码图片的去噪和提取字符
-
有限状态自动机,然后要我画状态转移图.
-
聚类
-
用过哪些聚类算法,解释密度聚类算法。
-
聚类算法中的距离度量有哪些?
-
优化
-
梯度下降的优缺点;主要问最优化方面的知识,梯度下降法的原理以及各个变种(批量梯度下降,随机梯度下降法, mini 梯度下降法),以及这几个方法会不会有局部最优问题,牛顿法原理和适用场景,有什么缺点,如何改进(拟牛顿法)
-
常用优化算法:1.梯度下降法:又有随机梯度下降和负梯度下降,2.牛顿法 主要是问了各自的优缺点,速度,能不能得到全局最优解,牛顿法的二次收敛等
-
问你如果有若干个极小值点,如何避免陷入局部最优解。
-
它们间的牛顿学习法、SGD如何训练,
-
如何判断函数凸或非凸?
-
线性回归的梯度下降和牛顿法求解公式的推导
-
最速下降法和共轭梯度法 wolfe条件 最速下降法和共轭梯度法的收敛速度如何判断
-
深刻理解常用的优化方法:梯度下降、牛顿法、各种随机搜索算法(基因、蚁群等等),深刻理解的意思是你要知道梯度下降是用平面来逼近局部,牛顿法是用曲面逼近局部等等。
网友评论