梯度消失原因
lstm为什么可以解决梯度消失
评价指标 auc ndcg mrr hr(hit rate)
rnn lstm gru的公式
怎么防止过拟合
parameter server的原理
model serving的主要方法
模型评估等知识的理解程度
embedding方法
attention机制 attention 公式
multi task
softmax函数的定义是什么?(知识)
神经网络为什么会产生梯度消失现象?(知识)
常见的激活函数有哪些?都有什么特点?(知识)
挑一种激活函数推导梯度下降的过程。(知识+逻辑)
Attention机制什么?(知识)
阿里是如何将attention机制引入推荐模型的?(知识+业务)
DIN是基于什么业务逻辑引入attention机制的?(业务)
DIN中将用户和商品进行了embedding,请讲清楚两项你知道的embedding方法。(知识)
你如何serving类似DIN这样的深度学习模型(工具+业务)
写出全概率公司和贝叶斯公式
模型训练为什么要引入偏差(bias)和方差(variance)
position embedding
写出attention公式
attention 里q k v分别代表什么
为什么self attention可替代seq2seq
NN,RNN,个别聚类算法,模型评估等知识的理解程度
spark的调优经验,model serving的主要方法,parameter server的原理
GAN,LSTM,online learning的基本理解
embedding方法,attention机制,multi task,reinforcement learning,online learning的基本理解
https://zhuanlan.zhihu.com/p/76827460
https://zhuanlan.zhihu.com/p/76827460
百面机器学习
网友评论