问题:
- 反向传播调整隐藏层的权重,并且更新特征的 embedding??How??
- L1 正则化,能够很快收敛到有效的特征组合中。
- wide and deep 模型的核心思想是结合线性模型的记忆能力(memorization)和 DNN 模型的泛化能力(generalization),在训练过程中同时优化 2 个模型的参数,从而达到整体模型的预测能力最优。
- wide 端对应的是线性模型,输入特征可以是连续特征,也可以是稀疏的离散特征,离散特征之间进行交叉后可以构成更高维的离散特征。线性模型训练中通过 L1 正则化,能够很快收敛到有效的特征组合中。
- deep 端对应的是 DNN 模型,每个特征对应一个低维的实数向量,我们称之为特征的 embedding。DNN 模型通过反向传播调整隐藏层的权重,并且更新特征的 embedding。wide and deep 整个模型的输出是线性模型输出与 DNN 模型输出的叠加。
- 模型训练采用的是联合训练(joint training),模型的训练误差会同时反馈到线性模型和 DNN 模型中进行参数更新。
wide 端模型通过离散特征的交叉组合进行 memorization,deep 端模型通过特征的 embedding 进行 generalization;
image.png
image.png
- feature columns:
tf.contrib.layers.
sparse_column_with_XXX # 构建低维离散特征
.crossed_column #构建离散特征的组合
.real_valued_column #构建连续型实数特征
.embedding_column #构建 embedding 特征
sparse_feature_a_emb = embedding_column(sparse_id_column=sparse_fea



graph summary;是啥呢
servable实例是啥呢
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
网友评论