在模型训练过程中,对于sparse input的特征来说,每个特征值(feasign)出现的概率有高有低。对于高频的特征,其参数得到更新的几率较大,而低频特征更新几率较小。
使用出现次数作为其gradient scale参数,对高频特征进行打压:gradient = gradient / show。提升低频特征的预估拟合能力。
PS:当然,如果低频特征过多,会导致整个参数量过大。(特别是对于一些长尾分布的特征)参数量过大则容易造成过拟合,所以对这些低频特征也应当进行适当的削减。
在模型训练过程中,对于sparse input的特征来说,每个特征值(feasign)出现的概率有高有低。对于高频的特征,其参数得到更新的几率较大,而低频特征更新几率较小。
使用出现次数作为其gradient scale参数,对高频特征进行打压:gradient = gradient / show。提升低频特征的预估拟合能力。
PS:当然,如果低频特征过多,会导致整个参数量过大。(特别是对于一些长尾分布的特征)参数量过大则容易造成过拟合,所以对这些低频特征也应当进行适当的削减。
本文标题:深度学习中的特征工程-高频与长尾特征
本文链接:https://www.haomeiwen.com/subject/wbtsuqtx.html
网友评论