LR | Logic Regression | 逻辑回归
Y = ax1 + bx2 + cx3 + dx4 ...
- 针对召回算法返回的数据,进行二次精排,可以看做是对点击率的预估;
- x1,x2,... 可以理解成特征值,比如用户的年龄,用户的性别,门店的类别,门店的价格等;
- a,b,... 是每个特征值的权重;
- Y 介于 0 和 1 之间,越接近 1,越可能被点中了,越趋近 0,被点击的概率就越小;
- 对于学习也是一样,对于已经存在的数据,x1, x2, ... 已经存在了,并且 Y 是固定的,要么是被点击的正样本,要么是没被点击的负样本,有了正负样本之后,就可以做逻辑回归,算出 a, b, c, d,得出拟合公式,就是一条直线;在线之上的就是正样本(被点击的),在线之下就是负样本(没被点击的);
- 在做模型预测的时候,对于新进来的点(一个门店),将其 x 值输入进去,然后判断点是在直线的上方,还是线的下方,如果在线的下方,就可以认为这个门店不被点击,其排序的权重就比较小,如果在线的上方,Y 的值就会比较大,比如 0.99,其排序的权重就更靠前;
网友评论