美文网首页因果推断推荐工具箱
因果推断推荐系统工具箱 - NCIS(三)

因果推断推荐系统工具箱 - NCIS(三)

作者: processor4d | 来源:发表于2021-12-23 13:03 被阅读0次

文章名称

【WSDM-2020】【Criteo Research】Offline A/B testing for Recommender Systems

核心要点

文章旨在构造实际可用的推荐模型离线评估器,实现没有线上AB实验的情况下,评估目标模型相对线上模型的潜在提升,快速迭代原型,筛选策略。作者提出了两个capped importance sampling[1]的两个变种,解决capped importance sampling假设过于不切实际的问题,并避免Basic Importance Sampling[3,4]与Doubly Robust[2]方法高方差的风险。

上一节介绍了DR,NIS,capping IS方法的问题,本节继续介绍capping IS的阈值选取以及度作者的启发。并介绍作者提出的NCIS方法。

方法细节

问题引入

在实际应用中,几乎没有很好的上限参数c,能够产生足够小的置信区间,使得CIS可以准确判断\pi_t是否优于\pi_p。参数c本质上是Bias-Variance trade-off,但是过高的参数c,可能导致Bias-Variance trade-off失效(参见上节)。因此,实际应用中会采用比较严格的参数c

作者进行了线上实验,来判断到底选取怎样的c,能够尽可能的达到偏差-方差最优。下图展示了重要性采样权重的分布情况,横轴表示重要性权重,纵轴是该权重下的密度(每一个点代表一个样本的权重)。三条不同颜色的线分别表示不同的(密度)分位数。样本采样自\pi_t具有80%置信度优于\pi_p的权重。

distribution of the importance sampling weights

下图展示了不同参数c的情况下,对\pi_t收益估计的方差和偏差。红线是指标曲线,蓝色线为检测敏感度的阈值,例如,1%的提升。可以看出,在任意的一个指标(偏差或者方差)上,可以选择最优的参数c,使得测到的结果是置信的,但是无法同时满足两个指标都置信。方差的最优参数c = 10^2,偏差的最优参数c = 10^23基于这个结果作者提出设计新的估计器来估计参数c引入的偏差,来实现更好的偏差-方差权衡

具体做法

Control Variates

作者利用模型估计不同参数c引入的偏差,并基于NCIS,在不同上下文场景下利用不同的参数c进行对新策略\pi_t进行收益估计。

NCIS

NCIS[5]的具体计算公式如下图所示,其中\overline{w}(a, x) = \mathbb{1}_{w(a,x) < c}w(a, x)\ or\ min(w(a,x), c)是上界所说的capped weighting。

Normalised Capped Importance Sampling

这个公式表明,NCIS在计算一个重新调整后的期望收益,它正比于截断参数的概率密度。

接下来,我们看一下,NCIS是如何估计参数c引入的偏差的。其渐进偏差如下图所示,具体证明参见原文附录。

asymptotically bias of NCIS

回顾一下CIS的偏差\mathcal{B}^{CIS}(\pi_t, c),NCIS不是需要强制偏差为0,而是通过非截断的估计近似截断估计值。

capping bias

在zero capping的场景下,NCIS的估计更为直觉。可以看出期望的估计是和动作A以及X都有关系的。

NCIS approximation in zero capping

当收益R独立于上下文X和动作A时,收益R可以被认为独立于权重W。在这种情况下,可以认为估计是准确的。当噪声较大时,可以认为期望的近似估计是准确的。因为在这种情况下,RXAs的相关性很低。但是在实际场景中,这种条件仍然不能被满足。

local bias modelling

NCIS通过调整权重来弥补参数c带来的偏差,然而这种补偿是全局的,数据中却存在不同的子组,具有不同的平均收益,例如不同的用户群体在相同策略下有不同的平均收益,导致用统一的比例调整权重来弥补参数c带来的偏差,不奏效。

重写上述公式2,可以得到NCIS的bias,如下图所示。上述讨论的非全局调整,意味着\overline{W}/W可能和其他confounder有关系,例如,用户类型。

rewritten bias of NCIS

因此,作者重写NCIS的偏差为如下图所示的公式,可以看出,公式中偏差是基于用户特征X的,并且该偏差主要受分子的第一部分影响。推荐系统一般是基于用户原有的历史意图来对用户进行推荐,因此,可以认为XR的相关性较大。从这个角度出发,作者提出了新的非全局补偿的NCIS。

![refine bias of NCIS] image.png

心得体会

全局补偿

感觉公式比较多,主要是表达,现有的NCIS方法,在进行权重调整的时候,没有把用户相关的影响因素考虑进去,导致偏差大,因此,需要结合用户特征X来进行权重调整。

文章引用

[1] Léon Bottou and Jonas Peters. 2013. Counterfactual reasoning and learning systems: the example of computational advertising. Proceedings of Journal of Machine Learning Research (JMLR).

[2] Miroslav Dudik, John Langford, and Lihong Li. 2011. Doubly robust policy evaluation and learning. Proceedings of the 28th International Conference on Machine Learning (ICML).

[3] JM Hammersley and DC Handscomb. 1964. Monte Carlo Methods. Chapter.

[4] Daniel G Horvitz and Donovan J Thompson. 1952. A generalization of sampling without replacement from a finite universe. Journal of the American statistical Association.

[5] AdithSwaminathanandThorstenJoachims.2015.TheSelf-NormalizedEstimator for Counterfactual Learning. Proceeding of Neural Information Processing Systems (NIPS).

相关文章

网友评论

    本文标题:因果推断推荐系统工具箱 - NCIS(三)

    本文链接:https://www.haomeiwen.com/subject/psuhqrtx.html