美文网首页因果推断推荐工具箱
因果推断推荐系统工具箱 - NCIS(三)

因果推断推荐系统工具箱 - NCIS(三)

作者: processor4d | 来源:发表于2021-12-23 13:03 被阅读0次

    文章名称

    【WSDM-2020】【Criteo Research】Offline A/B testing for Recommender Systems

    核心要点

    文章旨在构造实际可用的推荐模型离线评估器,实现没有线上AB实验的情况下,评估目标模型相对线上模型的潜在提升,快速迭代原型,筛选策略。作者提出了两个capped importance sampling[1]的两个变种,解决capped importance sampling假设过于不切实际的问题,并避免Basic Importance Sampling[3,4]与Doubly Robust[2]方法高方差的风险。

    上一节介绍了DR,NIS,capping IS方法的问题,本节继续介绍capping IS的阈值选取以及度作者的启发。并介绍作者提出的NCIS方法。

    方法细节

    问题引入

    在实际应用中,几乎没有很好的上限参数c,能够产生足够小的置信区间,使得CIS可以准确判断\pi_t是否优于\pi_p。参数c本质上是Bias-Variance trade-off,但是过高的参数c,可能导致Bias-Variance trade-off失效(参见上节)。因此,实际应用中会采用比较严格的参数c

    作者进行了线上实验,来判断到底选取怎样的c,能够尽可能的达到偏差-方差最优。下图展示了重要性采样权重的分布情况,横轴表示重要性权重,纵轴是该权重下的密度(每一个点代表一个样本的权重)。三条不同颜色的线分别表示不同的(密度)分位数。样本采样自\pi_t具有80%置信度优于\pi_p的权重。

    distribution of the importance sampling weights

    下图展示了不同参数c的情况下,对\pi_t收益估计的方差和偏差。红线是指标曲线,蓝色线为检测敏感度的阈值,例如,1%的提升。可以看出,在任意的一个指标(偏差或者方差)上,可以选择最优的参数c,使得测到的结果是置信的,但是无法同时满足两个指标都置信。方差的最优参数c = 10^2,偏差的最优参数c = 10^23基于这个结果作者提出设计新的估计器来估计参数c引入的偏差,来实现更好的偏差-方差权衡

    具体做法

    Control Variates

    作者利用模型估计不同参数c引入的偏差,并基于NCIS,在不同上下文场景下利用不同的参数c进行对新策略\pi_t进行收益估计。

    NCIS

    NCIS[5]的具体计算公式如下图所示,其中\overline{w}(a, x) = \mathbb{1}_{w(a,x) < c}w(a, x)\ or\ min(w(a,x), c)是上界所说的capped weighting。

    Normalised Capped Importance Sampling

    这个公式表明,NCIS在计算一个重新调整后的期望收益,它正比于截断参数的概率密度。

    接下来,我们看一下,NCIS是如何估计参数c引入的偏差的。其渐进偏差如下图所示,具体证明参见原文附录。

    asymptotically bias of NCIS

    回顾一下CIS的偏差\mathcal{B}^{CIS}(\pi_t, c),NCIS不是需要强制偏差为0,而是通过非截断的估计近似截断估计值。

    capping bias

    在zero capping的场景下,NCIS的估计更为直觉。可以看出期望的估计是和动作A以及X都有关系的。

    NCIS approximation in zero capping

    当收益R独立于上下文X和动作A时,收益R可以被认为独立于权重W。在这种情况下,可以认为估计是准确的。当噪声较大时,可以认为期望的近似估计是准确的。因为在这种情况下,RXAs的相关性很低。但是在实际场景中,这种条件仍然不能被满足。

    local bias modelling

    NCIS通过调整权重来弥补参数c带来的偏差,然而这种补偿是全局的,数据中却存在不同的子组,具有不同的平均收益,例如不同的用户群体在相同策略下有不同的平均收益,导致用统一的比例调整权重来弥补参数c带来的偏差,不奏效。

    重写上述公式2,可以得到NCIS的bias,如下图所示。上述讨论的非全局调整,意味着\overline{W}/W可能和其他confounder有关系,例如,用户类型。

    rewritten bias of NCIS

    因此,作者重写NCIS的偏差为如下图所示的公式,可以看出,公式中偏差是基于用户特征X的,并且该偏差主要受分子的第一部分影响。推荐系统一般是基于用户原有的历史意图来对用户进行推荐,因此,可以认为XR的相关性较大。从这个角度出发,作者提出了新的非全局补偿的NCIS。

    ![refine bias of NCIS] image.png

    心得体会

    全局补偿

    感觉公式比较多,主要是表达,现有的NCIS方法,在进行权重调整的时候,没有把用户相关的影响因素考虑进去,导致偏差大,因此,需要结合用户特征X来进行权重调整。

    文章引用

    [1] Léon Bottou and Jonas Peters. 2013. Counterfactual reasoning and learning systems: the example of computational advertising. Proceedings of Journal of Machine Learning Research (JMLR).

    [2] Miroslav Dudik, John Langford, and Lihong Li. 2011. Doubly robust policy evaluation and learning. Proceedings of the 28th International Conference on Machine Learning (ICML).

    [3] JM Hammersley and DC Handscomb. 1964. Monte Carlo Methods. Chapter.

    [4] Daniel G Horvitz and Donovan J Thompson. 1952. A generalization of sampling without replacement from a finite universe. Journal of the American statistical Association.

    [5] AdithSwaminathanandThorstenJoachims.2015.TheSelf-NormalizedEstimator for Counterfactual Learning. Proceeding of Neural Information Processing Systems (NIPS).

    相关文章

      网友评论

        本文标题:因果推断推荐系统工具箱 - NCIS(三)

        本文链接:https://www.haomeiwen.com/subject/psuhqrtx.html