美文网首页
Netflix是如何做决策的? | 3. A/B测试结果之假阳

Netflix是如何做决策的? | 3. A/B测试结果之假阳

作者: DeepNoMind | 来源:发表于2022-02-04 09:28 被阅读0次

    这是Netflix关于实验和决策的系列文章,系统介绍了实验对于Netflix的重要性,实验的最主要工具--A/B测试,数据科学和文化在实验与决策过程中的重要性等。整个系列共七篇文章,这是第三篇。原文:Interpreting A/B test results: false positives and statistical significance[1]

    1. Netflix的决策制定
    2. 什么是A/B测试?
    3. A/B测试结果之假阳性和统计显著性👈
    4. A/B测试结果之假阴性和统计功效
    5. 在做决定时建立信心
    6. 实验是数据科学的主要关注点
    7. 学习的文化

    这是关于Netflix如何基于A/B测试来做出决策并不断创新产品的系列文章的第三篇。想看前面的文章?参见第一部分(Netflix的决策制定)第二部分(什么是A/B测试?)。接下来的文章将详细介绍Netflix的实验,Netflix是如何投资基础设施来支持和扩大实验的,以及Netflix的实验文化的重要性。

    第二部分:什么是A/B测试中,我们谈到了测试Netflix上的Top 10列表,以及测试的主要决策指标是如何衡量用户对Netflix的满意度。如果这样的测试显示主要决策指标在统计上有显著的改善,那么该功能就很有可能向我们所有会员推广。但是,考虑到测试的结果,我们如何知道是否做出了正确的决定?重要的是要承认,没有一种决策方法可以完全消除不确定性和犯错的可能。使用基于假设生成、A/B测试和统计分析的框架,我们可以仔细量化不确定性,并理解犯不同类型错误的概率。

    根据测试结果行事时,我们可能会犯两类错误。假阳性(false positive,也称为第一类错误)发生在测试数据表明控制组和测试组之间具有有意义的差异,但实际上并没有差异。这种情况就像当你身体健康时,体检结果却呈阳性一样。我们在决定测试结果时可能犯的另一个错误是假阴性(false negative,也称为第二类错误),当数据没有表明测试组和对照组之间存在有意义的差异时,就会发生这种错误,但实际上是有差异的。这种情况就像医学测试结果为阴性,但实际上你确实患有检测的疾病。

    作为建立直觉的另一种方式,考虑一下互联网和机器学习存在的真正原因:如果图片显示的是猫,就给它贴上“猫”的标签。对于给定的图像,有两个可能的决定(应用“猫”或“不是猫”的标签),同样也有两个可能的事实(图像要么有猫,要么没有猫)。这将导致总共四种可能的结果,如图1所示。同样的道理也适用于A/B测试:我们基于数据做出了两个可能的决定(“足够的证据得出结论,Top 10使会员满意”或“证据不足”),有两个我们完全不确定的可能的事实(“Top 10真正使会员满意”或者“Top 10没有使会员满意”)。

    图1:标记图像是否为“猫”的四种可能结果

    关于假阳性和假阴性,令人不安的事实是,我们无法让它们同时消失。事实上,这是一种权衡。将实验设计成假阳性率极低必然会增加假阴性率,反之亦然。在实践中,我们的目标是量化、理解和控制这两个误差来源。

    接下来,我们将使用简单的例子来建立关于假阳性和相关统计概念的直观感觉,在本系列的下一篇文章中,我们将对假阴性做同样的处理。

    假阳性和显著性统计(False positives and statistical significance)

    有了良好的假设和对主要决策指标的清晰理解,是时候转向设计A/B测试的统计方面了。这个过程通常从确定可接受的假阳性率开始。按照惯例,这种假阳性率通常设置为5%:对于测试组和对照组之间没有显著差异的测试,我们会错误的得出5%的“统计显著”差异,在5%的假阳性率下进行的测试被称为在5%的显著性水平下进行。

    使用5%的显著性水平惯例会让人感觉不舒服。通过遵循这一惯例,我们接受了这样一个事实,即当测试组和控制组的数据对我们的成员来说并没有明显的不同时,我们犯错误的几率为5%。也就是说,我们有5%的可能把不是猫的照片标记为猫。

    假阳性率与观察到的测试组和对照组之间度量值差异的“显著性统计”密切相关,我们使用p值[2]来衡量。p值是我们A/B测试出现极端结果的概率,判断是否测试组和对照组的真的没有区别。一个多世纪以来,统计学专业的学生对统计学的重要性和p值一直感到困惑,而理解这一点的一种直观方式就是通过简单的概率游戏,我们可以计算并可视化所有相关的概率。

    图2:思考简单的机会游戏,比如像这张展示凯撒大帝的硬币,这是建立统计直觉的好方法

    假设我们想知道一枚硬币是否均匀,也就是说判断正面的概率是不是0.5(或50%)。这可能听起来像一个简单的场景,但其实和许多业务场景直接相关(包括Netflix),我们的目标是理解一个新的产品体验对用户活动产生影响的概率,这些活动可能是点击某个UI特性或者保留Netflix服务一个月。所以我们可以通过简单的硬币游戏直接理解A/B测试。

    为了判断硬币是否均匀,我们运行以下实验:将硬币抛100次,并计算结果为正面的比例。由于随机性或“噪音”,即使硬币是完全均匀的,我们也不会期望50次正面和50次反面——但与50次正面和50次反面的偏差有多大呢?什么时候我们有足够的证据来确定硬币实际上是均匀的这一基本论断?如果100次抛掷中有60次是正面,你愿意得出硬币不均匀的结论吗?70次呢?我们需要一种方法来调整决策框架并理解相关的误报率。

    为了建立直观感受,我们来做一个思维练习。首先,我们假设硬币是均匀的——这就是我们的“零假设(null hypothesis)”,它总是表示现状或平等。然后,我们从数据中寻找反对这一零假设的有力证据。为了决定什么是令人信服的证据,我们计算了每一个可能结果的概率,并假设零假设是正确的。对于抛硬币的例子,这是100次抛硬币得到0个正面,1个正面,2个正面,等等,直到100个正面的概率(假设硬币是均匀的)。跳过数学,图3中的每一种可能结果及其相关概率都用黑色和蓝色条表示(暂时忽略颜色)。

    然后我们可以在硬币是均匀的这个假设前提下计算结果的概率分布,与我们收集的数据进行比较。假设我们观察到100次抛掷中55%是正面(图3中红色实线)。为了量化这一观察是否足以证明硬币是不均匀的,我们计算了每一个比我们观察到的可能性小的结果的概率。在这里,因为我们没有假设正面或反面更有可能,因此我们把超过55%为正面的概率累加起来(靠近右边的红线),把超过55%为负面的概率也累加起来(靠近左边的红线)。

    这是虚构的p值:在零假设成立的情况下,看到和我们观察到的结果一样极端的概率。在我们的例子中,零假设是硬币是均匀的,100次投掷中观察到55%是正面,p值约为0.32。解释如下:我们重复很多次抛一枚硬币100次的实验,并且计算正面的比例,如果硬币是均匀的(零假设是真的),有32%的试验结果将包括至少55%的正面或至少55%的反面(结果至少不像我们实际观察的那样)。

    图3:投掷一枚均匀硬币100次,每个结果的概率表示为正面的分数

    我们如何使用p值来决定是否有统计上显著的证据表明硬币是不均匀的?或者说我们的新产品的体验对现状有所改进?回到我们一开始同意接受的5%的假阳性率:我们得出的结论是,如果p值小于0.05,就会有统计上显著的影响。这就形成了一种直观感受,即如果我们的结果在一枚均匀硬币的假设下大概率不会发生,我们就应该拒绝零假设,即硬币是均匀的。在观察100次硬币投掷55次正面的例子中,我们计算出p值为0.32。因为p值大于0.05的显著性水平,我们得出结论,没有统计上显著的证据表明硬币是不均匀的。

    我们可以从实验或A/B测试中得出两个结论:要么得出有效的结论(“硬币是不均匀的”,“Top 10增加了会员的满意度”)或者得出这样的结论:没有足够证据可以得出有效的结论(“不能得出硬币是不均匀的,”“不能得出Top 10增加了会员满意度的结论”)。这很像陪审团审判,有两种可能的结果:“有罪”或“无罪”——“无罪”与“无辜”有很大的不同。同样地,这种A/B测试(概率主义[3])的方法也不能让我们得出没有影响的结论——我们从来不会得出硬币是均匀的,或者新产品的特性对我们的会员没有影响的结论。我们只是得出结论说,我们没有收集到足够的证据来拒绝没有差异的零假设。在上面的硬币例子中,我们观察到100次投掷中有55%的正面,并得出结论,我们没有足够的证据证明这枚硬币是不均匀的。关键是,我们并没有得出结论说硬币是均匀的——毕竟,如果我们收集到更多的证据,比如将同一枚硬币投掷1000次,我们可能会找到足够令人信服的证据来拒绝均匀的零假设。

    拒绝区域和置信区间(Rejection Regions and Confidence Intervals)

    在A/B测试中还有两个与p值密切相关的概念:测试的拒绝区域和观察的置信区间。我们将在本节中以上面的硬币例子为基础介绍这两个概念。

    拒绝区域。另一种为测试建立决策规则的方法是根据所谓的“拒绝区域”——我们可以得出硬币是不均匀的结论的一组值。为了计算拒绝区域,我们再次假设零假设是正确的(硬币是均匀的),然后将拒绝区域定义为概率之和不大于0.05的最不可能的结果集合。拒绝区域由最极端的结果组成,前提是零假设是正确的——也就是反对零假设的证据最强的结果。如果一个观察结果落在拒绝区域,我们就会得出结论,有统计上显著的证据表明这个硬币是不均匀的,并“拒绝”这个零假设。在简单硬币实验的情况下,拒绝区域对应观察到少于40%或超过60%的正面(如图3中的蓝色阴影条所示)。我们称拒绝区域的边界(这里的40%和60%的正面)为测试的临界值。

    拒绝区域与p值等价,两者可以导出相同的判断:当且仅当观察值位于拒绝区域时,p值小于0.05。

    置信区间。到目前为止,我们已经通过从零假设开始构建决策规则,零假设总是没有变化或等价的陈述(“硬币是公平的”或“产品创新不影响成员满意度”)。然后,我们在这个零假设下定义可能的结果,并将我们的观察结果与该分布进行比较。要理解置信区间,它有助于把问题转到观察上。然后,我们进行一个思考练习:根据观察结果,假设我们指定5%的假阳性率,什么样的值将导致零假设不被拒绝?在我们抛硬币的例子中,如果观察到100次抛硬币有55%正面,我们就不会拒绝对于硬币均匀的零假设。如果正面的概率是47.5%、50%或者60%,零假设也不会被拒绝。我们不拒绝零假设的概率范围是从45%到65%(图4)。

    这个值的范围就是置信区间:在零假设下的,来自测试的一组给定的数据,这组值不会导致拒绝。因为我们使用5%显著性水平的测试绘制了区间,所以我们创建了一个95%的置信区间。或者再解释一下,意思是在重复实验下,置信区间会覆盖95%的真实值(这里是硬币为正面的实际概率)。

    在置信区间和p值之间是等价的,两者可以导出相同的判断:当且仅当p值小于0.05时,95%置信区间不覆盖空值,在这两种情况下,我们拒绝无影响的零假设。

    图4:通过映射出一组值来构建置信区间,当用于定义一个空假设时,该值不会导致对给定观察结果的拒绝

    总结

    通过一系列基于抛硬币的思维练习,我们已经建立了关于假阳性、统计显著性和p值、拒绝区域、置信区间以及我们可以根据测试数据做出的两个决定的直观感受。这些核心概念和直观感受直接映射到比较A/B测试中的测试组和控制组数据中。我们定义了一个没有差异的“零假设”:“B”体验不会改变影响会员满意度。然后我们进行相同的思考实验:假设会员满意度没有差异,测试组和对照组之间度量值差异的可能结果和相关概率是什么?然后,我们可以将实验的观察结果与这个分布进行比较,就像硬币的例子一样,计算一个p值,并得出关于测试的结论,我们可以定义拒绝区域并计算置信区间。

    但假阳性只是我们根据测试结果可能犯的两个错误之一。在本系列的下一篇文章中,我们将讨论另一种类型的错误,假阴性,以及与统计功效密切相关的概念。

    References:
    [1] Interpreting A/B test results: false positives and statistical significance: https://netflixtechblog.com/interpreting-a-b-test-results-false-positives-and-statistical-significance-c1522d0db27a
    [2] The ASA Statement on p-Values: Context, Process,
    and Purpose: https://www.tandfonline.com/doi/pdf/10.1080/00031305.2016.1154108?needAccess=true
    [3] Frequentist Inference: https://en.wikipedia.org/wiki/Frequentist_inference

    你好,我是俞凡,在Motorola做过研发,现在在Mavenir做技术工作,对通信、网络、后端架构、云原生、DevOps、CICD、区块链、AI等技术始终保持着浓厚的兴趣,平时喜欢阅读、思考,相信持续学习、终身成长,欢迎一起交流学习。
    微信公众号:DeepNoMind

    相关文章

      网友评论

          本文标题:Netflix是如何做决策的? | 3. A/B测试结果之假阳

          本文链接:https://www.haomeiwen.com/subject/xnidkrtx.html