美文网首页统计学呆鸟的Python数据分析
[说人话的统计学·协和八]第一章 高屋建瓴看统计

[说人话的统计学·协和八]第一章 高屋建瓴看统计

作者: 小枫安 | 来源:发表于2019-01-18 16:56 被阅读5次

    注:说人话的统计学系列原连载于协和八微信公众号。本文为笔者的学习笔记,每篇文章标题已加入原文超链接。如侵权请告知。

    第 1 章 高屋建瓴看统计

    01 你真的懂p值吗? | 说人话的统计学·协和八

    p值就是在假定我们希望检验的效应并不存在(即「原假设成立」)的前提下,收集到了与我们所得到的结果相同或更极端的数据的概率。

    p值不是原假设为真的概率,也不是备选假设为假的概率

    p值只描述样本与原假设的相悖程度,原假设的真与假是我们以此为根据做出的一个判断。p值并不能描述原假设和备选假设本身为真的概率。

    p值并不能代表你所发现的效应(或差异)的大小

    p值只关心数据与原假设之间有多不一致。但是,如果某种效应或差异存在,p值并不能准确地告诉我们效应的大小,更不能告诉我们这效应是否具有实际意义。

    为什么是0.05?

    费希尔老爷子随口一说

    02 做统计,多少数据才算够?(上)| 说人话的统计学·协和八

    利用统计功效(statistical power)进行数据量的估计,称为功效分析 (power analysis)
    第一类错误 原假设其实为真时错误地拒绝了它
    第二类错误 原假设其实为假时错误的接受了它
    希腊字母⍺和β来代表犯第一类和第二类错误的概率
    1-β正是统计功效
    统计功效(statistical power) 如果我们感兴趣的效应或差异的确存在,在给定的显著性水平的规定下,我们能够正确地拒绝原假设的概率。

    • 效应的大小ES(即故事中被寻找的东西的大小)
    • 数据或样本量的多少N(即故事中格格巫找东西的时间)
    • 显著性水平⍺(即故事中宿舍有多乱)

    03 做统计,多少数据才算够?(下)| 说人话的统计学·协和八

    显著性水平⍺
    如果p值小于我们事先规定的⍺,则称结果显著,拒绝原假设;如果p值大于⍺,则结果不显著,不能拒绝原假设。
    ⍺也是在大量重复实验时我们能承受的第一类错误的概率的上限
    把统计功效设定在0.8到0.9之间
    相比起“放过”(第二类错误),人们更不希望“杀错”(第一类错误)。
    使用GPower进行统计功效分析*
    在统计功效不变时,效应大小越大,所需样本量越小;而在效应大小不变时,统计功效越高,所需样本量越大。

    04 提升统计功效,让评审心服口服!| 说人话的统计学·协和八

    统计功效由三要素决定:
    数据量、显著性水平、效应大小(效果量)。

    增加数据量

    增加比较容易获得的组别的样本量
    尽可能减少数据的损失

    放宽显著性水平的要求

    报告p值在0.05和0.1之间的结果
    使用单侧检验
    选用单侧检验的效果实际上是使p值减半,从而一部分在双侧检验下不显著的结果在单侧检验时就变得显著了.

    增强效应大小(效果量)

    加大干预的强度
    对极端群体作比较
    引进控制变量(control variables/covariates)
    采用重复测量(repeated measures)
    或组内(within-subjects)设计

    05 你的科研成果都是真的吗? | 说人话的统计学·协和八

    尽管通过控制显著性水平⍺,我们犯第一类错误的概率并不大,但是因为白格子实在很多,总数乘以⍺得到的数值(假阳性发现的数量)依然不小。
    而对于那5个白格子,即使我们有比较高的统计功效1-β,能够正确识别出它们中的大多数,但是这几个货真价实的”李逵“还是淹没在一大堆”李鬼“里头了。
    显著性和统计功效这两大支柱缺一不可!
    忽略了事件自身的小概率特性而错误地将显著的结果认为是事件发生的证据,这在统计学上称为基数谬误(baserate fallacy)

    06 见识数据分析的「独孤九剑」 | 说人话的统计学·协和八

    贝叶斯统计学
    贝叶斯定理是一条关于条件概率的定理
    条件概率指的是,在某件事情A发生的前提下,另一件事情B发生的概率,用P(B | A)表示(注意在竖线后面的是条件,前面的是我们感兴趣的事件)

    在这个假说成立的前提下产生这么一个现象的可能性P(现象 | 假说),或者说是现象有多符合假说的预测P(假说),我们称为“似然”(likelihood)
    这个假说本身成立的可能性大小,由于这是对观察到现象之前来说的,因此我们称为“先验概率”(prior probability)
    在万事万物中出现这一现象本身的可能性P(现象),我们称为“证据”(evidence)

    07 妈妈说答对的童鞋才能中奖 | 说人话的统计学·协和八

    假设你经过多年潜心研究,发明了一种聪明药。
    你招募了两组受试者进行双盲试验:你给其中一组服用你的聪明药,另外一组服用安慰剂维生素C片,然后让两组受试者进行智力测验。
    经过两组的平均智力测验分数的比较后,你获得了0.01的p值——
    也就是说,两组的智力测验得分具有统计学意义上显著的差异。
    根据以上信息,选出以下你认为错误的陈述(可能不止一个):

    1. 原假设(“两组的平均得分之间没有差别”)绝对是错误的;
    2. 原假设(“两组的平均得分之间没有差别”)有1%的可能性是真的;
    3. 备选假设(“两组的平均得分之间存在差别”)绝对是正确的;
    4. 根据上述信息可以算出备选假设为真的概率;
    5. 我们错误地拒绝原假设的概率是1%;
    6. 如果同样的实验重复很多遍,其中将有99%的实验获得统计学意义上显著的结果;
    7. 如果同样的实验重复很多遍,其中将有1%的实验获得统计学意义上显著的结果;
    8. 我们完全由于随机因素而得到这一结果的概率是1%;
    9. 这一实验的统计功效是1-0.01=0.99。

    08 统计学的十个误区,你答对了吗? | 说人话的统计学·协和八

    1. 如果同样的实验重复很多遍,其中将有99%的实验获得统计学意义上显著的结果。
      ——错误。
      p值与统计结果的可重复性没有关系。统计结果的可重复性依然取决于原假设为真的概率,但我们不能从p值中推出这个概率。

    09 贝叶斯vs频率派:武功到底哪家强?| 说人话的统计学·协和八

    贝叶斯定理

    我们做数据分析,绝大多数情况下希望得到的是关于某种假说是否成立的信息。等式左边的P(参数 | 数据),正是在观察到了手头上的数据的前提下,假说成立的概率。
    P(参数)P(参数 | 数据)分别叫做先验概率后验概率
    贝叶斯定理其实就是告诉我们,怎样根据观察到的数据来更新我们的先验概率,从而获得对假说的新看法——后验概率

    原假设的后验概率与p值和它的先验概率的乘积成正比。

    如果备选假设的先验概率很小,即便我们获得了基于原假设的很小的p值,也只不过把备选假设的后验概率提高了一点点而已;如果备选假设的先验概率本来就大,那么很小的p值则会进一步增大备选假设成立的概率。

    什么是概率?

    频率学派说,我们只相信客观的、能测量的东西,因此我们认为,概率是频率在无限多次重复试验时的极限值。
    贝叶斯学派认为,所谓概率,只不过是我们思想中对事情发生可能性的一种猜测与信念。

    贝叶斯统计学曾经面临两个很大的困难

    • 分母P(数据)我们一直没怎么讲过,它指的就是观察到所得数据的概率。

    推广到普遍情况,我们要把P(数据)重新拆分成许多个P(数据 | 参数k)*P(参数k),其中参数k要取遍所有可能的情况,然后再把它们全部加起来。如果参数可以在一个连续范围内取值,那么求和就变成了积分

    ∫P(数据 | 参数)P(参数)d参数

    了。我们之前还说过,实际应用中经常遇到有成百上千个参数的情况,那么P(数据)就变成极其复杂的多重积分了。这一直到近年都是算不出来的。
    Markov Chain Monte Carlo(马尔可夫链蒙特卡洛)方法

    • 先验概率对结果有着相当大的影响。
    1. 使用尽量客观的方法设定先验概率
    2. 使用“弱信息”或“无信息”先验

    相关文章

      网友评论

        本文标题:[说人话的统计学·协和八]第一章 高屋建瓴看统计

        本文链接:https://www.haomeiwen.com/subject/rcnndqtx.html