美文网首页
SPM的统计分析基础——GLM模型

SPM的统计分析基础——GLM模型

作者: Jack________ | 来源:发表于2020-04-27 22:08 被阅读0次

SPM的统计分析,操作相对简单,但其背后的原理却不容易。

image.png
                                    voxel-wise就是基于voxel水平的分析;ROI-wise是基于ROI水平分析

   在一系列的图像预处理之后,进入统计模型的建立及估计环节。 理论上,经过预处理的数据可以直接进行统汁分折,但是这样做会有很大的局限胜。我们需要考虑到实际信号(探测到的神经生理响应)包含有多方面的因素。如果我们可以把它分成感兴趣的部分、不感兴趣的部分以及误差项,这样以来,一方面可以用于复杂问题的研究,另一方面使有用信息更加突出。为了达到这个目的,SPM采用一般线性模型(GLM)对采集到的信号进行统计分析。

image.png
image.png

通俗的说,\color{red} {GLM基于这样一种假设}

  每个像素上的实验数据(用Y来表示,同一任务的时间序列或不同任务序列的),是一些未知参数(用x表示)的线性组合(用β表示未知参数x的系数)。这些未知参数与任务或时间有关、但与具体脑区(像素)无关的已知参数,它组成的矩阵通常又称为设计矩阵(\color{red}{Design matrix})。

  在经过GLM描述之后,分析的对象就发生了\color{red}{转变}。原本是对Y的统计分析,现在转向了拟合得到的β。SPM得到的脑功能激图实际上就是根据对参数β的统计推断而得到的。

\color{#4285f4}{对参数β的统计推断究竟是怎么一回事? }

  • 首先,是检查设计矩阵的正确性;
  • 其次,使用最小二乘法法拟合出参数β
  • 再次,对β系数做t检验或者F检验
  • 最后,根据t检验或者F检验统计量和阈值,对β系数做统计推断。

根据t或F值以及相应的阈值,可以得到该阈值对应置信度的脑功能激活图。由于它是对模型的参数做统计分析而得到的,所以被称为\color{red}{统计参数图}。与阈值对应的t或F值记为SPM{t},SPM{F}。

image.png

SPM还提供了与t或F值及它们相应的自由度所对应置信度的{0,1}正态分布的参数值z,这样也得到关于z图像,记为SPM{z}。此外,根据这些激活图,SPM还可以输出脑血流等生理信号的响应曲线以及不同状态的响应特性等。

t检验、F检验与β系数的关系 Null hypothesis:β=0.假定如果某一体素的检验结果达到显著性水平,我们有理由拒绝Null hypothesis。这就意味着这个点的β系数在组间存在异常差异,因此就表明该体素的实验数据Y值存在显著性差异。这里在逐个体素逐体素地进行t检验、方差分析等统计之后,SPM会进行一个多元校正的分析,常用的方法就是FDR、FWE校正。

\color{red}{后话:这一段我也看不懂,抄上来一起看看}
概率论里面有两个主要的研究内容,参数估计和假设检验。这里用到的是假设检验的内容。 这里补充一点假设检验的基础知识  假设检验的基本任务是根据样本所提供的信息,对未知总体分布某些方面的假设做出合理解释。假设检验的程序是,先根据实际问题的要求提出一个论断,称为零假设(null hypothesis)或原假设,记为H0(一般并列的有一个备择假设(alternative hypothesis),记为H1 )然后根据样本的有关信息,对H0的真伪进行判断,做出拒绝H0或不能拒绝H0的决策。  假设检验的基本思想是概率性质的反证法。概率性质的反证法的根据是小概率事件原理。该原理认为“小概率事件在一次实验中几乎是不可能发生的”。在原假设H0下构造一个事件(即检验统计量),这个事件在“原假设H0是正确的”的条件下是一个小概率事件,如果该事件发生了,说明“原假设H0是正确的”是错误的,因为不应该出现的小概率事件出现了,应该拒绝原假设H0 。

假设检验有两种方法:置信区间检验法(confidence interval approach)和显著性检验法(test of significance approach)。 显著性检验法中最常用的是t检验和F检验,前者是对单个变量系数的显著性检验,后者是对多个变量系数的联合显著性检验。实际上t检验法与置信区间法提供的结果是完全一样的。

假设检验的错误: 如果有一个零假设在5%的显著性水平下被拒绝了,有可能这个拒绝是不正确的,这种错误被称为第一类错误,它发生的概率为5%。另外一种情况是,我们得到95%的一个置信区间,落在这个区间的零假设我们都不能拒绝,当我们接受一个零假设的时候也可能犯错误,因为回归系数的真实值可能是该区间内的另外一个值,这一错误被称为第二类错误。 在选择显著性水平时人们面临抉择:降低犯第一类错误的概率就会增加犯第二类错误的概率。  P值度量的是犯第一类错误的概率,即拒绝正确的零假设的概率。P值越大,错误地拒绝零假设的可能性就越大;p值越小,拒绝零假设时就越放心。

voxel-wise就是基于voxel水平的分析;ROI-wise是基于ROI水平分析

相关文章

  • SPM的统计分析基础——GLM模型

    SPM的统计分析,操作相对简单,但其背后的原理却不容易。    在一系列的图像预处理之后,进入统计模型的建立及估计...

  • 无标题文章

    广义线性模型 R--glm函数 R语言glm函数学习: 【转载时请注明来源】:http://www.cnblogs...

  • 广义线性混合模型(GLMM)

    知识背景 广义线性混合模型可以看做是广义线性模型(GLM)以及线性混合模型(LMM)的扩展,为了更好地理解GLMM...

  • 广义线性模型二(Generalized Linear Model

    在上一篇广义线性模型一(Generalized Linear Models,GLM) - 简书 (jianshu....

  • 2019-10-18

    Freesurfer学习笔记 GLM:General Linear Modal 一般线性模型:直线的构成:斜率(s...

  • 广义线性模型

    本文转自: 广义线性模型 今天我来介绍一种在机器学习中应用的比较多的模型,叫做广义线性模型(GLM)。这种模型是把...

  • LearnOpenGL 变换

    变化的矩阵原理参照: 变换-LearnOpenGL CN 基础变换 : 缩放, 旋转, 平移 GLM GitHub...

  • 广义线性模型GLM和广义线性混合模型GLMM

    GLM 一般是指 generalized linear model ,也就是广义线性模型;而非 general l...

  • 一般化线性模型GLM学习笔记

    Chapter 2 一般化线性模型GLM及其要素 説明変数 x (objective variable) , 目的...

  • 广义线性模型

    今天我来介绍一种在机器学习中应用的比较多的模型,叫做广义线性模型(GLM)。这种模型是把自变量的线性预测函数当作因...

网友评论

      本文标题:SPM的统计分析基础——GLM模型

      本文链接:https://www.haomeiwen.com/subject/pkxpwhtx.html