笔记内容:
- 统计方法极简小结
- P值备忘
- 为什么多重检验要矫正?
统计学是一个在海量样本的总体(population)中抽样(sample),并以样本统计量评估总体参数的过程。比方说在2010年入学的大一新生中抽取200人样本统计身高,以评估“2010年入学的大一新生”这一总体的身高情况。
但是在通过样本统计量评估群体统计量,并进行比较的时候,我们不能确定观察到的差异是两个(或多个)不同群体本质上的差别(系统误差),还是抽样误差。个体差异一定会存在,抽样误差虽不可避免,但是可以通过统计检验将其与系统误差进行区别。根据不同的研究目的设置假设检验(H0,零假设),使用各种检验方法判断“拒绝H0,犯假阳性错误(一类错误)”的概率(即P值)。
统计方法极简小结
在比较不同大小,个数的样本统计量时,使用的统计检验方法不同。且各统计检验方法存在前提条件(assumption).如样本量的要求,对样本是否来自正态分布群体的要求等。下图为连续型变量及分类变量样本统计检验的小结(来自网络)。
Normal为样本来自正态分布,Skew为偏态分布。可以使用正态性检验,也可以画出其频数分布图,观察其分布情况。
在上图中,正态分布的样本的检验为参数性检验,偏态分布则为非参数性检验。除了“来自偏态分布”这样一个使用非参数检验的条件以外,还有其他适用条件:
- 有序变量资料;
- 总体分布类型不明确(不知道是不是正态分布)
- 偏态分布,且没办法转化为正态分布
- 对比组间不符合方差齐性
另外Mann-Whitney U test还有若干别名:Mann-Whitney Wilcoxon test 及 Wilcoxon Rank Sum test
下图为考虑样本量时,采用参数或非参检验的总结。高斯分布即正态分布(来自网络)。
P值备忘
...虽然说P值已经被诟病很久了,但它在传统统计学中仍是一个重要的概念。它的意义在于判断观察到的差异是否比随机性造成的差异更大,避免我们被随机性所愚弄。比如用A和B两种广告宣传,想看得到的用户点击次数是否有差异。
H0: A和B的用户点击次数没有差异(没有差异,这意味着A和B之间的差异是由随机性导致的)
H1: A和B的用户点击次数有差异(不是随机性导致的,确实是A和B之间的差异)
P值表示了“随机性差异比观测到的差异大的可能性”,是以置换检验为基础的。将原始数据打乱并且随机抽取多次,以同样的样本量计算随机差异,并了解随机差异的分布情况,观察观测差异是否落在随即差异分布之中。以一个比较简单的场景为例:
在20-30年代出现t检验等我们现在常用的统计检验方法,是因为当时计算机还没有发明,无法实现几千次的置换检验,所以使用一个归一化的t分布来模拟置换检验随机混洗的分布。事实证明效果还不错,并一直用到了现在。
如果你用Permutation来计算P值,为了避免出现P值为0的情况(1000个n1-n2中,大于等于observed difference的个数为0),可以将上面P值公式分子分母都加上1。 可能这也是许多通过Permutation来计算P值的函数中,默认参数为99或999的原因。
为什么多重检验要矫正?
比方说使用一个药物治疗,治疗了多个阶段。每个阶段你都提出了一些问题,想看各处理组和对照之间有没有差异。两两比较(A vs B ,B vs C ,A vs C...)的次数越多,被随机性所愚弄的可能性就越高,偶然的错判为“显著性”的可能就越高。
矫正则使在多重比较中,显著性的要求更加严格,如Bonferroni,或者其它的矫正方法。
(...需要再查查)