分半信度
分半信度(劈半信度)split-half reliability,也称内部一致性信度。是指在测验后将测验项目分成相等的两组(两半),通常采用奇偶分组方法,计算两项项目之间的相关。分半信度越高,表示信度高,或内部一致性程度高,表示测验测量相同内容或特质的程度。
μM
是指 μmol/L,微摩尔每升的意思,是浓度单位。
mol摩尔是物质的量的单位。
L升是容积单位,1L=0.001立方米(m³)。
摩尔浓度=溶质的物质的量/溶液体积;质量浓度=溶质质量/溶液质量。
协方差分析
在实际问题中,有些因素无法人为很好的控制,但是又可能会对结果产生影响。所以这种时候,忽略这些变量,很可能会导致错误的结果。
例如:
- 研究不同教学方式对学生学习成绩的影响。可能会受到学生原本知识水平的影响。
- 研究受教育程度跟个人工资之间的关系。可能会受到工作年限这个因素的影响。
- 研究接受不同实验处理的小白鼠,在经过一段时间的饲养后,体重增加量是否有差别。可能会受到进食量的影响。
上述例子中提到的变量有的可以通过实验设计的方法来规避,有的没办法在实验或者实验中人为的严格控制,但是又可能会影响到最终的结果。这个时候就需要利用统计的方法,使用协方差分析(Analysis of Covariance),将无法人为控制的变量当作协变量,通过模型的校正使无法人为控制的变量(学生原本知识水平、工作年限、进食量等)在各组影响相等。即,在控制(排除)协变量影响的条件上,分析控制变量对观察变量的影响(主要的研究问题)。
原理
协方差分析既包含了定性变量,又包含了定量变量,是一种介于方差分析和线性回归之间的分析方法。将线性回归与方差分析结合起来,检验两组或多组修正均数间有无差异的一种统计方法,用于消除混杂因素对分析指标的影响,可以提高统计效力。
协方差分析是将线性回归分析与方差分析结合起来的一种统计学方法,它的基本思想是将那些定量变量X(指难以控制的因素)对应变量Y的影响看作协变量,建立Y随X变化的线性回归关系,并利用这种回归关系把X值化为相等后再进行各组Y的修正均数的比较。
Ps:因此需用统计控制的方式,把以前体重归纳一下,找出个校正系数来,把试验后的体重校正一下。然后用校正后的试验后体重进行4组比较。
以单因素协方差分析为例。
协方差分析仍然延续方差分析的基本思想,原理是F检验,零假设H0为多个控制变量的不同水平下,各总体平均值没有显著差异。在分析观测变量时,考虑了协变量的影响,认为观测变量的变动受 4 个方面的影响,即控制变量的独立作用、控制变量的交互作用、协变量的作用和随机因素的作用,并在剔除协变量的影响后,再分析控制变量对观测变量的影响。
所以在spss中操作的时候,相当于对协变量和自变量分别做了方差分析。
- 如果协变量方差分析的p<0.05,则表明协变量的不同水平对因变量产生了显著影响。上例中,就是学生原本的知识水平对学生学习成绩产生了显著影响。
- 如果控制变量方差分析的p<0.05,则表明,在控制了协变量的影响之后,也就是说控制协变量在各组影响相等,换句话说,就是排除了协变量的影响后,控制变量单独对因变量的影响显著。表明无论协变量是否对观察变量产生显著影响,控制变量的不同水平的确对观察变量的均值产生了显著影响。如果这里不做协方差分析,很有可能因为协变量对因变量的影响而导致自变量对因变量的影响不显著了。相反,如果p>0.05,则表明控制变量对于因变量没有显著影响,这个时候如果协变量的p<0.05,则可以认为各组因变量(观察变量)的差异主要是由协变量引起的。
协方差分析需要满足的条件
- 正态分布;
- 自变量是分类变量,协变量是连续变量,因变量是连续变量;
- 协变量与因变量之间是线性关系,且回归方程斜率相等等价于协变量与自变量之间没有交互作用;检验回归方程的斜率是否相等,等价于协变量X与自变量的交互影响是否存在。如果交互影响没有显著意义,说明在效应因子的不同水平上,因变量y随协变量x的变化趋势是相同的,即回归直线平行。可以先画散点图,看是否是线性关系,然后再通过spss协方差分析自定义模型检验斜率是否相等。
- 跟方差分析一样,需要样本方差齐性;也就是说,各实验组内部的方差彼此没有显著差异。
Z分数和T分数
均无实际单位。是相对位置量数。
原始分反映了考生答对题目的个数,或作答正确的程度。但是,原始分一般不能直接反映出考生间差异状况,不能刻划出考生相互比较后所处的地位,也不能说明考生在其他等值测试上应获得什么样的分值。
标准分为我们提供了一种对不同数据集的数据进行比较的办法,这些不同数据集的均值和标准差都不一样。通过标准分的计算公式,我们把数据集1和数据集2的平均值都转换为0,标准差转换为1。这样数据集1和数据集2就有了相同的均值和标准差,从而可以进行比较某个数值的相对排名。
- 如果某数值的标准分等于0,表示其值等于平均值本身。
- 如果某数值的标准分大于0,表示其值大于平均值。
- 如果某数值的标准分小于0,表示其值小于平均值。
所以标准分数通常用于下述问题。例,小明数学84分,语文88分,班级语文成绩平均值为78分,标准差10,数学成绩均值为88分,标准差5,问小明哪门课成绩较好?这个时候语文和数学成绩是不能直接比较的。
Z分数
也叫标准分数,是一个数与平均数的差再除以标准差。
Z分数平均数是0,标准差是1。 (0,1)
是以标准差为单位,表示一个原始分数在团体中所处位置的相对位置量数。可以看出某分数在分布中的相对位置。
比如,小明考试的了60分,单看这个分数并不能知道小明在班级里的水平。如果计算Z分数,得到Z值为1,则表示小明的分数高于班级平均值1个标准差。通过查正态分布表,通过Z值查询得到p值为0.3413,表明小明的分数高于班级84.13%的人。
T分数
同样是标准分数。
平均数是50,标准差是10。 (50,10)
也是统计中求相对位置量数的指标。Z分数有时会出现小数或者负值,所以通常会用T分数来替代。所以,T分数实际就是一个转换分数,由Z分数转换而来。也常用于不能直接比较的数据中,例如,想要比较身高和体重哪一个在分配中所处的地位高。或者比较不同科目的成绩。
T分数还有一种计算,是平均数500,标准差100。似乎是用于高考分数的计算还是别的什么量表,记不清楚了。
spss计算方法
Spss——转换——计算变量
Spss——分析——描述统计——描述——将标准化得分另存为变量
相关系数的显著性检验:
-
单个系数的检验。也就是我们通常计算相关之后输出的p值,看相关系数是否显著。
显著才有意义。
这里实际上是做的t检验,是相关系数跟0比较。
相关系数之间的比较。比如比较两个系数间是否存在差异。
分为两种情况:
-
系数之间是独立的
- 系数之间是相关的
方差分析
怎么理解:个人认为,大概的意思就是,所有的这些测量的被试,被试之间之所以存在差异,是由于组间变异(不同的实验处理造成的,不同的实验处理的导致 不同的测量结果)还是由于个体差异或者随机误差(组内变异)造成的。
线性回归
基本假设4
回归系数的显著性检验
其实跟相关相似,是通过将系数跟0对比,做t检验的。
R2