使用 R 语言进行两组数据显著性 t 检验(入门级) 熊荣川 六盘水师范学院 xiongrongchuan@126.com 实例一 两组数据显著性 t 检验 (随机赋值模拟) 输入 注释 expend - c(rnorm(10)) 随机产生 10 个正态分布的数据 stature- c("obese","lean","obese","lean","obese","lean","obese","lean","obese","lean") d - data.frame(expend,stature) 数据框赋值 t.test(expend~stature) T 检验 结果 Welch Two Sample t-test data: expend by stature t = -9e-04, df = 7.985, p-value = 0.9993 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -1.204426 1.203442 sample estimates: mean in group lean mean in group obese 0.04850100 0.04899317 不显著 因为我们是交替给两组数据赋值,当然不显著 实例二 两组数据显著性 t 检验 (区间赋值模拟) 输入 注释 rm( stature, d ) 清空 stature 和 d 的原值 stature- c("lean","lean","lean","lean","lean","obese","obese","obese","obese","obese") 为 stature 进行区间赋值 d - data.frame( expend ,stature) 数据框赋值 t.test(expend~stature) T 检验 结果 Welch Two Sample t-test data: expend by stature t = -1.4237, df = 5.974, p-value = 0.2046 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -1.8056111 0.4781883 sample estimates: mean in group lean mean in group obese -0.2831086 0.3806028 不显著 区间赋值属于有规律的赋值,显著性提高 实例三 实际导入数据显著性 t 检验 输入 data-read.csv("D:\\ziliao\\zhuanye\\R bear\\vocal cords.csv") 读入表格 grah - data 第一列值赋给 grah torm - data 第二列值赋给 torm d - data.frame(grah, torm) 数据框赋值 t.test(grah, torm) T 检验 结果 Welch Two Sample t-test data: grah and torm t = 6.4396, df = 11.45, p-value = 3.995e-05 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: 67.89471 137.89651 sample estimates: mean of x mean of y 174.93756 72.04194 显著
1. T检验和F检验的由来 一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。 通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。 F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。统计显著性(sig)就是出现目前样本这结果的机率。 2. 统计学意义(P值或sig值) 结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。 3. T检验和F检验 至于具体要检定的内容,须看你是在做哪一个统计程序。 举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。 两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢? 会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同? 为此,我们进行t检定,算出一个t检定值。 与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。 若显著性sig值很少,比如0.05(少于5%机率),亦即是说,「如果」总体「真的」没有差别,那么就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。虽然还是有5%机会出错(1-0.05=5%),但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。 每一种统计方法的检定的内容都不相同,同样是t-检定,可能是上述的检定总体中是否存在差异,也同能是检定总体中的单一值是否等于0或者等于某一个数值。 至于F-检定,方差分析(或译变异数分析,Analysis of Variance),它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。它主要用于:均数差别的显著性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性(Equality of Variances)检验等情况。 4. T检验和F检验的关系 t检验过程,是对两样本均数(mean)差别的显著性进行检验。惟t检验须知道两个总体的方差(Variances)是否相等;t检验值的计算会因方差是否相等而有所不同。也就是说,t检验须视乎方差齐性(Equality of Variances)结果。所以,SPSS在进行t-test for Equality of Means的同时,也要做Levene's Test for Equality of Variances 。 4.1 在Levene's Test for Equality of Variances一栏中 F值为2.36, Sig.为.128,表示方差齐性检验「没有显著差异」,即两方差齐(Equal Variances),故下面t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。 4.2. 在t-test for Equality of Means中,第一排(Variances=Equal)的情况:t=8.892, df=84, 2-Tail Sig=.000, Mean Difference=22.99 既然Sig=.000,亦即,两样本均数差别有显著性意义! 4.3 到底看哪个Levene's Test for Equality of Variances一栏中sig,还是看t-test for Equality of Means中那个Sig. (2-tailed)啊? 答案是:两个都要看。 先看Levene's Test for Equality of Variances,如果方差齐性检验「没有显著差异」,即两方差齐(Equal Variances),故接著的t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。 反之,如果方差齐性检验「有显著差异」,即两方差不齐(Unequal Variances),故接著的t检验的结果表中要看第二排的数据,亦即方差不齐的情况下的t检验的结果。 4.4 你做的是T检验,为什么会有F值呢? 就是因为要评估两个总体的方差(Variances)是否相等,要做Levene's Test for Equality of Variances,要检验方差,故所以就有F值。 另一种解释: t检验有单样本t检验,配对t检验和两样本t检验。 单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比较,来观察此组样本与总体的差异性。 配对t检验:是采用配对设计方法观察以下几种情形,1,两个同质受试对象分别接受两种不同的处理;2,同一受试对象接受两种不同的处理;3,同一受试对象处理前后。 F检验又叫方差齐性检验。在两样本t检验中要用到F检验。 从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采用t'检验或变量变换或秩和检验等方法。 其中要判断两总体方差是否相等,就可以用F检验。 若是单组设计,必须给出一个标准值或总体均值,同时,提供一组定量的观测结果,应用t检验的前提条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必须在这样的前提下所计算出的t统计量才服从t分布,而t检验正是以t分布作为其理论依据的检验方法。 简单来说就是实用T检验是有条件的,其中之一就是要符合方差齐次性,这点需要F检验来验证。 5. 如何判定结果具有真实的显著性 在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果0.05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果0.05p0.01被认为是具有统计学意义,而0.01p0.001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。 6. 所有的检验统计都是正态分布的吗 并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。
In the xenograft mouse experiment, there were 5 mice per group used. Whether this could lead to a proper statistical analysis remains unclear. The authors need to give a clarification.这是一位审稿人在稿件回复中问我一个做分子生物学朋友的问题(注:这是一个来检验某种生物处理是否有效果的常规试验,通常的做法就是做两组数据,一组来自生物处理,另外一组来自未处理的对照,然后用t检验,看看p-value是否小于0.05)。审稿人的大意是,实验中每组用5个小鼠能否给出合理的统计分析?实际上就是问您的实验样本够不够数的问题? 您可能有点糊涂了:我的统计检验都告诉我是显著了,怎么会不够数?如果不够数目又怎么会显著?更深入一点,审稿人关心的问题是:您的显著是确实反映了实验效用,还是本来实验没啥子效用,您只这次运气好而侥幸碰到一组产生显著的数据?如果实验确实有很强的效用,在测试5个老鼠的情况下,达到显著的可能性很大,如90%。那么这种通过是意料之中的。反之,实验几乎没有效果,在测试5个老鼠的情况下,达到显著的可能性相当小,如5%。那么这个显著一般认为只是运气好而已。一个您可能比较熟悉的例子就是中六合彩。比方说,某同志买了10块钱的彩票就中了100万的六合彩大奖。可想而知,这个事件发生的概率是小之又小的。既然它发生了,往往只能说明该同志的运气好,并不能由此推断这个六合彩大奖中奖率高。如果您依照这个推断行事,认为赚钱的机会来了的话,您将会赔得很惨。 所以,要回答这个问题就必须计算能够达到显著水平0.05的概率。对于这个试验,可以认为生物处理的效用是一定的(如果有的话),检验的老鼠越多,就越能提高达到显著性水平的概率。给定一个概率标准(如80%),可以从理论上计算至少需要多少只老鼠。这就是统计上的所谓最小样本量。很多统计软件如SPSS,SAS等都可计算理论最小样本量。我曾经发现一个界面很友好的在线计算工具,http://www.danielsoper.com/statcalc/calc47.aspx。比方说当效用(Effect Size)为2的时候,如果希望有80%的概率(也叫统计功效,Statistical Power Level)达到显著性水平0.05(通常叫Alpha Level)的话,单尾t检验最少需用8个样本(每组4个),双尾t检验至少需用16个(每组6个样本)。这里很重要的前提就是,已知效用。这又似乎有点怪异,如果我都已知效用了,还要做实验检验干嘛?!的确,您一般是不知道效用的。所以这里要用到另外一个工具来估算效用,http://www.danielsoper.com/statcalc/calc48.aspx。计算也很简单,输入每组的均值和标准差,点击按钮就出结果了。通过这两个工具计算,我朋友的那个试验达到以90%的概率达到显著的最小样本是8个老鼠(每组4个)。所以,我建议他这样回复:通过统计计算,在我们的样本中只需要每组4个样本就可90%的概率达到0.05的显著性水平。所以,这个基于每组5个小鼠的统计分析结果应该是合理的。 但有一点需要注意的就是,如果用得到的试验数据先估计效用,然后又用同样的数据做统计检验的做法是属于不得以而为之的做法(因为没有其他的数据了)。不是一种严格的做法。这往往会得到过于乐观的结果。比方说,因为您运气好,您得到一组数据碰巧可以达到显著性水平,如果用它来估计效用,其估计值肯定会比较高(不然,达不到显著水平)。相应地,用这个效用计算出来的概率也会比较高(在给定样本大小的情况下)。这样一来,您还是避免不了只是运气而已的嫌疑。比较保险的做法是用与检验不一样的数据估计效用。
http://blog.znsunimage.com/2008/04/653/t-test-and-f-test-and-p-or-sig-value 1. T检验和F检验的由来 一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。 通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布 (probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很 少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没 能确定。 F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。统计显著性(sig)就是出现目前样本这结果的机率。 2. 统计学意义(P值或sig值) 结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可 信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。 如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实 验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关 联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。 3. T检验和F检验 至於具体要检定的内容,须看你是在做哪一个统计程序。 举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。 两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢? 会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同? 为此,我们进行t检定,算出一个t检定值。 与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。 若显著性sig值很少,比如0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况 下,才会出现目前这样本的情况。虽然还是有5%机会出错(1-0.05=5%),但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的 情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。 每一种统计方法的检定的内容都不相同,同样是t-检定,可能是上述的检定总体中是否存在差异,也同能是检定总体中的单一值是否等於0或者等於某一个数值。 至於F-检定,方差分析(或译变异数分析,Analysis of Variance),它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。它主要用于:均数差别的显著性检验、分离各有关因素并估计其对总变异 的作用、分析因素间的交互作用、方差齐性(Equality of Variances)检验等情况。 4. T检验和F检验的关系 t检验过程,是对两样本均数(mean)差别的显著性进行检验。惟t检验须知道两个总体 的方差(Variances)是否相等;t检验值的计算会因方差是否相等而有所不同。也就是说,t检验须视乎方差齐性(Equality of Variances)结果。所以,SPSS在进行t-test for Equality of Means的同时,也要做Levene's Test for Equality of Variances 。 4.1 在Levene's Test for Equality of Variances一栏中 F值为2.36, Sig.为.128,表示方差齐性检验「没有显著差异」,即两方差齐(Equal Variances),故下面t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。 4.2. 在t-test for Equality of Means中,第一排(Variances=Equal)的情况:t=8.892, df=84, 2-Tail Sig=.000, Mean Difference=22.99 既然Sig=.000,亦即,两样本均数差别有显著性意义! 4.3 到底看哪个Levene's Test for Equality of Variances一栏中sig,还是看t-test for Equality of Means中那个Sig. (2-tailed)啊? 答案是:两个都要看。 先看Levene's Test for Equality of Variances,如果方差齐性检验「没有显著差异」,即两方差齐(Equal Variances),故接著的t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。 反之,如果方差齐性检验「有显著差异」,即两方差不齐(Unequal Variances),故接著的t检验的结果表中要看第二排的数据,亦即方差不齐的情况下的t检验的结果。 4.4 你做的是T检验,为什么会有F值呢? 就是因为要评估两个总体的方差(Variances)是否相等,要做Levene's Test for Equality of Variances,要检验方差,故所以就有F值。 另一种解释: t检验有单样本t检验,配对t检验和两样本t检验。 单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比较,来观察此组样本与总体的差异性。 配对t检验:是采用配对设计方法观察以下几种情形,1,两个同质受试对象分别接受两种不同的处理;2,同一受试对象接受两种不同的处理;3,同一受试对象处理前后。 F检验又叫方差齐性检验。在两样本t检验中要用到F检验。 从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采用t'检验或变量变换或秩和检验等方法。 其中要判断两总体方差是否相等,就可以用F检验。 若是单组设计,必须给出一个标准值或总体均值,同时,提供一组定量的观测结果,应用t检 验的前提条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料均取自正态分布的 总体,并满足方差齐性。之所以需要这些前提条件,是因为必须在这样的前提下所计算出的t统计量才服从t分布,而t检验正是以t分布作为其理论依据的检验方 法。 简单来说就是实用T检验是有条件的,其中之一就是要符合方差齐次性,这点需要F检验来验证。