科学网

 找回密码
  注册

tag 标签: 科研评估

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

再论科研评估-SCI指标出问题了么?
热度 21 gaoshannankai 2016-6-1 21:57
生物信息学天空qq群里,张老师给我们转发了一个帖子 SCI指标的始作俑者炮轰SCI指标。 也不知道是不是有人故意利用他的名字卖自己私货, 总之,我有不同意见。 SCI也好,高考成绩也好,作为一组客观指标,是没有任何问题的。 在中国这个人口大国,如果没有一组客观指标,其结果是 有钱有势的人任意评估,倒霉的还是没权没势的人。 我现在觉得,从科研角度,唯一的一点公平来自学生阶段, 那时候研究生发了论文有奖励,大家根据硬件评优秀, 到后面,同行评议,基本就是帮派斗争。 现在的学科评估,学校评估,还不是看这些硬件么? 但是到了人的评估,科研经费的分配,为何不是根据某些指标排队? 有人讲到了SCI这个指标不全面,所以就要换其他指标。 其实,完全就是因为我们国家 流氓文盲法盲 掌权的结果。 做过机器学习或高维数据统计的人都知道,很多数据都是稀疏的, 几个主要特征就可以把一件事给定了。科研评估,简单来说 就是把 能力强的 和 弱的分开,一个简单的分类问题。 SCI一个指标不行,你加一个不就完了,就这么简单,狗都会。 我们的管理人员他就故意给你胡来。 SCI,加上SCI/经费,两个指标,就会让评估改善很多。 做过主成分分析的朋友,应该知道前2个主成分,就能完成很好的分类。 假如第一成分完成30%的分类准确度,加一个就可以到70%多。 特别是SCI/经费这个指标一出来,很多院士大牛,就要露陷。 我这人就是遭人恨,因为我总喜欢揭露虚假的骗人的东西。 我在天津这边的统计,SCI每4万元推动一个点,就是比较高的, 到了北京,估计要到10万一个点,各位老师可以算一下你自己的 投入产出比。 我建议5万元推动一个点,就不要资助了,个人 的智慧因素太低,更像是工程项目,此类项目应该由公司完成。 国家就不要继续用钱去发SCI了。 韩春雨老师的投出产出比,我估计应该是1万左右一个点。 应该多鼓励支持青年科学家做1万元以下一个点的科研课题。 GDP出问题了么?你加个碳排放量; 人均收入出问题了么?你把平均值换为中位数。 指标没有错,使用指标的人有问题,怎么搞也不行。 在根子不改的情况下,设计合理的指标,可以多少解决点问题, 改善点,希望大大们,当政者们能够考虑 老百姓的钱来的不容易。
2353 次阅读|35 个评论
观察 | 英国和意大利基于科研评估的经费分配(3)
st69786 2016-5-12 21:56
观察 | 英国和意大利基于科研评估的经费分配(3) 编译 | 贺飞(北京大学) 【按】这几天,教育部第四轮学科评估正在如火如荼开展,各高校如临大敌,丝毫不敢懈怠。因为评估结果今后可能直接与学科建设的经费投入挂钩。5月6日晚,教育部学位与研究生教育发展研究中心发出《关于全国第四轮学科评估补充事项的函》,向高校各学位授予单位说明:根据部分单位和学者提出的一些意见建议,经过对相关问题的审慎研究,学位中心决定,仍沿用上轮的评估方式,暂不增列“A类期刊”指标。这里“A类期刊”实际上是评价科研指标,刚一推出便被一片反对声而搁浅。从今天开始,笔者利用网上的文献资料计划简要介绍一下欧洲高校的科研评估的相关情况,这里选取英国和意大利为代表,前者是长期开展这项工作的国家,而后者近年来也在引入这一评估体系。本文简要介绍一下英国和意大利科研评估的发展历程,包括其实施的成本,将基于绩效分配经费方式同其他经费分配方法进行比较,为我国如何更好地支持高校公共科研,提高经费可问责性,从而最终提升科研生产力提供政策借鉴。 3.2. 意大利的科研评估 2014 年,意大利是除英国外的唯一基于同行评议开展综合大学科研绩效国家评估的欧洲国家,并利用评估结果分配了相当大的一部分公共资源。意大利于 2006 年首次引入 PRBRA ,并且在该国称之为 Valutazione Triennale della Ricerca ( 简称 VTR) ,由 Comitatodi Indirizzo per la Valutazione della Ricerca (CIVR) 负责完成,因此,意大利是由政府部门负责开展科研评估的。 VTR 源自于英国的 RAE ,是一种 20 个小组的专家评估体系,评估对象是意大利所有大学和研究机构的研究人员的科研质量。该国第一次评估的评估时段是 2001-03 的三年时间。但这次评估结果仅用于分配很小一部分公共经费(自 2009 年开始大约每年占比为 2% )。 2010 年, CIVR 和 Comitato Nazionale per la Valutazione del SistemaUniversitario (CNVSU) 政府部门负责所有大学评估,合并成立 ANVUR ,这是一个自 2011 年 5 月开始运行的新的国家机构,由其全面负责大学的科研评估。这也是该国自 1993 年的改革进程的最终一步,意大利通过整合意大利大学,并通过立法来要求大学开展评估。 在 CINECA 的帮助下 ,ANVUR 开展了新一轮科研评估,也称为 VQR 。同英国的做法类似,该国将其评估专家组的个数从 20 个减少到 14 个。 VQR 评估该国全部 96 所大学和 38 家研究机构中所有签有政府合同的长期职位科研人员,评估其在 2004-2010 的 7 年间的科研产出。总计有 61,822 科研人员提交了他们的代表作用于评估,其中大学中每人提交 3 件,公立科研机构中每人提交 6 件。最终提交的成果总数为 184,878 件(如果每人最大要求提交,总数为 194,763 件)。这些成果中有大约 70% 的成果为期刊论文。 同行评议是艺术、人文和大多数社会科学(排除经济学)、土木工程和建筑等学科评估所采用的主要方法。而在自然科学、生物医学、部分工程学科和经济学和统计学等,文献计量则更为普遍,但也有相当比例的结果是靠同行评议 (25% 到 48% 之间 ) 。文献计量评估方法中的科研人员产出不需要通过同行评议提交 ( 数据直接采集 Web of Science 或 Scopus 收录论文 ) ,并通过文献计量算法自动得出结果。如果论文来自上述自然科学、生物医学、部分工程学科和经济学和统计学等四类学科,则利用文献计量方法统计其期刊影响力 (Web of Science 影响因子和 Scopus 等价指标 ) 以及截止到 2011 年 12 月 31 日之前的论文总被引用数。如果不在上述四个学科中,则将其论文提交给同行评议。 在意大利的评估结果中,科研产出质量分为四级 ( 表 7) ,评估主要是根据以下三个标准:学科相关性;新颖性;以及国际化。其中如果所提交的论文的质量极低、有剽窃行为或者不按时提交论文(未按评估要求按时提交其研究成果)的可以得负分。单位科研质量的最终指标 (IRFS1) 的计算采用质量和数量(权重为 50% )、外部研究经费数量(权重 10% )、新聘和新晋升人员质量(权重 10% )、国际化(权重 10% )、博士生和博士后数量(权重 10% )、捐赠基金资助研究项目 ( 权重 5%) 以及相比于 VTR 2001–2003 评估的绩效提升 ( 权重 5%) 的综合公式来进行计算。 表 7. VQR 打分情况 等级 ( 判断 ) 件数 获得处罚的 2,076 (1%) 1* ( 有限 ) 42,362 (23%) 2* ( 可接受 ) 25,542 (14%) 3* ( 好 ) 47,925 (26%) 4* ( 优秀 ) 66,973 (36%) 总计 184,878 (100%) 数据来源: ANVUR , 2014 很显然,意大利 VQR 是经过讨论借鉴了英国 REF 中所使用文献计量学方法。但 VQR 其实是一种文献计量和同行评议的混合体,并且较 REF 更依赖于自动化的文献计量分析。例如,数学和工业工程的专家小组选择在 VQR 中使用文献计量,而在 REF 则不选择。 VQR 方法较 REF 更为机械。在 REF 中引用数据被作为附加信息来指导判断,而不是作为自动测度来评价质量 ( 当然专家小组的判断无疑会受到文献计量指标的左右 ) 。例如,作为试点以及方法确定检验, ANVUR 在 VQR 主要依赖文献计量的领域,曾经随机抽取 10% 论文样本给两名评审人来进行同行评议。同行评议结果显示两种评估方法的差别 ( 尤其是那种被某种方法评为优秀的 ) 有一定的相关性。但是平均看,文献计量得出的分数要高于同行评议的分数。此外,还有一个有趣的现象,那就是两名评审人之间也有一定的相关性。 英国的 REF 和意大利的 VQR 之间的另一个重要差别是,意大利的 VQR 缺乏公开咨询程序。意大利匆忙引入 VQR 评估的部分原因是在 CIVR 的漫长拆解后需要新的评估程序。但由于缺乏利益相关者参与和公众咨询,加上急于执行新的评估系统,导致评估中的一些错误,以致于遭到相当一些人的公开批评和反对,并且也有研究表明其评估结果存在较大的失真现象。 意大利科研经费基于 2013 FFO 基于绩效的科研分配和 VQR 评估而集中,但结果显示,意大利系统的结果选择性要明显低于英国。在意大利, 2013 年有大约 63% 的基于绩效的资源分配给了前 20% 的机构,而在英国则为 76% 。意大利的集中度仅略高于其 FFO 基本经费 (62%) 的集中度。意大利和英国这一资源集中度的差别,以及英国的集中度还不断提升是两个十分明显的现象。 4. 英国 RAE/REF 和意大利 VQR 的执行成本 ( 未完待续 ) (转载请注明出处,联系作者: st69786@tom.com )
个人分类: 海外观察|3724 次阅读|0 个评论
观察 | 英国和意大利基于科研评估的经费分配(2)
热度 2 st69786 2016-5-10 11:34
观察 | 英国和意大利基于科研评估的经费分配(2) 编译 | 贺飞(北京大学) 【按】这几天,教育部第四轮学科评估正在如火如荼开展,各高校如临大敌,丝毫不敢懈怠。因为评估结果今后可能直接与学科建设的经费投入挂钩。5月6日晚,教育部学位与研究生教育发展研究中心发出《关于全国第四轮学科评估补充事项的函》,向高校各学位授予单位说明:根据部分单位和学者提出的一些意见建议,经过对相关问题的审慎研究,学位中心决定,仍沿用上轮的评估方式,暂不增列“A类期刊”指标。这里“A类期刊”实际上是评价科研指标,刚一推出便被一片反对声而搁浅。从今天开始,笔者利用网上的文献资料计划简要介绍一下欧洲高校的科研评估的相关情况,这里选取英国和意大利为代表,前者是长期开展这项工作的国家,而后者近年来也在引入这一评估体系。本文简要介绍一下英国和意大利科研评估的发展历程,包括其实施的成本,将基于绩效分配经费方式同其他经费分配方法进行比较,为我国如何更好地支持高校公共科研,提高经费可问责性,从而最终提升科研生产力提供政策借鉴。 3. 英国和意大利基于同行评议科研评估的经费分配系统 英国是第一个引入基于 PRBRA ( 基于同行的科研评估系统 )结果分配研究经费的国家。自 1986 年以来,英国的经验、教训和改进为其他国家开展相关评估提供了大量的政策借鉴。意大利是近年来才系统引入英国框架,当然其在 1990 年代初期就一直试图引入这种研究评估体系,但半途而废。 3.1. 英国的科研评估 英国第一次 RAE 是在 1986 年开始实行的,当年称为 科研选择性评估( Research Selectivity Exercise ) 。其目标主要包括两个层面:一是在预算吃紧时为大学系统分配预算;二是为英国高校科研质量提供评估。随后几次评估分别在 1989 、 1992 、 1996 、 2001 、 2008 和 2014 年开展。评估针对所有评估单位 (UOA) 或学科领域,根据学科分委员会的同行专家评议来开展周期性科研后评价,这些分委员会包括相关学科专家,有着明确的特定评价标准。对每一评估单位的打分根据固定分数尺度 (2001 年为 7 级, 2008 年为 4 级加上一个“未分级”级别 ) 。在 2014 年,通过多次参考 HEFCE 的 2007 年评估系统, REF 执行延迟两年,以便能让所有相关者参与。通过讨论和可行性分析,评估在自然科学、生物医学、经济学和统计学等学科采用文献计量指标来进行。评估将文献计量作为同行评议的有效补充手段,逐渐发展成为评估的主导方法。 HEFCE 领导的公开讨论和试点得出新的社会经济影响力标准的结论。但英国的评估标准中包含影响力指标存在许多争议,因为所有先前的评估仅考虑科研质量;有人担心对大学的影响力研究会提高评估成本。同先前的评估相比, REF 有着较少的专家 ( 从 67 个分委员会减少到 36 个,主委员会从 15 个减少到 4 个 ) ,减少了工作成本,同时提高了结果的可比性。分指标包括研究产出的质量 (65%) ,、经济社会文化影响力 (20%) 以及活力和可持续等研究环境 (15%) 。相比 RAE2008 ,单位提交数量减少 ( 从 2363 到 1911) ,仅涉及较少的学术职员,显示较高的集中度。但是,提交产出的数量明显减低,从大约 215,000 减少到 191,000 ,显示了更高的选择性。 表 5 给出了 5 次评估的评估尺度和得分分布情况。结果显示,国家化卓越科研同评分结果正相关。尽管由于变化较大, RAE 和 REF 结果不能直接比较,但相对来说, 4* (+70%) 和 3* 分数 (+24%) 占比有增长。而提高优秀国际卓越科研的占比可能是英国科研质量提升的信号,也可能是因为“边干边学”,即高校在评估中也学会了利用游戏规则,知道如何通过选择性产出的投资更好地提升其结果,结果造成仅仅是分数增加而不是实际科研质量提升。有人研究表明,可以通过提升 2002-2006 年相对引用影响力来提升研究质量测度结果。然而,产出结果测度提升可能仅仅是因为输入指标的改变,而不是政策和激励(如评估)改变。例如英国高校总生产力增长在 1996/2001 相比于 1991/1996 下降 ,有人认为主要因为 RAE 带来的机构震荡,在系统回到正常平均增长率之前影响了生产力水平 ( 而不是增长率 ) 。换句话说, RAE 的影响会随着时间而消失。 表 5. 1992, 1996, 2001, RAE2008 和 REF2014 评分比较 1992 分级 1992 结果 1996 分级 1996 结果 2001 分级 2001 结果 2008 分级 2008 结果 2014 分级 2014 结果 未分级 47 (2%) 未分级 19 (1%) 1 423 (15%) 1 236 (8%) 1 18 (1%) 1* 261 (11%) 1* 57 (3%) 2 613 (22%) 2 464 (16%) 2 140 (5%) 2* 781 (33%) 2* 382 (20%) 3 837 (30%) 3b 422 (15%) 3b 278 (11%) 3* 876 (37%) 3* 879 (46%) 3a 528 (18%) 3a 499 (19%) 4 560 (20%) 4 671 (23%) 4 664 (26%) 4* 403 (17%) 4* 573 (30%) 5 350 (13%) 5 403 (14%) 5 715 (28%) 5* 170 (6%) 5* 284 (11%) 总计 2783 2894 2598 2368 1911 数据来源: RAE2008 和 REF2014 。 由于大量研究单位在每一轮 RAE 中都能成功获得高分,政府决定改变 1996RAE 中采用的权重分布,以保持较高的选择性。根据 RAE2001 结果,从 2002/2003 往后的权重偏向最高分数的单位,并有着超过 85% 的主流质量相关 (QR) 拨款趋向前 5 和 5* 分数的单位。在 2004/05 引入额外的 3500 万英镑经费投向‘ very best ’ 5* 的单位。前 25 家机构获得大约 80% 的 HEFCE 拨款。第一次主流质量相关 QR 拨款分配基于 RAE2008 结果,权重 1, 3, 和 7, 趋向三个顶级分数的有特色的国际水平研究。选择性较预期要小,有着较低的 ( 当然仍旧很高 ) 集中度, 2008/09 年有 90% 的主流 QR 拨款分配给 48 家机构,而上一年度则为 38 家。因而,英国政府决定再次偏向权重分配,自 2012/13 起,最高两类分配权重为 1 和 3( 表 6) 。在 2011/12 年, 73% 的主流 QR 经费分配给前 20% 的分布,而研究理事会拨款甚至更为集中,有 84% 投向前 20% 分布。在改变权重后, 2012/13 年有 76% 的主流 QR 拨款分配给前 20% 。第一次根据 REF 结果的 QR 分配将在 2015/16 年度进行,考虑到前面表现高的单位的分数增长,政府决定再次偏向权重分布,通过提升那些 4* 的子组别 ( 表 6) 。 表 6. QR 公式拨款的权重: RAE2008 和 REF2014 RAE08 2009–10 RAE08 2010–11 RAE08 2011–12 RAE08 2012–13 2013–14 2014–15 REF14 2015–16 未分级 0 0 0 0 0 1* 0 0 0 0 0 2* 1 1 0.294 0 0 3* 3 3 3 1 1 4* 7 9 9 3 4 3.2. 意大利的科研评估 ( 未完待续 ) (转载请注明出处,联系作者: st69786@tom.com )
个人分类: 海外观察|3500 次阅读|2 个评论
数据看北大清华同世界一流大学的差距(7)
热度 13 st69786 2015-9-29 09:15
数据看北大清华同世界一流大学的差距(7) 贺飞 北京大学 近年来,文献计量学和引文分析方法越来越多的被应用于科研绩效评价中。一般来说,没有任何一个单一的文献计量学指标能全面的评价科研绩效。通常会选取一组一组恰当的文献计量学指标,更加全面,视野更为开阔地多角度深入挖掘数据内涵。本博主选取一组特定的文献计量指标(预计10来个指标),将美国新闻与世界报道2014年世界大学排名前20名的大学同北京大学(39)和清华大学(67)两所学校进行比较。相关文献计量学指标和数据来自汤森路透新一代研究分析平台incites。数据检索时间为2015年6月10日。 【前情提要】 (1)、 《数据看北大清华同世界一流大学的差距(1) 》中介绍了3个指标: 论文总数、总引用数、篇均引用数 。 (2)、 《数据看北大清华同世界一流大学的差距(2) 》中介绍了1个指标: 学科规范化引文影响力(Category Normalized Citation Impact)。 (3)、《 数据看北大清华同世界一流大学的差距(3)》 中介绍了2个指标: 国际合作论文数以及国际合作论文占比 。 (4) 、《 数据看北大清华同世界一流大学的差距(4)》 中介绍了2个指标: 平均百分位、论文被引百分比。 (5) 、 《数据看北大清华同世界一流大学的差距(5)》 中介绍了2个指标: 被引次数排名前1%的论文百分比,以及被引次数排名前10%的论文百分比。 (6) 、 《数据看北大清华同世界一流大学的差距(6)》 中介绍了3个指标: 期刊规范化的引文影响力(Category Normalized Citation Impact)、高被引论文(Highly Cited Papers) 以及 高被引论文百分比。 今天这篇博文介绍3个指标: 与企业合作论文百分比(% of Industry Collaborations)、热点论文百分比(% Hot Papers)以及相对世界影响力。 1 指标简介 与企业合作论文百分比就是横向合作论文百分比(% of Industry Collaborations), 一篇横向合作的论文,是指那些包含了一位或多位组织机构类型标记为“企业”的作者的出版物。与企业合作论文百分比是某一论文集与企业合作发表文献数除以该论文集合中论文总数的数值,以百分数的形式表现。 需要注意的是,目前InCites TM 中并未统一所有论文包含的每一机构的隶属关系,只有那些已被统一的机构才能被标记特定的组织机构类型。因此,可能存在一些企业,其隶属关系未被统一而没有被标记组织机构类型为“企业”或其他,其发表论文未被标记为与企业合作论文。目前统计结果可能只限于大型跨国企业,因此可能存在区域偏差。今后,随着越来越多的组织机构被统一,横向合作论文的数量预计会大幅增加。 热点论文百分比(% Hot Papers): 入选ESI热点论文(按领域和时间段统计的引文数排名前0.1%)的出版物百分比。 相对世界影响力是相对于全球平均水平的影响力(Impact Relative to World), 某组论文的引文影响力与全球总体出版物的引文影响力的比值。这个指标可以被用于机构、国家和全球水平。这个指标展示了某项研究的影响力与全球研究影响力的关系,反映了相对的科研绩效水平。 全球平均值总是等于1 。如果该比值大于1,即表明该组论文的篇均被引频次高于全球评价水平;小于1,则低于全球平均水平。 相对影响力=引文影响力(即篇均引用)÷基线(全球引文影响力) 请注意,这个指标虽然考虑了出版年份的因素,但由于机构或国家同时在多个学科发表论文, 该指标却忽略了这些学科之间的差异 ,因此建议与其他考虑被评估论文平均引用率差异的文献计量学指标共同使用。 2 热点论文百分比 年 2013 年 2014 年 哈佛 0.63% 0.64% MIT 1.04% 0.68% 伯克利 0.64% 0.41% 斯坦福 0.64% 0.50% 牛津 0.48% 0.63% 剑桥 0.44% 0.32% 加州理工 0.70% 0.37% UCLA 0.50% 0.43% 芝加哥 0.55% 0.48% 哥伦比亚 0.60% 0.48% 霍普金斯 0.55% 0.58% 帝国理工 0.43% 0.46% 普林斯顿 0.43% 0.55% 密执根 0.29% 0.39% 多伦多 0.44% 0.46% 华盛顿 0.50% 0.75% 耶鲁 0.37% 0.56% 圣迭戈 0.46% 0.45% PENN 0.45% 0.40% 杜克 0.43% 0.48% 北大 0.21% 0.19% 清华 0.12% 0.14% 3 、与企业合作论文百分比 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 3.11% 3.30% 3.23% 3.41% 3.39% 3.36% 3.18% 2.99% 2.87% 3.11% MIT 3.48% 3.65% 3.87% 3.96% 4.48% 4.71% 4.20% 3.73% 3.52% 3.89% 伯克利 2.38% 2.37% 2.02% 2.18% 1.97% 2.31% 2.35% 1.98% 1.87% 1.95% 斯坦福 4.28% 4.29% 3.94% 4.76% 3.99% 3.65% 3.75% 3.19% 3.04% 3.40% 牛津 2.59% 2.73% 2.34% 2.68% 2.54% 2.77% 3.00% 2.70% 2.44% 2.20% 剑桥 3.16% 3.16% 3.02% 3.48% 3.52% 4.16% 3.87% 3.45% 3.50% 2.96% 加州理工 2.52% 2.07% 1.61% 2.17% 1.53% 2.01% 1.84% 1.78% 1.46% 0.90% UCLA 3.44% 3.40% 3.23% 3.60% 3.08% 3.46% 3.38% 2.73% 3.37% 2.78% 芝加哥 2.11% 2.18% 1.82% 2.28% 1.99% 2.57% 1.66% 2.14% 2.09% 2.16% 哥伦比亚 4.36% 3.71% 4.36% 3.60% 3.31% 3.08% 2.66% 2.33% 2.51% 2.84% 霍普金斯 2.63% 2.70% 2.62% 2.49% 2.93% 3.04% 2.80% 2.99% 2.62% 2.93% 帝国理工 3.53% 3.64% 4.29% 4.22% 4.55% 4.63% 4.76% 3.94% 3.18% 3.61% 普林斯顿 4.50% 4.73% 4.44% 3.26% 3.96% 4.30% 4.52% 3.25% 3.54% 3.22% 密执根 3.00% 2.84% 2.76% 2.69% 2.41% 2.50% 2.87% 2.39% 2.55% 2.52% 多伦多 2.55% 2.36% 2.27% 2.71% 2.47% 2.28% 2.44% 2.14% 2.20% 2.47% 华盛顿 3.31% 2.50% 2.92% 3.15% 2.64% 3.11% 3.41% 2.42% 2.29% 2.36% 耶鲁 1.81% 1.87% 2.12% 1.86% 1.89% 2.12% 1.65% 1.65% 1.66% 2.05% 圣迭戈 3.51% 4.09% 3.75% 3.79% 4.30% 4.50% 3.82% 3.28% 3.42% 3.50% PENN 3.28% 3.14% 3.22% 3.96% 3.30% 3.25% 3.31% 3.40% 2.22% 2.48% 杜克 4.19% 3.84% 4.04% 3.74% 3.90% 4.12% 3.48% 3.53% 3.23% 3.46% 北大 1.07% 0.87% 0.86% 1.07% 1.21% 1.39% 0.95% 1.31% 1.21% 1.37% 清华 1.15% 1.37% 1.07% 1.29% 1.37% 1.61% 1.31% 1.15% 1.41% 1.39% 4 、相对世界影响力 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 4.366 4.309 4.377 4.261 4.296 4.030 3.852 4.074 3.789 3.278 MIT 4.368 4.236 4.581 4.619 4.860 4.694 4.644 5.159 4.719 3.664 伯克利 3.344 3.398 3.385 3.679 3.616 3.849 3.566 3.989 3.467 3.213 斯坦福 3.638 3.578 3.853 3.981 3.662 3.770 3.710 3.725 3.444 3.027 牛津 3.161 2.905 3.102 3.276 3.457 3.492 3.166 3.506 3.063 2.875 剑桥 2.992 2.913 3.266 3.157 3.231 3.416 3.211 3.522 3.089 2.743 加州理工 3.763 4.194 3.800 4.151 3.884 4.607 4.255 5.008 4.376 4.267 UCLA 3.272 3.229 3.413 3.347 3.413 3.180 3.072 3.578 3.107 2.661 芝加哥 2.867 3.173 3.198 3.411 3.500 3.443 3.470 3.907 3.344 3.177 哥伦比亚 3.494 3.211 3.540 3.276 3.293 3.164 3.194 3.408 3.052 3.747 霍普金斯 3.557 3.590 3.722 3.460 3.900 3.436 3.522 3.719 3.118 2.918 帝国理工 2.675 3.029 3.066 3.207 3.234 3.285 3.113 3.413 3.066 3.731 普林斯顿 3.042 3.370 3.207 3.314 3.738 3.286 3.494 3.720 3.433 3.029 密执根 3.117 3.151 3.172 3.083 3.133 3.017 2.745 2.918 2.694 2.494 多伦多 2.785 2.797 2.854 2.792 2.886 2.806 2.898 2.826 2.791 2.423 华盛顿 3.517 3.392 3.388 3.543 3.473 3.642 3.107 3.762 3.048 2.945 耶鲁 3.338 3.447 3.474 3.483 3.413 3.379 3.063 3.781 3.012 2.965 圣迭戈 3.412 3.414 3.423 3.652 3.576 3.535 3.376 3.846 3.158 2.798 PENN 3.287 3.260 3.386 3.302 3.480 3.289 3.085 3.417 3.168 2.936 杜克 3.525 3.595 3.487 3.509 3.559 3.615 3.191 3.725 2.934 2.788 北大 1.652 1.606 1.758 1.961 1.892 2.067 2.123 2.386 2.404 1.897 清华 1.136 1.310 1.465 1.639 1.719 1.876 1.958 2.187 2.074 1.751 相关阅读: 1 、数据看北大清华同世界一流大学的差距(1) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922382 2 、数据看北大清华同世界一流大学的差距(2) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922533 3 、数据看北大清华同世界一流大学的差距(3) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922756 4 、数据看北大清华同世界一流大学的差距(4) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923258 5 、数据看北大清华同世界一流大学的差距(5) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923588 6 、数据看北大清华同世界一流大学的差距(6) http://bbs.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923743 (转载请注明出处,电子邮件: st69786@tom.com )
个人分类: 文献计量学|23542 次阅读|15 个评论
数据看北大清华同世界一流大学的差距(4)
st69786 2015-9-25 09:35
数据看北大清华同世界一流大学的差距(4) 贺飞 北京大学 近年来,文献计量学和引文分析方法越来越多的被应用于科研绩效评价中。一般来说,没有任何一个单一的文献计量学指标能全面的评价科研绩效。通常会选取一组一组恰当的文献计量学指标,更加全面,视野更为开阔地多角度深入挖掘数据内涵。本博主从今天开始,将选取一组特定的文献计量指标(预计10来个指标),将美国新闻与世界报道2014年世界大学排名前20名的大学同北京大学(39)和清华大学(67)两所学校进行比较。相关文献计量学指标和数据来自汤森路透新一代研究分析平台incites。数据检索时间为2015年6月10日。 本博主之前博文导读: 数据看北大清华同世界一流大学的差距(1) 》中介绍了3个指标: 论文总数、总引用数、篇均引用数 。 《 数据看北大清华同世界一流大学的差距(2) 》中介绍了1个指标: 学科规范化引文影响力(Category Normalized Citation Impact)。 《 数据看北大清华同世界一流大学的差距(3)》 中介绍了2个指标: 国际合作论文数以及国际合作论文占比 。 今天这篇博文介绍2个指标: 平均百分位、论文被引百分比。 1 指标简介 一篇论文的百分位是通过建立 同出版年、同学科领域、同文献类型 的所有论文的被引频次分布(将论文按照被引频次降序排列),并确定低于该论文被引次数的论文的百分比获得的。如果一篇论文的百分位值为1,则该学科领域、同出版年、同文献类型中99% 的论文的引文数都低于该论文。 百分位是一个规范化的指标,一篇论文的百分位体现了其在同学科、同出版年、同文献类型的论文集中的相对被引表现 。 对于一组论文来说,平均百分位可以通过计算该组论文中所有论文的百分位的平均值而获得。 当一篇论文被划归至多个学科领域时,使用百分位值最接近0的学科领域的百分位值(最佳表现值)。 论文被引百分比指标是一组出版物中至少被引用过一次的论文占总论文数的百分比。 这个指标揭示了某科研领域其他科研工作者引用本机构科研成果的程度。另一种阐释这个指标的角度是,可以得到相应的没有得到过引用的论文的百分比。需要注意的是,论文被引百分比指标将会根据分析中包含的时间段和文献类型而发生变化。 论文被引百分比不是一个规范化的指标。 例如,如果分析中包含当年或近年发表的论文,其中的某些文献可能没有足够长的时间来积累引文。 2 平均百分位 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 33.68 34.20 34.61 35.27 34.85 35.64 36.90 38.12 44.07 66.83 MIT 32.21 31.67 32.18 32.74 32.25 31.19 34.17 34.78 40.72 66.02 伯克利 35.27 35.57 35.57 35.45 35.89 35.97 36.84 38.86 44.92 68.22 斯坦福 33.63 35.01 34.62 34.78 36.95 35.96 36.66 39.17 44.37 67.58 牛津 39.25 39.91 40.28 39.14 38.79 38.66 40.68 42.40 49.83 68.62 剑桥 38.06 39.22 40.98 39.02 38.75 38.25 39.34 43.17 49.21 68.55 加州理工 32.60 31.01 33.46 32.94 33.95 32.43 32.50 35.36 39.18 61.99 UCLA 37.09 37.33 37.22 37.78 37.61 38.18 39.38 41.19 46.69 69.50 芝加哥 38.89 37.20 37.61 36.33 36.98 37.75 39.04 39.62 46.39 68.22 哥伦比亚 36.41 37.33 36.63 37.75 37.92 38.52 39.96 41.89 48.36 70.84 霍普金斯 37.32 36.90 37.24 37.99 36.36 38.69 38.54 40.99 46.43 68.53 帝国理工 39.98 39.32 38.98 37.99 38.55 38.54 38.90 40.70 45.35 68.74 普林斯顿 33.07 33.44 37.26 35.29 35.50 35.98 36.09 38.71 44.41 67.12 密执根 37.00 37.37 36.89 37.66 37.78 38.53 39.50 42.30 48.30 71.14 多伦多 40.20 40.84 40.77 41.17 41.18 41.02 42.59 44.67 50.24 71.39 华盛顿 36.44 36.10 36.62 36.29 36.49 36.34 38.30 40.40 46.42 68.71 耶鲁 36.69 37.53 37.04 37.22 38.12 36.75 39.72 40.20 46.89 68.18 圣迭戈 36.34 36.67 36.07 35.58 35.76 36.17 37.81 38.55 45.01 68.76 PENN 36.87 37.07 36.68 37.30 36.81 37.65 39.75 41.07 46.87 69.53 杜克 36.26 36.38 36.39 36.70 35.52 37.78 38.92 40.21 46.87 69.84 北大 52.33 51.83 48.51 48.33 48.03 46.93 47.07 48.10 53.20 75.62 清华 57.24 52.32 50.18 48.56 49.29 48.40 48.68 49.21 55.78 77.22 3 、论文被引百分比 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 97 96 95 94 94 92 91 89 79 40 MIT 95 96 95 94 94 94 90 90 80 40 伯克利 94 94 94 93 92 91 90 86 77 38 斯坦福 96 95 94 94 91 91 90 87 77 39 牛津 93 92 90 90 90 90 86 83 71 38 剑桥 94 93 89 92 90 91 88 83 72 38 加州理工 96 97 96 97 96 96 95 92 85 46 UCLA 95 95 94 93 92 91 89 87 76 37 芝加哥 93 94 93 94 92 91 89 87 76 38 哥伦比亚 95 94 94 92 91 90 87 84 72 35 霍普金斯 96 96 95 94 94 92 92 89 78 38 帝国理工 96 95 95 95 94 93 92 89 79 38 普林斯顿 94 94 89 91 89 89 88 86 76 39 密执根 95 95 94 94 93 91 90 86 74 35 多伦多 95 94 94 93 92 91 89 85 73 35 华盛顿 96 96 95 94 94 94 91 88 76 37 耶鲁 95 94 93 92 91 92 88 86 76 38 圣迭戈 95 96 96 96 94 93 91 90 78 38 PENN 96 95 95 94 92 92 89 86 75 36 杜克 96 96 96 95 94 92 90 88 76 36 北大 90 90 91 90 89 90 88 86 72 30 清华 82 86 89 89 88 87 84 82 66 27 相关阅读: 1 、数据看北大清华同世界一流大学的差距(1) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922382 2 、数据看北大清华同世界一流大学的差距(2) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922533 3 、《数据看北大清华同世界一流大学的差距(3)》 http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922756 (转载请注明出处,电子邮件: st69786@tom.com )
个人分类: 文献计量学|3827 次阅读|0 个评论
科学计量学是一项人类行为学研究
热度 20 小水獭 2015-7-15 08:13
其实科学计量学和自然科学研究中的动物行为学我看差不多。只不过前者研究对象是科学工作者这个人群,而动物行为学研究的是动物,比如小白鼠。 就用研究小河狸造水坝这个行为学研究打比方吧。(在此鸣谢 kexuegzz 的例子)如果观察者只是站在一边默默记录 小河狸 造水坝的过程, 小河狸 们大可以视若无睹,不用理睬旁边的观察者,不用搭理他们的议论和八卦,自己安心造坝子即可。 如果喜爱科学计量的学者,静静的旁边看我们做实验,其实也没有什么不可以对吧? 如果观察者打算干预造坝子过程,比如按照怎么造可以给 小河狸 一块水果,那么 小河狸 也可以权衡,到底是待会自己去吃,还是换个样子造坝子换食物吃,都可以。 给出的指标如果能辅助我们的科学研究,有参考作用,也是好事。其实科学计量研究者也可以探索一下,在这些指标出现后,基础研究和实验科学界发生了什么变化。就是“干预”的结果。虽然把这么多人当做实验对象确实有点残忍,有种人体试验的不人道感,但是 “造指标” 或者“凑指标”的现象其实已经喧嚣尘上了,而且确实有研究的价值。 如果观察者把树干、泥巴和藤蔓都收起来,非得要 小河狸 按照他们的标准造。野生 小河狸 可能会咬人的,咬不过可能会换一个地方安家。 如果科学计量变成了硬性指标,已经严重干扰到我们的研究秩序,还是停下手头的活,研究一下科学计量学,找出他们的错误,在科学网上有理有据的写出来,对他们也是个约束。作为学者就是要 take a stand, 站出来保卫自己所珍视的东西:比如探索大自然奥秘,比如治病救人,比如教书上课。 如果可以的话,还是像真正的野生动物一样,悠然淡定的做自己的事情。这句话给我自己,也给做基础研究的朋友,其实也很真诚的给做科学计量学的朋友。不求但如人意,只求无愧我心。 后记:其实我一直弄混了在河边筑坝的beaver其实是河狸,而不是水獭。所以这篇文中的水獭筑坝其实是河狸筑坝。 因为是个寓言故事,而不是动物纪实,但是我依然修改原文的小水獭筑坝子为小河狸筑坝子。但是其实只有河狸(beaver)才筑坝。在此衷心感谢网友tom的指正。 tom 2015-7-17 23:12 另外,我不知道博主的网名是小水獭,看了上篇博主的博文,说水獭搜集树枝、泥土筑巢什么的,我觉得你可能混淆了水獭和河狸的区别,收集树枝筑巢筑坝的动物是河狸,它主要是以素食为主。水獭是以鱼虾蟹为食的肉食性动物,一般是挖洞居住。 以上都是凭记忆瞎说,有不对的地方见谅哈! 博主回复(2015-7-17 23:18) : Beavers are known for building dams, canals, and lodges (homes). They are the second-largest rodent in the world (after the capybara). 维基百科的。
个人分类: 活色生香de生物科学|6771 次阅读|57 个评论
同行评审的准确度
热度 35 小水獭 2015-7-12 23:21
我只是个刚入行的新手,所以本文是我自己的遇到的一些亲身经历,谈谈我自己的感受。我还没上小学的时候,有一次爸爸妈妈吵架,妈妈说爸爸得罪人。缘由是什么呢?是爸爸在教研室说:“ 老师的水平互相心里有数。 ”我妈说我爸这句话没错,但是说的场合错了,我爸口无遮拦的对着一个他认为水平一般的老师说这个话,感觉有点攻击别人的意思。那时候我就觉得:“哇,真神奇!在一个系里同事几个月竟然能知道别人的思想水平!!!怎么做到的啊?”这个疑问困惑了我二十多年了。 现在我进入科研的圈子,慢慢对此也有体会了。比如journal club ,seminar ,lecture 等交流活动,有些人总能提出很有质量的问题。首先他听懂了,其次他看出了问题,另外他对技术手段的优点和局限有足够的了解;这样的人确实会提出非常有水平的问题,甚至可以给别人以启发。像这样的人给我的印象非常深,我认为他、她们水平高。有时候他们可能在申请基金时失败,有时候他们没有大量文章发表,但是和他们谈谈,听他们说话,知道他们如何思考问题,我认为是可以判断一个人水平高低的,我想这就是同行评审。 但是小水獭也得说,有些人问问题的时候,暴露出他自己知识的欠缺,逻辑的错误,有时甚至没有听懂,却问了很长的一个问题。这时,会给他、她自己的形象大打折扣。所以还是得谨慎。 谈几次话之后,甚至不需要是在一个很狭窄的领域内的同行,互相也基本能心里有数,我所在的系department of Anatomy and Cell biology, 系里的老师有的做脊髓再生,有的做角膜炎症,有的做视觉,但是我相信他们互相也清楚彼此的水平。 评判一个人的学术水平,我仍然支持同行评审。人很高级,当然人也很复杂。如何给个渠道让人愿意给出真实判断才是最有智慧的。 本来只是花了 5 分钟写个人生小故事,简单而又感性,没想到竟然精选了,竟然又置顶了。特别意外的感觉,因为其他人比如张艺琼的 《 曾经 》 写的可是比我这篇内涵丰富很多很多,思考也深刻。其实我自己也是在好奇这个科学界的现象,为什么人人都恨指标,却又不舍得抛弃它。我想起很多年前看到的一句话:“ 爱一个人不需要理由。但是需要找到很多理由来讨厌一个人 。”好玩吧?也许领导欣赏一个人,是依据内心定性的判断。但是要对一个人说:“对不起,我认为你不符合这个岗位,因为 xxxx , yyyy , zzzz ……”的时候,就要用到指标这个“客观定量”的东西。来使别人心服口服;也说服自己,让自己坚信自己的判断是“有理有据”。
个人分类: 活色生香de生物科学|17336 次阅读|81 个评论
我的几则评论:SCI 、科学与技术
热度 10 wangdh 2014-2-9 11:00
我的几则评论:SCI 、科学与技术 (王德华) 科学和技术,科学研究,发表学术论文(学术专著),是做学问的人一生都在思考和践行的。时不时会有些新的启发和思考。所以,学术需要交流,不交流就会是一潭死水,可能会走偏。学术成果,是需要学界认可的,需要服务于社会和大众的。 科学和技术,不是闭门造车,不是闭关自守,也不是山寨模仿。如果说技术可以模仿,专利和知识产权的相关法规,是企业必须遵守的。世界能有序运转,需要不同系统的和谐,这个和谐是建立在严格规矩的基础之上的。科学家,需要规矩意识;企业家,也需要规矩意识。 学识,视野,胸怀,对于一个学者的发展是很重要的。 我们每个人的精力是有限的,经历是有限的,思想和思维是有局限性的,认识水平是有局限性的,所以,我们没有资格要求每个人都认可自己的观点,同意自己的说法。有些问题是需要反复讨论的,有些方面是需要提高认识水平和学术涵养而不需要讨论的。 学者把自己的观点和建议,直言不讳说出来,这是值得赞赏的,这是交流的前提和基础。 所以,我说: 敢于承认自身不足不容易 这几天,有几次发言,摘录在这里。 对王老师的文章: 以一个错误纠正另一个错误 【 既然大家反对唯SCI为唯一考核标准,那么论文这块,我们就换一个标准,就以本领域最好的那几个国际(国内)期刊为准如何?这也是很多国际上很多大学,研究中心对于科研论文,采用的考核标准。 】 1] 王德华 2014-2-8 08:45 国内很早就有这样的说法: 好的单位,看引用 citation ,一般单位,看点数 IF ,其他单位,看数量。 (王)博主回复 (2014-2-8 09:34) : 其实,引用都是可以运作的,也是靠不住的。 任何事情只要有人为因素的掺与,尤其怀有自私的心理,忽视或无视行业规范,都是不正常的。运作,这是个很有特色的当代中国词汇。 至于论文的引用(尤其是他引)、影响因子和论文数量,是不同阶段的评价手段,都是根据具体和实际情况而制定的,很多规矩是教授们参与的,也是征求过意见的,按说是合理的。关键问题就是对科研人员的考核问题。该不该考核?如何考核?谁来考核?这是一个大工程,既需要规矩和制度的完善,也需要学界总体素质的提高。没有一个指标是完美的,H-index 也一样。不管什么指标,单一化,绝对化,一定是不完善的。科学院很多单位早就实行了本领域的主流期刊,前5%,15%等等的做法了。但是,都存在很多问题。科学家的素养上不去,管理者的理念上不去,相互都不信任,严重的是无法做到相互信任,所以,一切都是可以理解的。理解,不解决问题。 有网友提供信息:杨卫在接受《大学周刊》访问时说: “ 以美国大学为例,它们是三流学校数论文篇数,二流学校数论文的影响因子,一流学校不对论文发表提要求,而顶尖的大学非常强调教学。 ” 对林老师的文章: 科研必须考虑中国国情 【 钱,在不同的家庭支出是不一样的。穷人家主要是吃与穿,富人家可以用来买宝马车! 一部分教授做基础研究(例985高校与一般高校中的国家重点学科),大部分教授做应用基础与应用研究,这是符合中国国情的。 中国这么多大学教师与研究人员,大量的产品技术如此落后,还不鼓励研究人员为中国工业服务,以SCI论文为考核最最重要指标,这符合中国国情吗? 】 王德华 2014-2-7 11:28 林老师这个问题,就是一个生存和发展问题,是 “ 买船和造船 ” 的问题。 恰恰说明了,科研是一个奢侈的职业,清贫而富足。 大学教育,需要清楚定位。教授需要有先进的教育理念,开放的头脑,上进的学习态度,兢兢业业的职业精神,还有严格要求学生。 不能总是山寨,不能总是拿来主义。 眼前,是生存问题。 长远,是发展问题。 (林)博主回复 (2014-2-7 11:32) : 我们只有技术进步,从山寨到超越,需要中国的大学做出杰出贡献。中国企业是根本无法完成的。至少需要许多年企业才有这个可能。 中国的企业需要技术支持,大学担负着为企业培养优秀人才的任务。靠屈指可数的大学教授支撑企业的发展,肯定是不可能的。企业发展,需要有规划,有目标。大学发展,需要定位,培养社会需要的人才,企业需要的人才。真才实学的人才,企业会喜欢的。 自然科学研究,必须有国际视野。地域特色,值得关注,但科学规律是统一的。 生存很重要,不可以忽视现实情况,实事求是是必须的。 发展是大计,没有发展,就没有出路。 当今与未来,需要平衡,需要规划,都不能荒废。不能太近视,只顾眼前利益,也不能不顾现实,空想蛮干。 没有远虑,必有近忧。 吴老师的文章: 好高的钉子,换个角度看看 【 从我卧室的窗户看过去,照片里这个东西(注:奥林匹克森林公园中的新的观景台】只有四根(钉子)。可除了我家的角度,估计哪里都能看到是五根(钉子)。可就是这个五根,在不同的角度看是不一样的。我一直想借此来说明一下做研究根本没必要跟风,即便用的材料一样,完全可以从不同的角度看同一个东西,能看出不同的侧面,会有不同的认识,这就是SCI论文。只要你想写,需要论文,那就认真去做,认真分析,认真的描述,认真的写出你的认识就可以了。 】 王德华 2014-2-9 09:25 (如果从外观上) 8 个方向看,可以写 8 篇 SCI 论文。但是凡是看到 4 颗钉子的,论文写得再漂亮,结论也是错的(数据错了)。如果有一天走到里面去,又可以写数篇 SCI 论文,说是关于机理研究的。所谓的机理可能只是关于一颗钉子的,那 5 颗钉子的机理(综合),估计需要 20 年的时间,需要无数博士教授的努力,需要好几个 973 课题的支持,最后还可能解决不了。 总之,科学家的话,不要随便相信。认真的人,可信点大点。粗心的人,可信点低。如果是心术不正的人,则纯属忽悠、欺骗。 所以,科学研究成果是有局限性的。科学的终极目标是探索自然的真相和规律。 科学研究是科学家做的,科学家是人,人本身就有很多的限制。一系列问题就来了。反之,也就可以理解了。 学术成果,需要学术界的共识,不是个人的宣传和吹嘘。 科学,需要实事求是。求真,求实,是科学的精髓。 奥,大家都知道了啊。那说的全是废话啊,赶紧打住!
个人分类: 个人观点|9482 次阅读|23 个评论
斯坦福前化学系主任Zare教授:如何评价研究者学术水平
热度 30 laserdai 2012-9-11 02:07
上篇博文, 尊敬的领导:H-index太不靠谱,请别祸国殃民了 评论中读者 whatfor 很及时地提醒了一篇讨论文章,非常值得和大家一起分享。但是 whatfor 没有开通博克,于是我就把这篇文章匆忙中翻译成中文,英文全文在最后,请参照。 whatfor 2012-9-10 08:31 Stanford 教授的文章 “Assessing Academic Researchers” 看全文 http://onlinelibrary.wiley.com/doi/10.1002/anie.201201011/abstract 这篇文章的作者,斯坦福大学的Richard N. Zare,是我的同行,更是前辈。他当年的工作致力于 激光控制化学反应 ,虽然后来的研究证明,这是一个很难的题目,一时半会做不成,但是这必竟开辟了一个很有重大科学意义的研究方向,相信后来人经过努力,将来一定能实现,那个时候使用激光分子剪刀手术,相信可以很容易修改基因中的坏份子,由此治疗一些遗传性的疾病,至于治疗癌症,艾滋病等等,更是小菜一碟。科普 Zare的工作,相信科学网上大博主王鸿飞更有资格。 激光控制化学反应,其实是在李远哲的 交叉分子束化学反应之后 的又一重大进步。与之平行的工作,是加州理工Zewail教授的 飞秒化学 (1999年诺贝尔化学奖)。Zewail的工作是在时间尺度上让人类更深一步地认识到了化学反应的本质,由此也说明了Zare的激光控制化学反应一时半会做不成。 闲话少说,回到正体。该文章发表于 Angew. Chem. Int. Ed. 2012, 51, 7338 – 7339。由于是匆忙翻译,请以英文为主。 Assessing Academic Researchers , 评价研究者的学术水平 Richard N. Zare, Department of Chemistry, Stanford University, 斯坦福大学化学系 In judging researchers early intheir career, the h-index seemsto be a poor measure 。 在评价处于 早期 职业生涯的研究者的学术水平方面,使用 h-index看起来是 一种 不靠谱的方法。 Not being highly cited does notmean that someone’s work will never have value 。 没有高引用率并不意味着某人的科学研究工作永远没有价值 最近到中国和印度旅行,有了很多机会和年轻的研究人员一起讨论怎样达到职业上的成功。他们中的很多人认为,通向成功的重要标准,是需要通过各种形式的 科学计量数据( “scientometric” data ) 评估,比如 h-index 因子,发表论文的引用次数。 我认为这些 科学计量数据评估有他们的用处,但是, 我 个人很不喜欢对此的过分使用甚至滥用 。 这些让我感觉到,十分有必要分享一下斯坦福大学化学系对教授评定终身职务(tenure)所使用的一些尺度标准,因为我曾经做了六年的系主任。请不要误解,我不是鼓吹大家使用我们的方式和标准,这也只是眼下美国大学中的终身职务(tenure)制度而已,我觉得认真分析研究一下是肯定大有帮助的。我当然认识到我们现在的这种制度中的一些内在的深层次问题。同时我也知道,有些外国人对其他国家的文化和做事方式不感兴趣,甚至傲慢地歧视(意思是说,对作者讨论美国的tenure制度不感兴趣)。尽管如此,还是让我来说些建议和忠告。 在当前美国大学的终身制度中,我们先聘用研究者为助理教授,在之后的7年中再决定是否转成永久职务。这是比较难的事情,因为我们要综合评估这个人的学术质量,学术声誉, 并紧密结合本系的氛围。这些人总是通过工作刻苦得到永久职位,如果出现误判的后果是严重的,受到损害的不只是一个研究人员,而是整个系的层面的 损失。因此,重中之重放在如何判断一个研究人员的真正价值,这就需要格外注意评估过程的公平,透明,整个系里标准尺度的一致性。我们一贯致力于消除这些教员和系里老教授之间的友谊,个人喜好等因素对做出最终决定的影响。 在斯坦福化学系,我告诉这些新教员有三个标准用来评估晋升永久职位。新人要得到永久职位需要做到: 1. 成为系里的突出人物。我们的系很小,因此需要每位成员和大家一起协调工作达到共赢。 2. 成为好老师。是的,我们喜欢每位成员都是一位伟大的教师。但是,我们只要求所有立志成为好老师 的教授能真正做到这一点。对我们这样的教学和科研兼重的大学,教学是一项关键任务,并且,应该把学生教到最好。 3. 成为模范研究人员。这项成为关键要求是因为斯坦福大学是一所研究型的大学。但是,这很难评估,并且也是评估中的最大挑战。 我们怎样评判某个人是一位很有价值的研究人员?当然,是系里的每位永久人员投票选出,但是这个过程需要通过大学设立的多级考核。因此,对上面第三点的要求是,没有最好,只有更好。某位需要晋升的人员的真正价值不只是通过本系成员的判断,更重要的,还需要考虑10到15份系外专家的评审意见,这些专家或者是美国本土的,或者是国际上的。我要求这些专家从正方面的眼光来审查是否某位人员的科学研究改变了化学领域的主流观点。 我们不去审查某位人员给大学申请来了多少项目,多少钱。我们不去数发表论文的数目。我们更不根据作者排名位置来给论文排名一二三。我们不使用期刊杂志的影响因子来衡量高论文的质量高低。我们几乎没有用过 h-index因子去衡量一个人的论文。我们只是简单的问系里系外的评审专家,是不是这人确凿的改变了我们化学上的主流看法。 所有这些都和在国外(中国,印度)旅行中听到的明显大相径庭。看起来在如何评价一个研究人员的真正价值方面,有太多偏重于看待发表论文的数量,而不是研究工作本身的质量和原创性。就像智商并不能说明一个人的研究工作是具有多么的开创性和原创性, h-index因子也不是一个全面的衡量,粗略地看这里有大概的联系,但是用它来评估一个早期的研究人员,h-index是不靠谱。在衡量职业成功方面,h-index 看起来更象是一个盖棺定论性的指标,而不一个衡量领先科学研究的指标。 不可否认,从论文引用次数可以看出一份科研工作的知名度,以及该篇论文的影响。没有高引用率不是说某人的科研工作永远没有价值。很多例子说明引用次数并不能立即说明该篇论文是否有价值。我想举出一个实际例子说明,是化学领域外的一个专门例子,来说明这一点。 S. Weinberg 有一篇论文,发表于Phys. Rev. Lett. 1967, 19, 1264–1266,题目是:轻子的一个模型。这个期刊大家都知道。这篇论文中,Steven Weinberg (当时是麻省理工的一位访问教授)说,弱的核力和强的电磁力可以通过交换亚原子粒子方式被统一,尽管二者的强度有天壤之别。这篇论文成为粒子物理的标准模型的基石,因此Steven Weinberg分享了1979年的诺贝尔物理学奖。1967和1968年,没有引用,1969 和 1970 各引用了一次,1971年引用了4 次,其中还有一篇自引。现在,根据Web of Knowledge的数据,这篇论文引用了5224次。很容易找到其他更多的例子说明,引用次数的上升需要一个慢的引导期,因为这些新想法和实验测量都不是当时的主流观点。 其他大学或许使用不同的评估方法,比如研究课题组的大小,或者发表论文数量,这些很 简单,可以让不懂行的大学管理者很容易明白。然而,我相信我们的评估标准能真正有助于找到最好的教授。我也认为我们的这些尺度最接近那些各种科技奖的评选程序,并且也很接近美国各个科学院选举院士的程序。 我不想给你们一个印象说,我们的程序是完美的。我们也晋升了几个人,后来发现他们 不再积极致力于科研和教学。不管怎样,我认为这套晋升程序对我们来说是最好的。我们的尺度并不是想每个人都追随着做,但是,我充分相信,这些实实在在的帮助我们把研究工作做到真正的卓越和杰出。 英文全文: On a recent trip to China and India, Ihad the opportunity to discuss withmany young researchers at various universities about the expectations thatthey must meet in order to succeedprofessionally. Many of them thoughtthat the road to success was measured invarious forms of “scientometric” data,such as h-index factors and the numberof publication citations. I do think thatscientometric data have their uses, but Iam appalled at the overuses and abuses.These discussions encouraged me toshare the criteria for making tenure atStanford Universitys Chemistry Department, where I was the departmentchair for six years. I am not necessarilyadvocating that anyone adopt our ways,which reflect the current Americantenure system, but I do think that a careful study of our criteria might be helpful.I am aware of the problems embeddedin the American tenure system. I amalso very much mindful of the arroganceof foreigners when they are not sensitiveto another countrys culture and ways.Still, let me dare to offer some advice. In the American university system,under the current tenure setup, we hireresearchers as assistant professors andthen decide within seven years whetheror not we want them to permanentlystay in the department. It is alwaysa difficult decision, because facultymembers to whom we give tenure determine the quality, reputation, andatmosphere of our department. Beginning faculty members work hard toachieve tenure and the consequencesof misjudging the promise of a beginningfaculty member are severe, not only forthe faculty member but also for thedepartment. Consequently, much emphasis is placed on judging a researchersworth, and this task requires greatattention to be given to the evaluationprocess so that it is fair, transparent, andconsistent with the standards that thedepartment sets. Every effort is made toavoid decisions based on simply friendship or favoritism on the part of the most established members of the department. At Stanford Universitys ChemistryDepartment, I tell beginning facultymembers that there are three criteriafor achieving tenure. The new hires, inorder to achieve tenure, need to be: 1. Outstanding departmental citizens . Our department is small so we needeveryone to work cohesively together for the common good of ourgroup. 2. Good teachers . Yes, we would loveevery faculty member to be a greatteacher. But we only ask that allfaculty members become goodteachers because anyone who aspiresto achieve that status can do so.Teaching is a critical component ofour service to a teaching and research institution, and we owe it tostudents to take our instruction tothe highest level possible. 3. Exemplary researchers . This last criterion makes sense because StanfordUniversity is primarily a researchuniversity. But it is the most difficultto assess, and presents the greatestchallenge. How do we judge someones worth asa researcher? Of course, all tenuredfaculty members in the department havea vote on this, but the process goesthrough many other layers of universityinspection and consideration. For thisreason, it is important to define this lastcriterion as best as we can. The worthiness of a faculty member is not solelyjudged by the members of the department but more importantly, by thecontents of 10 to 15 letters of recommendation that we collect from expertsoutside the department, both nationallyand internationally. We ask these experts whether the candidates researchhas changed the communitys view ofchemistry in a positive way. We do not look into how much fundingthe candidate has brought to the university in the form of grants. We do notcount the number of published papers;we also do not rank publications according to authorship order. We do not usesome elaborate algorithm that weighspublications in journals according to theimpact factor of the journal. We seldomdiscuss h-index metrics, which aim tomeasure the impact of a researcherspublications. We simply ask outsideexperts, as well as our tenured facultymembers, whether a candidate has significantly changed how we understandchemistry. All of this is quite different from what Iheard during my recent trips abroad. Itseemed to me that in the assessment ofa researchers value, too much emphasisappeared to be placed on the number ofpublications churned out by a researcherinstead of the quality and originality of the work . Just as the IQ number doesnot capture the creativity and originalityof a persons work, the h-index is nota full measure. Some rough correlationsdo exist, but in judging researchers earlyin their career, the h-index seems to bea poor measure. It is more a trailing,rather than a leading, indicator of professional success. It can not be denied that having knowledge of the number of citations of somepublication has value and serves as a firstmeasure of how well known is the workand how much impact does this specificpublication have. Not being highly citeddoes not mean that someones work willnever have value. Examples exist wherethe citation numbers do not immediately indicate what value some work has. Iwant to bring to your attention one suchinstance, and purposely choose something outside of chemistry to make thispoint. Consider the publication S. Weinberg, Phys. Rev. Lett. 1967, 19, 1264–1266 entitled “A Model of Leptons”. Byno stretch of the imagination is PhysicalReview Letters considered an obscurejournal. In this paper, Steven Weinberg(who was a visiting professor at MIT)showed that the weak nuclear force andthe much stronger electromagnetic forcecould be unified through the interchange of subatomic particles in spiteof the huge difference in their strengths.This work laid the basis for what iscalled the Standard Model of particlephysics, for which Weinberg shared theNobel Prize in Physics in 1979. In 1967and 1968, there were no citations to thispublication, in 1969 and 1970, onecitation each, and in 1971, the citationnumber jumps to four, one of thecitations being a self-citation, that is,a reference by Weinberg to his earlierwork. At present, this article has beencited 5 224 times, according to theThomson Reuters Web of Knowledge.It is easy to find other cases where therehas been a slow induction period because some idea or measurement liesoutside of what is popularly accepted atthe time of publication. Other institutions may need to usedifferent measures, such as the size ofthe research group or the numbers ofpapers published, which are all simplerto explain to university administratorswho have little understanding of thefield. However, we believe our criteriatruly help to appoint the best facultymembers for our department at Stanford University. We also think ourcriteria closely reflect the proceduresby which various prizes are awarded inour field, and how individuals are elected to membership in the different science academies in our country. I do not want to leave you with theimpression that our procedures areperfect. We have inadvertently tenureda few people who later showed lessenthusiasm for research and teachingthan we had anticipated. Nevertheless, Ithink this procedure is the best methodfor us. Our criteria are not for everyoneto follow, but I do believe that they havehelped us achieve true excellence anddistinction in research.
个人分类: 科学丑闻|13902 次阅读|69 个评论
过分强调SCI阻碍科技创新
蒋高明 2010-8-17 18:28
蒋高明 目前的科研评估使用最频繁的两个指标,一是SCI,二是科研经费,其余科学家的贡献都是忽略不计的。 关于SCI,对于其优点和缺点,已有不少话题讨论。这里,我想从科技创新方面,谈谈这个指标的不利影响。 我们目前要建立创新型国家,目的是使中华民族重新立于民族之林,或者作为一个负责任的大国,在科学技术方面,引领人类进步,引领地球生态系统可持续发展。在这方面,古代中国科学家对人类文明做出了杰出贡献,而今我们在科学上相对于西人似乎落伍了。科技进步是建设创新型国家的重要标志,适当的科研评估有助于我们认清差距,找出不足,然而,目前我们过分依赖SCI评估体制,一切都与这个指标挂钩,这就与建设创新型国家的目标背道而驰了。试分析如下: 第一,研究人员的思路被禁锢。国内科研人员,尤其那些从国外回来的科研人员,在国外得到的训练就是发表SCI, 其思路多为西方导师的,或者追踪国际好的SCI刊物,重复设计实验,或者干脆将国外做过的实验扩大规模继续做,基本没有原始的创新。发表SCI,必须有大量的科研经费支持,而申请经费,必须要通过专家这一关,专家多有自己的判断标准,而标准中,SCI先入为主,占了很大的分量。如果研究人员有很好的思路,但是在 SCI上没有突破,或者其思路与已经发表的SCI观点不一样,就难以获得批准。没有经费支持,就做不了实验,科研人员的一些想法就难以实现。从经费申请到论文发表,这已经形成了流程,容不得你有太多的创新。 第二,科研人员的精力被浪费,最好的创新年华交给了SCI文章。一个人最好的创造力应当是在30岁到40岁之间,这个时候人的精力最旺盛,想法最多,也想做一番事业。然而,目前的体制,让科研人员自己挣工资,能不能发出工资来,或者发多少,其评价标准就是那些SCI指标。这样,科研人员生活就没有保障,整天提心吊胆,担心失业下岗,不可能用心搞什么有风险的创新,只好为了完成任务,将大文章切成碎片发表。科研人员为保证基本的人格尊严和生活需求,不惜沦落为SCI的奴隶。SCI成了禁锢当代科研人员的洋八股、洋紧箍咒,其危害可与古代的八股文媲美,这是几十年来中国科技界不能出大成果的最终原因。古代中国科学对人类有贡献,其实,很多科学家本身不是专职的,多为官员,或者生活有保障的技工,他们不为生活发愁,才有精力有兴趣去稿发明创造。现在的科研跟经费跑,经费跟SCI跑,哪里允许你按照自己的研究兴趣发展。工作无法保障,加上科研不能凭兴趣,这两条严重阻碍了中国科学工作者的原始创新。 第三,全民学英语,浪费了巨大的国有资源。目前中国人学英语的时间,从幼儿园就开始了,学英语占据了研究生一半以上的时间,研究人员的成果还要求用SCI发表,而SCI刊物多为英文刊物,文章发表了,国内人再看,反而要给人家交版权费,要组织人再翻译回来,这就限制了中华民族整体科研思想的传播。其实,中国人发表了SCI反而人家不太相信,而拒绝引用,这对中国科技资源造成的巨大浪费。 第四,科学家研究的仪器设备被人家垄断,国产仪器研发被压制。要写SCI,科学家必须有数据,而数据需要科研仪器,而科研仪器就目前的质量水平看,肯定是西方发达国家的好,中国学者要发表 SCI, 就得买人家的仪器,这样,就永远打压了国产仪器研发。工欲善其事,必先利其器,仪器发明与改良都是非常重要的创新。然而,中国科学家为了发表SCI,一是不愿意搞这样的创新,二是不愿意买国产仪器。许多国家开放实验室,动辄拥有几千万元的仪器,但国产的几乎没有。以前,我们测定光合作用,还用国产仪器,而今,国产仪器早让国外仪器淘汰了, LI-6400, LCA-4, GFS-3000,这些仪器分别是美国、英国、德国制造的。 第五,国内刊物被打压,这些刊物以发表低水平重复性文章为主。由于许多单位规定发表国内学报文章不算数,于是好的文章都出了国,那些出国被拒绝的文章,才回来光顾国内刊物。国内刊物发表文章是满足国内毕业研究生博士生发表论文需要,这样的文章多为模仿SCI刊物所写的,从实验设计,到实验过程,到数据整理,观点多不新鲜,为低水平重复。这样办刊物,国内刊物很难走向国际。 第六,科学家不愿意作为新发明的评判员,不愿意做那些与SCI无关的科技公益事业。办学术刊物,开学术会议,出版学术专著,申请科技成果,人才培养,发明技术专利,等等,这些与国家科技创新密切相关的科研活动,因为不算绩效,没有人愿意去做。许多学者宁愿去审理国外的SCI刊物(那样做可以为自己发表SCI留后路),也不愿意为国内刊物审稿(审稿是无用功)。这样,国家的整体科研与学术水平就停留在低水平上重复,自娱自乐。科学家本身的水平交给国外的刊物去评判,这是中国科学家的悲哀,也是中国科技界的悲哀,更是中华民族的悲哀。 目前的SCI评估体制,使得中国科技界非常非常被动,思路被人家引领,仪器要买人家的,成果要发表在人家的刊物上,大的奖项如诺奖,还是人家说了算。在这样的前提下, 中国科学家永远是打工的角色,许多人浪费了青春乃至终身,一无所获,退休前就守着那些可怜的SCI,自己都不愿再多看一眼。 要摆脱这种被动地位,中国科学家应当重抖擞,树立科研信心,敢于创新,不随波逐流,不急功近利,踏踏实实做学问。而要实现这一点,必须将科研人员的工资保障了,不要让他们为五斗米而折腰,沦为SCI的奴隶,沦为科技官僚的奴隶,后者手里挥舞的大棒就是SCI。中国科学院,还有国内重点高校,应当严把入门关,从通过政策渠道稳定这些研究队伍,在理论上提出自己的核心观点,敢于挑战权威;在应用上瞄准国际重大需求,以任务带学科,最终实现科研创新与突破。 过分强调SCI是对自己的科研没有信心的直接表现,科学研究言必称美国,哪里来的科学信心?一个没有科研自信的民族,何谈立于民族之林,让人家尊重?更不要奢谈什么引领人类进步了。
个人分类: 环保呐喊|6972 次阅读|9 个评论
[转载]“金砖四国”科研实力大洗牌
annehuang 2010-2-2 05:50
作者:克莱夫库克森 来源:英国《金融时报》中文网 发布时间:2010-1-28 10:04:07 选择字号: 小 中 大 金砖四国科研实力大洗牌 报告分析了巴西、俄罗斯、印度和中国1981年以来的科研成果 就在20年前,苏联解体前夕,俄罗斯还是一个科学领域的超级大国,它所开展的科学研究,超过了中国、印度和巴西的总和。自那以后,俄罗斯不仅被科研发展速度震撼世界的中国甩在身后,也赶不上印度和巴西。 受英国《金融时报》之托,把全球1.05万份研究性期刊编入索引的汤森路透(Thomson Reuters),对金砖四国自1981年以来的科研成果进行了分析,从而揭示了世界科学领域的巨大变化。 数字不仅显示出中国科学研究令人惊叹的发展,也反映出巴西在这一领域的发展势头非常迅猛,印度的发展要缓慢得多,而俄罗斯则在相对衰落。 英国皇家学会(Royal Society)科学政策主管詹姆斯威尔斯顿(James Wilsdon)表示,三大因素在推动中国科研的发展。首先是政府的巨额投资。政府拨款金额的增长远远超过了通胀水平,覆盖从学校到研究生科研的整个系统。 其次是知识从基础科学到商业应用的有组织流动。第三是有效而灵活地利用侨居北美和欧洲的大量科技人才的专业知识,吸引职业生涯中的科学家回国,允许他们部分时间在西方工作,部分时间在中国工作。 只有受到一定认可的同行评审期刊的论文才会纳入统计,但(中国的)科研质量仍良莠不齐,汤森路透研究评估主管乔纳森亚当斯(Jonathan Adams)表示。不过,他补充说,中国的科研质量正逐步提高。他们具有一些相当良好的激励机制,未来将产生高质量的研究。 与中国一样,印度也有很多人移居海外在国外居住的许多具有科学教育背景的印度人正在归国,但他们多数投身商业,很少从事研究。印度高科技公司与本土基础研究机构之间的联系非常匮乏,威尔斯顿表示,即便是本领域最优秀的院校印度理工学院(IITs),也很难招到顶尖的教职人员。 与此相关的一个现象是,在国际大学素质比较中,印度的表现较为逊色。由高等教育咨询公司QS编制的2009年亚洲大学排行榜显示,印度最好的印度理工学院孟买分校排在第30位。而中国最好的大学排在第10名,香港的排名则更靠前。 QS信息部主管本索特(Ben Sowter)表示,印度学术界的部分问题,可能在于大学院校都惯于做官样文章。另一个问题是,最优秀的院校疲于处理国内众多的就读与执教申请,以致于无法形成作为世界级大学必备素质的国际视野。印度人力资源部部长已加紧与美英大学建立联系,这应该有助于改变现状。 中国、印度和俄罗斯具备优势的研究领域往往是物理、化学和工程,而巴西则在医疗卫生、生命科学、农业和环境方面比较突出。 2008年俄罗斯发表的研究论文比巴西和印度都少。问题在于,苏联解体后,俄罗斯大幅削减了研发经费。亚当斯表示。 尽管科研新秀大批外流,但国内还是有一个庞大的人才库。任由(俄罗斯)人才继续外流,不符合世界其它地区的利益。我们需要更多的共同投资安排,以帮助俄罗斯科研恢复原有的速度。(译者/何黎) 相关阅读: 英文原文 更多阅读 汤森路透相关报告(英文) 报告称俄罗斯科学走下坡路 报告称中国科研产出量仅次于美国
个人分类: 科学计量学与科技评估|1540 次阅读|0 个评论
论文引用率 ----- 科研评估的主要依据,而非同行评审
xupeiyang 2009-10-26 16:07
http://www.sciencenet.cn/htmlnews/2008228145422610202330.html 论文引用率将成为英国高校科研经费分配新标准 新系统将主要依据科研成果引用程度,而非复杂的同行评审过程 英国高等教育资助委员会(HEFCE)去年出台了一项提案,到2009年时,将一套新的评估尺度系统全面应用于英国大学的科研经费资助上来,取代之前的科研评估系统RAE(Research Assessment Exercise)。 许多人知道,RAE大学排名是英国各机构院所研究实力的直接依据。实际上,已经运行多年的RAE系统,目的就是为了能按各学校的研究质量分割研究经费。为此,RAE负责评估英国高校和研究机构的科研质量。RAE把英国的研究分成69个分学科,各大学以系为单位上报进行同行评审,并按照1,2,3b,3a,4,5,5*七个等级打分。评估结果直接关系到各个大学的下拨经费,因为只有得分为3以上的机构才能获得资助。而得分越高,得到的经费也会越多。 而这套名为Research Excellence Framework的新系统将主要依据科研成果的引用程度,而非上述较复杂的同行评审过程,来在各个大学间分配每年10亿英镑的高校科研经费。英国高等教育资助委员会的这一举措,旨在提高科研经费分配的公平性和简化经费申请过程。 不过,英国的一些学术团体警告说,这项激进的改变将给年轻研究人员带来极大的不利。他们认为,新系统是对那些没有充足时间确立足够引用度的研究人员的一种歧视。Steve Smith是拥护和代表英国优秀高等学府的团体1994 Group的主席,他表示,显然,你不会想要这样的系统,让一个人在学术生涯的开端就开始受罚。这让我十分忧虑。 然而,2月份进行的一项商讨表明,英国学术团体并非完全反对新的标准,但他们的确有所顾虑。一些政策分析家对此次大规模的动作表示担忧新的尺度可能无法恰当地反映一些学科的特点和价值,而这些学科往往又是很花钱的新兴交叉研究领域。去年,英国高等教育资助委员会自身的核账委员会就曾警告说,如果新系统要有公信度,许多技术领域需要进一步的考虑。 英国高等教育政策研究所的主任Bahram Bekhradnia说,RAE毫无疑问存在着缺陷,我们通过不断对其进行修正来解决这些问题。但它可能会比任何将要出现的新系统更好。 然而,英国高等教育资助委员会正在对商讨的回应结果进行分析,为新系统进行辩护。在其看来,英国大学对这一提案还是广泛支持的。(科学网 任霄鹏/编译) 更多阅读(英文) Research Excellence Framework背景资料 http://www.hefce.ac.uk/research/ref/ Research Excellence Framework The Research Excellence Framework (REF) is the new system for assessing the quality of research in UK higher education institutions (HEIs). In previous years, research quality has been assessed periodically through the Research Assessment Exercise (RAE). We are currently consulting on proposals for the new framework. We will issue guidance on the REF in 2010 after completing the consultation. The first REF exercise is due to be completed in 2013. We are working in collaboration with the Scottish Funding Council, the Higher Education Funding Council for Wales, the Department for Employment and Learning (Northern Ireland), and with a wide range of stakeholders to develop the new framework. Representatives of the four funding councils sit on a steering group which oversees its development. Assessing research quality The REF will focus on three elements, which together reflect the key characteristics of research excellence. These are: Outputs The primary focus of the REF will be to identify excellent research of all kinds. This will be assessed through a process of expert review, informed by citation information in subjects where robust data are available (for example, in medicine and science). Impact Significant additional recognition will be given where researchers build on excellent research to deliver demonstrable benefits to the economy, society, public policy, culture and quality of life. Impacts will be assessed through a case-study approach that will be tested in a pilot exercise. Environment The REF will take account of the quality of the research environment in supporting a continuing flow of excellent research and its effective dissemination and application. http://www.hefce.ac.uk/research/ref/Biblio/