科学网

 找回密码
  注册
科学网 标签 科研评价 相关日志

tag 标签: 科研评价

相关日志

除了影响因子以外的其他研究指标
Charlesworth 2020-9-15 09:04
2020 年是不平凡的一年,原因有很多。世界各地媒体的头版头条都在报道新冠病毒的影响及随之而来的经济衰退现象。总体而言,在未来的许多年里,人们可能将持续感受到新冠病毒在高等教育和学术研究方面造成的连锁反应。然而,即使今年没有出现新冠病毒疫情大爆发, 2020 年也已经见证了一些重大变化,而这些变化也必将会对学者们产生短期和长期的影响。其中一个尤为重要的变化是中国政府决定将关注重心从高影响因子期刊转向其他期刊,如中文期刊或更加专业的期刊。 背景 首先,我有两个问题。 期刊影响因子 (JIF) 到底是什么 ? 不再敦促学者们在高影响因子期刊上发文章这一决定为何如此重要?期刊影响因子的起源可以追溯到 50 年前。尤金 · 加菲尔德博士通过假设某期刊被该领域的其他期刊引用的次数最多,确定了某一学科的顶级期刊。通过这种方法,加菲尔德博士找到了一种判断期刊优劣的方法。加菲尔德博士用某期刊在两年内发表的文章数除以未来一年中该期刊被其他优质期刊引用的次数,得出了影响因子( mjl.clarivate.com )。由于影响因子计算方法简单,且为学者及大学领导提供了他们迫切需要的指标,因此它成为了作者决定在哪一期刊发表研究文章的最重要也是唯一重要的因素。 然而,在影响因子的后续发展过程中,出现了两个主要问题。 第一个问题,人们总是担忧影响因子作为指标的可靠性,且在对其进行测试时,得出的结果通常都不尽人意。比如,引用量是质量的定量指标,而非定性指标。引用某些文章的原因可能是它们质量太差,并非质量很高。因此一篇文章可能会因招致很多批判性评论而具有高引用量。 第二个问题可以总结为 “ 本末倒置 ” 。 许多国家的政府和机构将影响因子作为衡量文章质量的指标,并未意识到这种做法可能会带来一些意想不到的后果。其中一个后果是,研究人员进行研究的目的是展示其才智和技能,而非推动科学进一步发展,比如对一些几乎没有现实意义的主题进行高度理论性的研究或定量研究。一些科学研究,比如以人类为对象的定性研究或具有实际意义的研究,通常难以发表在高影响因子期刊上,因此也无法得到广大学者的青睐。 指标浪潮 尽管影响因子受到一些人的批判,但直至 21 世纪初才出现了一个能够与之抗衡的竞争对手。 然而这个具有竞争力的因素出现后,又同时涌现了多个指标。 2005 年,出版公司爱思唯尔推出了 Scopus ( scopus.com )。这是一个类似于科学网( Web of Science )的期刊数据库,对其所收录的期刊提出了一些指标。 Scopus 收录的期刊比科学网还多,而且对于出版商而言,期刊收录在 Scopus 中的难度也要低很多。然而,直到 Scopus 在 2016 年引入其 “ 引用分数 ” ( CiteScore ,类似于影响因子)这一指标后,研究人员才多了一种指标可以选择。 在此期间,也出现了许多其他工具,使作者能够在引文分析的基础上进行自己的研究。 其中,使用度最高的是谷歌学术搜索引擎( scholar.google.com )。人们可使用谷歌学术在学术文章和期刊库中搜索需要的文章和信息。在谷歌学术中,搜索学术文章、期刊和作者,就会出现相应的文章。同时,也可在其数据库的基础上,创建一些新的指标。谷歌学术中收录了几乎所有已发表的文章,与科学网和 Scopus 有限的收录量形成对比。除此之外,还可以通过名为 Publish 或 Perish ( https://harzing.com/resources/publish-or-perish )的特殊软件来访问谷歌学术的数据库。其他的工具和数据库包括 Scimago ( https://www.scimagojr.com/ )和微软学术 ( Microsoft Academic , https://academic.microsoft.com/home )。其中 Scimago 的数据来源于 Scopus ,微软学术的使用方式类似于谷歌学术,也可以通过 Publish 或 Perish 获取其指标。 期刊信息的其他来源包括一种治疗元素。该元素是 Journalytics 数据库的一个共同特征,开发公司是美国的 Cabells ( cabells.com - 信息披露: Simon Linacre 是 Cabells 的其中一位董事)。 Journalytics 将 11000 余种期刊编入索引,收入所有期刊的数据,旨在帮助作者作出合理的投稿决定。 这些数据包括基于以下因素创建的指标:某期刊相对于同一学科其他期刊的引用水平( Cabells 分类指数,英文简称 CCI )和相对于同一学科其他期刊,该期刊对投稿文章的接受水平(接受难度,英文简称 DA )。 未来 以上列出的所有指标都提供了不同的要素,帮助学者们选择适合他们研究文章的期刊。但是这些指标会继续完善和发展。除此之外,还有许多新的或潜在的指标。这些指标将会支持研究人员使用更加复杂的数字工具。过去几年里,替代计量指标得以广泛应用。他们的主要支持者 Altmetric 公司( altmetric.com )强调了文章或期刊在社交媒体和其他在线对话中受欢迎的程度。 借助上述指标,作者可以更加深入地了解其研究产生的广泛影响。所谓的 “ 任务驱动型 ” 研究,如围绕联合国 17 个可持续发展目标的研究 ( https://www.un.org/sustainabledevelopment/sustainable-development-goals/ )数量越来越多,且相较于其他研究能够吸收更多的资金,衡量和报告研究出版物影响力的能力可能会变得越来越重要。 因此,学者们应期望资助者或相关机构都要求研究具有明显的影响。这样的话,我们才能创建出以现实意义、社会利益和可持续发展目标本身为基础的指标,并将它们用于研究追踪过程中。 研究策略 由于所有研究者倾向于关注有形的引用结果,且中国也不再力推高影响因子期刊,因此,作者们未来的关键应是采取灵活有效的研究发表策略,以确保在实现个人、机构和国家研究目标方面取得有意义的进展。 为帮助中国作者们更好地适应这一过程,优化其研究成果,此处提供八项策略: 运用上述所有指标,充分了解您的研究主题的发表前景 将各种指标融会贯通,将所有数据都运用到您的决策过程中,而非只依赖其中一项指标 通过设立短期、中期和长期目标制定研究策略 对自己的研究进行调研,也就是说,采用自己在研究中所使用的严格标准来更好地了解文章发表过程 尽可能清楚地了解您、您所在的机构和国家所需要的研究类型,并将其融入您的出版策略中 向同行或资深前辈询问他们对您所投稿的期刊的意见以及他们得出这些意见的指标依据 确保自己有多项研究,且处于不同的研究阶段,这样一来,在等待已完成文章被评审、修改和发表的同时,也一直有新的研究在进行 回顾自己的策略,并在指标或环境发生变化时进行更改。 本文作者:Simon Linacre是Cabells国际营销与发展总监。如欲了解更多有关掠夺性期刊以及如何识别掠夺性期刊的内容,请访问 https://www2.cabells.com/about-predatory 论文润色 | 学术翻译 | 其他发表支持服务 | 英国编辑团队介绍
5185 次阅读|0 个评论
如是我闻皆于梦中12. 求败者联盟——心智评价系统(完整版)
dhlyd300 2020-6-24 15:23
笔者问:“ 关于未来,作为一个高校教师,我最为关心的首要问题是: 中国目前的科研评价体系能够在现有社会制度体系下做颠覆性的重构吗?如果可以,这种 重构的原理是什么 ? 过程又是如何展开 的呢 ?” 四维永道答:“科研评价实质是对人的心智的评价,这是一个世界性的难题,而中国社会几千年形成的所谓“人情社会”,对于这个问题的解决尤其困难,以契约精神建构的现代西方科研评价体系,情况比中国好一些,但也是问题丛生,事实上,西方科研评价系统的腐败趋势正在加速。 很多人已经意识并揭示了现有科研评价体系的问题:比如网络上关于“论师娘的优美感”论文的讨论,又比如“钱学森之问”等等,但总的情况是批评揭示问题很多,建设性的方案很少,体制内专家们的一些所谓的改革方案实际上不能解决问题,反而使问题更加严重。 事情的转折点,其实就发生在 2020 年,中国最高层发布了所谓的“揭榜选帅”政策,这实际上向外界宣示了国家最高决策层已经充分意识到了目前评价体系的严重问题,并且下决心彻底解决这个问题(“揭榜选帅”实际上就是类似过去的“揭皇榜”,意味着“有重疾,太医院的众多国手太医们已经束手无策了,没办法只好向天下遍寻高手,而事实上,这种所谓民间高手,几乎是不存在的,所谓“大贤隐于朝,小贤隐于野”,当前时代下的“贤达们”实际上还是在体系内,只是评价体系把他们都隐藏了”) 2020 年末,有一批人开始建设一个所谓的“ 求败者联盟 ”,正是这个系统的建立和完善,彻底解决了中国科研评价问题。” 笔者问:“ 求败者联盟是一个什么东西?为何能解决如此困难的问题?” 四维永道答:“求败者联盟名字的由来本身就是科研评价系统不断完善的产物,要理解这个系统的工作原理,需要通过一个类比来说明,很多人都有医院做 CT 检查的经验,这里就用 CT 来做类比说明。 CT ( Computer Tomography 计算层析成像)的工作原理如图 1 所示,其数学基础是 Radon 变换,本质上是利用对同一个对象的多个不同角度的低维投影信息获取高维信息。其核心构成包括: 1 )能够穿透检测对象的投影射线源(对象的不同内部组织必须对射线有不同的吸收率); 2 )探测穿过对象射线的传感器阵列; 3 )旋转机构(通过旋转对象或者射线源 - 传感器,获取对象不同角度的投影信息); 4 )算法程序(根据 Radon 变换建立数学模型,设计算法,把算法编制为计算机程序,计算传感器阵列数据重构对象)。根据 Radon 变换的数学原理,只要投影变化的角度足够小,投影数据足够多,就可以实现任意精度的目标对象重构。 图 1. CT 工作原理图 ( 利用多个一维投影数据重构一个二维对象 ) 与 CT 原理一样,对人的心智评价,也需要投影射线源、探测传感器、旋转机构和重构算法。事实上这套人类心智评价系统,最开始的名字并不是“求败者联盟”,而是叫做“ 基于区块链的科研绩效评价系统 ”。” 笔者问:“这个“基于区块链的科研绩效评价系统”是如何开启解决科研评价问题之门的呢?” 四维永道答:“ 2020 年中国最高层发布了所谓的“揭榜选帅”政策后,刺激了一批人,他们决定开发一套全新的系统,从根本上实现人类心智的客观、公正和高效评价,从而彻底解决科研绩效的评价问题。 经过反复的研究和讨论,他们决定创建一套类似 CT 原理的系统,来评价科研绩效,其工作过程如下:首先,利用第三代区块链技术 (联盟链技术: Hyperledger Fabric )创建一个超级账本区块链系统,每个高校和研究机构作为一个节点接入区块链,而高校和研究机构的科研人员个体作为用户,通过各自单位的节点进入区块链系统,利用智能合约( Channel Code 或者叫做通道链码)进行 三种交互 : 1 )发布自己的代表作品(自己的文章、专利,如果没有自己的代表作品,也可以发表自己认为最有水平的他人文章、专利的评价综述,总数不能超过 N 篇); 2 )对他人发表的代表作品进行评价打分 (数量不限); 3) 对别人评价自己代表作的打分评价再评价打分(要求对最开始的 M 个评价必须在规定时间内给出评价打分,超过 M 的评价可以自行决定是否亲自给予评价打分,还是由系统给出一个默认的回应分数);最后,各高校和研究机构根据每个科研人员的 四种分数 ( 自己给别人代表作的评价打分、自己打给别人评价自己代表作打分的再打分、别人给自己代表作的评价打分、别人给自己评价别人代表作打分的再打分 )的情况,设计相应的算法,给出每个科研人员的科研绩效。 通过四种分数重建科研人员心智的实现原理,参照类比 CT 工作原理,用图 2 来说明,从图中可以看出,对心智进行投影重建比 CT 复杂多了,所以对算法和数据的积累都有很高的要求。” 图 2. 四种评价分数的 CT 类比投影图 笔者问:“通过 CT 的类比图示说明,我基本明白了“ 基于区块链的科研绩效评价系统 ”的工作原理,但这个系统的实施路线图是如何展开的呢?” 四维永道答:“系统的展开实施大体分为四个阶段: 1. 原始数据积累阶段:最初发起“基于区块链的科研绩效评价系统”的建设者们很有智慧,他们首先基于第三代区块链技术建设了一个初步的系统,然后通过游说,说服了几个省的高校工委的书记们,选择了几个条件合适的高校作为试点,具体操作如下:试点高校教师通过本校区块链节点进入系统,完成代表作发布、对他人代表作打分、对他人对自己代表作打分的再打分,按照规定数量完成打分的教师,其年度科研绩效的基础部分即视为合格,足额发放,科研奖励性绩效的评价则延续已有的方案执行,但是没有完成区块链打分的教师,不能发放科研奖励性绩效; 2. 心智评价算法初步应用阶段:当区块链打分数据积累到一定数量时,向全社会公开招募算法开发者,经过筛选合格的团队,可以发放证书进入区块链系统,访问区块链的打分数据,开发完善心智评价算法;高校工委组织专家定期测评各开发团队的评价算法,通过评审的算法,在系统上以智能合约的形式发布,各高校根据自己的情况,自由选择多个算法(被选中的算法,通过智能合约给开发团队付费),对本校教师的科研进行评价,每种评价的结果反馈给每个教师,由教师对每种算法打分评价(教师多数会选择对自己有利的算法),学校汇总教师对评价算法的打分情况,按照分数的高低排列,最终选择本校本年度的执行评价算法(通过教师投票选择评价算法,可以最大限度减少分歧阻力),最终执行算法不能固定,必须每年投票决定; 3. 系统的推广阶段:经过前两个阶段的不断积累完善,系统向更多的高校推广,并且对大企业、专业研究机构开放,比如:华为、腾讯、阿里、百度和中科院系统,同时更多的算法评价团队进入系统参与各具特色的评价算法开发;科研的公平、公正、公开和诚信的风气开始初步建立; 4. 系统的完善阶段:更多的机构进入系统,形成了一个生机勃勃、良性发展的超级生态系统,比如:( 1 )央行的数字货币在系统里得到充分测试和应用,所有数字产权交易都是通过数字货币完成;( 2 )国家基金的选题、评审和结题都是在系统内完成;( 3 )一些工程技术类的研发性项目的招投标和验收也在系统内完成;( 4 )几乎在所有科学技术领域都出现了许多超级研发团队,获得了高额的投资,产生了强者恒强的现象;( 5 )系统自然涌现出公平、高效的知识产权纠纷仲裁机制。 之后,系统更名为“ 基于区块链的心智评价系统 ”” 笔者问:“通过前面的讲述,我基本明白了“基于区块链的心智评价系统”的工作原理和实施过程,但是为什么系统最后的名字叫做“ 求败者联盟 ”呢?” 四维永道答:“ 随着系统的不断完善和扩展,出现了许多最初开发者们所没有意料到的情况: ( 1 )现存的大量科研管理机构职能基本被系统取代了; ( 2 )科研论文期刊、杂志,甚至专利机构的作用也基本被系统取代了; ( 3 )大量的论文和其他数字技术使用中文首发在系统,英文表述的比例日趋下降; ( 4 )通过邀请和背书机制,系统向全世界扩展,系统成为了世界科研合作、成果展示和交易的平台; ( 5 )出现了许多以系统为生的多种新业态,比如提供评价打分作弊服务和专业打击作弊的算法服务,二者相互竞争,促进系统不断升级完善; ( 6 )知识产权仲裁公正、高效,每次仲裁由系统随机选择相关行业的“独孤求败者”组成仲裁庭进行判决; 当然,最重要的一个现象,是系统自发产生了一批各个领域杰出的代表人物,他们具有如下的特质: ( 1 )具有公认的超一流专业素养和成果; ( 2 )具有公认的学术品格和超凡的人格魅力; ( 3 )已经财富自由,其科学研究的目的不再是追求财富积累; ( 4 )已经精神自由,有良好的精神生活环境(比如美满的家庭、富足的精神生活); ( 5 )对未知有强烈的好奇心和深刻的孤独感,促使他们有一种悲天悯人的情怀和殉道者的心态,其最高的追求是求得灵魂的大自在; 人们把具有以上特质的人称之为“独孤求败者”,他们处在行业的塔尖,强烈的孤独感,促使他们希望发现和培养超过他们的人才。 正是一大批“独孤求败者”在各个领域的出现,科研生态全面进入了公平、公正、公开和廉洁高效的时代,他们给系统注入了灵魂,指明了系统的发展进化方向,整个人类社会的科学研究群体仿佛是一个巨大的生命体,人类的创新能力有了指数级的提升,从而进入一个全新的创新驱动发展的时代。 最后,用现代复杂系统科学的术语来给你做一个类比总结:单个的人类个体本身就是一个复杂系统,这个系统有两个特殊的“虚拟层结构”,一个是 DNA 基因,负责细胞的新旧更新和个体的繁殖,另一个是大脑,负责产生自我意识和无尽的想象力,给个体注入灵魂;“基于区块链的心智评价系统”好比是 DNA 基因,负责科研生态整体的日常新旧更替,而“求败者”群体,则是科研生态整体的大脑,负责产生科研共同体的整体自我意识和无尽的想象力,给这个巨大的科研共同体注入灵魂,为系统源源不断提供负熵,使系统向更高维度有序进化,从根本上杜绝了所谓“一流人才用二流,二流用三流,三流用下流”的传统管理系统腐化堕落的发展宿命。 有鉴于此,人们把系统最终命名为“ 求败者联盟 ”。” ******************************************************************************** 注释 第三代区块链技术的说明: n 区块链作为一种由多种技术创新组合诞生的新技术,主要涵盖密码学,网络传输协议,分布式存储等技术概念。主要概念包括:(1)交易: 区块链数据存储的基本单位;(2)区块:区块链数据存储的主要单位;(3)节点:构建分布式区块链网络的基本单位;(4)共识算法:对交易达成共识的算法逻辑或机制;(5)记账权:添加区块链账本记录的权利;(6)智能合约:基于区块链共识的逻辑代码。 n 第三代区块链实现模型 注释 两种评价打分表的说明: 附注:原创图文, 转载请予以标注。
个人分类: 求败者联盟——心智评价系统|2212 次阅读|0 个评论
如是我闻皆于梦中11. 求败者联盟——心智评价系统(5)
dhlyd300 2020-6-23 20:02
笔者问:“通过前面的讲述,我基本明白了“基于区块链的心智评价系统”的工作原理和实施过程,但是为什么系统最后的名字叫做“ 求败者联盟 ”呢?” 四维永道答:“ 随着系统的不断完善和扩展,出现了许多最初开发者们所没有意料到的情况: ( 1 )现存的大量科研管理机构职能基本被系统取代了; ( 2 )科研论文期刊、杂志,甚至专利机构的作用也基本被系统取代了; ( 3 )大量的论文和其他数字技术使用中文首发在系统,英文表述的比例日趋下降; ( 4 )通过邀请和背书机制,系统向全世界扩展,系统成为了世界科研合作、成果展示和交易的平台; ( 5 )出现了许多以系统为生的多种新业态,比如提供评价打分作弊服务和专业打击作弊的算法服务,二者相互竞争,促进系统不断升级完善; ( 6 )知识产权仲裁公正、高效,每次仲裁由系统随机选择相关行业的“独孤求败者”组成仲裁庭进行判决; 当然,最重要的一个现象,是系统自发产生了一批各个领域杰出的代表人物,他们具有如下的特质: ( 1 )具有公认的超一流专业素养和成果; ( 2 )具有公认的学术品格和超凡的人格魅力; ( 3 )已经财富自由,其科学研究的目的不再是追求财富积累; ( 4 )已经精神自由,有良好的精神生活环境(比如美满的家庭、富足的精神生活); ( 5 )对未知有强烈的好奇心和深刻的孤独感,促使他们有一种悲天悯人的情怀和殉道者的心态,其最高的追求是求得灵魂的大自在; 人们把具有以上特质的人称之为“独孤求败者”,他们处在行业的塔尖,强烈的孤独感,促使他们希望发现和培养超过他们的人才。 正是一大批“独孤求败者”在各个领域的出现,科研生态全面进入了公平、公正、公开和廉洁高效的时代,他们给系统注入了灵魂,指明了系统的发展进化方向,整个人类社会的科学研究群体仿佛是一个巨大的生命体,人类的创新能力有了指数级的提升,从而进入一个全新的创新驱动发展的时代。 最后,用现代复杂系统科学的术语来给你做一个类比总结:单个的人类个体本身就是一个复杂系统,这个系统有两个特殊的“虚拟层结构”,一个是 DNA 基因,负责细胞的新旧更新和个体的繁殖,另一个是大脑,负责产生自我意识和无尽的想象力,给个体注入灵魂;“基于区块链的心智评价系统”好比是 DNA 基因,负责科研生态整体的日常新旧更替,而“求败者”群体,则是科研生态整体的大脑,负责产生科研共同体的整体自我意识和无尽的想象力,给这个巨大的科研共同体注入灵魂,为系统源源不断提供负熵,使系统向更高维度有序进化,从根本上杜绝了所谓“一流人才用二流,二流用三流,三流用下流”的传统管理系统腐化堕落的发展宿命。 有鉴于此,人们把系统最终命名为“ 求败者联盟 ”。” 附注:原创图文, 转载请予以标注。
个人分类: 求败者联盟——心智评价系统|2047 次阅读|0 个评论
如是我闻皆于梦中10. 求败者联盟——心智评价系统(4)
dhlyd300 2020-6-23 20:01
笔者问:“通过 CT 的类比图示说明,我基本明白了“ 基于区块链的科研绩效评价系统 ”的工作原理,但这个系统的实施路线图是如何展开的呢?” 四维永道答:“系统的展开实施大体分为四个阶段: 1. 原始数据积累阶段:最初发起“基于区块链的科研绩效评价系统”的建设者们很有智慧,他们首先基于第三代区块链技术建设了一个初步的系统,然后通过游说,说服了几个省的高校工委的书记们,选择了几个条件合适的高校作为试点,具体操作如下:试点高校教师通过本校区块链节点进入系统,完成代表作发布、对他人代表作打分、对他人对自己代表作打分的再打分,按照规定数量完成打分的教师,其年度科研绩效的基础部分即视为合格,足额发放,科研奖励性绩效的评价则延续已有的方案执行,但是没有完成区块链打分的教师,不能发放科研奖励性绩效; 2. 心智评价算法初步应用阶段:当区块链打分数据积累到一定数量时,向全社会公开招募算法开发者,经过筛选合格的团队,可以发放证书进入区块链系统,访问区块链的打分数据,开发完善心智评价算法;高校工委组织专家定期测评各开发团队的评价算法,通过评审的算法,在系统上以智能合约的形式发布,各高校根据自己的情况,自由选择多个算法(被选中的算法,通过智能合约给开发团队付费),对本校教师的科研进行评价,每种评价的结果反馈给每个教师,由教师对每种算法打分评价(教师多数会选择对自己有利的算法),学校汇总教师对评价算法的打分情况,按照分数的高低排列,最终选择本校本年度的执行评价算法(通过教师投票选择评价算法,可以最大限度减少分歧阻力),最终执行算法不能固定,必须每年投票决定; 3. 系统的推广阶段:经过前两个阶段的不断积累完善,系统向更多的高校推广,并且对大企业、专业研究机构开放,比如:华为、腾讯、阿里、百度和中科院系统,同时更多的算法评价团队进入系统参与各具特色的评价算法开发;科研的公平、公正、公开和诚信的风气开始初步建立; 4. 系统的完善阶段:更多的机构进入系统,形成了一个生机勃勃、良性发展的超级生态系统,比如:( 1 )央行的数字货币在系统里得到充分测试和应用,所有数字产权交易都是通过数字货币完成;( 2 )国家基金的选题、评审和结题都是在系统内完成;( 3 )一些工程技术类的研发性项目的招投标和验收也在系统内完成;( 4 )几乎在所有科学技术领域都出现了许多超级研发团队,获得了高额的投资,产生了强者恒强的现象;( 5 )系统自然涌现出公平、高效的知识产权纠纷仲裁机制。 之后,系统更名为“ 基于区块链的心智评价系统 ”” 附注:原创图文, 转载请予以标注。
个人分类: 求败者联盟——心智评价系统|1976 次阅读|0 个评论
如是我闻皆于梦中9. 求败者联盟——心智评价系统(3)
dhlyd300 2020-6-23 20:00
笔者问:“这个“基于区块链的科研绩效评价系统”是如何开启解决科研评价问题之门的呢?” 四维永道答:“ 2020 年中国最高层发布了所谓的“揭榜选帅”政策后,刺激了一批人,他们决定开发一套全新的系统,从根本上实现人类心智的客观、公正和高效评价,从而彻底解决科研绩效的评价问题。 经过反复的研究和讨论,他们决定创建一套类似 CT 原理的系统,来评价科研绩效,其工作过程如下:首先,利用第三代区块链技术 (联盟链技术: Hyperledger Fabric )创建一个超级账本区块链系统,每个高校和研究机构作为一个节点接入区块链,而高校和研究机构的科研人员个体作为用户,通过各自单位的节点进入区块链系统,利用智能合约( Channel Code 或者叫做通道链码)进行 三种交互 : 1 )发布自己的代表作品(自己的文章、专利,如果没有自己的代表作品,也可以发表自己认为最有水平的他人文章、专利的评价综述,总数不能超过 N 篇); 2 )对他人发表的代表作品进行评价打分 (数量不限); 3) 对别人评价自己代表作的打分评价再评价打分(要求对最开始的 M 个评价必须在规定时间内给出评价打分,超过 M 的评价可以自行决定是否亲自给予评价打分,还是由系统给出一个默认的回应分数);最后,各高校和研究机构根据每个科研人员的 四种分数 ( 自己给别人代表作的评价打分、自己打给别人评价自己代表作打分的再打分、别人给自己代表作的评价打分、别人给自己评价别人代表作打分的再打分 )的情况,设计相应的算法,给出每个科研人员的科研绩效。 通过四种分数重建科研人员心智的实现原理,参照类比 CT 工作原理,用图 2 来说明,从图中可以看出,对心智进行投影重建比 CT 复杂多了,所以对算法和数据的积累都有很高的要求。” 图 2. 四种评价分数的 CT 类比投影图 注释 第三代区块链技术的说明: n 区块链作为一种由多种技术创新组合诞生的新技术,主要涵盖密码学,网络传输协议,分布式存储等技术概念。主要概念包括:(1)交易: 区块链数据存储的基本单位;(2)区块:区块链数据存储的主要单位;(3)节点:构建分布式区块链网络的基本单位;(4)共识算法:对交易达成共识的算法逻辑或机制;(5)记账权:添加区块链账本记录的权利;(6)智能合约:基于区块链共识的逻辑代码。 n 第三代区块链实现模型 注释 两种评价打分表的说明: 附注:原创图文, 转载请予以标注。
个人分类: 求败者联盟——心智评价系统|2345 次阅读|0 个评论
如是我闻皆于梦中8. 求败者联盟——心智评价系统(2)
dhlyd300 2020-6-23 19:56
笔者问:“ 求败者联盟是一个什么东西?为何能解决如此困难的问题?” 四维永道答:“求败者联盟名字的由来本身就是科研评价系统不断完善的产物,要理解这个系统的工作原理,需要通过一个类比来说明,很多人都有医院做 CT 检查的经验,这里就用 CT 来做类比说明。 CT ( Computer Tomography 计算层析成像)的工作原理如图 1 所示,其数学基础是 Radon 变换,本质上是利用对同一个对象的多个不同角度的低维投影信息获取高维信息。其核心构成包括: 1 )能够穿透检测对象的投影射线源(对象的不同内部组织必须对射线有不同的吸收率); 2 )探测穿过对象射线的传感器阵列; 3 )旋转机构(通过旋转对象或者射线源 - 传感器,获取对象不同角度的投影信息); 4 )算法程序(根据 Radon 变换建立数学模型,设计算法,把算法编制为计算机程序,计算传感器阵列数据重构对象)。根据 Radon 变换的数学原理,只要投影变化的角度足够小,投影数据足够多,就可以实现任意精度的目标对象重构。 图 1. CT 工作原理图 ( 利用多个一维投影数据重构一个二维对象 ) 与 CT 原理一样,对人的心智评价,也需要投影射线源、探测传感器、旋转机构和重构算法。事实上这套人类心智评价系统,最开始的名字并不是“求败者联盟”,而是叫做“ 基于区块链的科研绩效评价系统 ”。” 附注:原创图文, 转载请予以标注。
个人分类: 求败者联盟——心智评价系统|2370 次阅读|0 个评论
如是我闻皆于梦中7. 求败者联盟——心智评价系统(1)
dhlyd300 2020-6-23 19:50
笔者问:“ 关于未来,作为一个高校教师,我最为关心的首要问题是: 中国目前的科研评价体系能够在现有社会制度体系下做颠覆性的重构吗?如果可以,这种 重构的原理是什么 ? 过程又是如何展开 的呢 ?” 四维永道答:“科研评价实质是对人的心智的评价,这是一个世界性的难题,而中国社会几千年形成的所谓“血亲政治,人情社会”,对于这个问题的解决尤其困难,以契约精神建构的现代西方科研评价体系,情况比中国好一些,但也是问题丛生,事实上,西方科研评价系统的腐败趋势正在加速。 很多人已经意识并揭示了现有科研评价体系的问题:比如网络上关于“论师娘的优美感”论文的讨论,又比如“钱学森之问”等等,但总的情况是批评揭示问题很多,建设性的方案很少,体制内专家们的一些所谓的改革方案实际上不能解决问题,反而使问题更加严重。 事情的转折点,其实就发生在 2020 年(中国农历庚子年),中国最高层发布了所谓的“揭榜选帅”政策,这实际上向外界宣示了国家最高决策层已经充分意识到了目前评价体系的严重问题,并且下决心彻底解决这个问题(“揭榜选帅”实际上就是类似过去的“揭皇榜”,意味着“有重疾,太医院的众多国手太医们已经束手无策了,没办法只好向天下遍寻高手,而事实上,这种所谓民间高手,几乎是不存在的,所谓“大贤隐于朝,小贤隐于野”,当前时代下的“贤达们”实际上还是在体系内,只是评价体系把他们都隐藏了”) 2020 年末,有一批人开始建设一个所谓的“ 求败者联盟 ”,正是这个系统的建立和完善,彻底解决了中国科研评价问题。” 附注:原创图文, 转载请予以标注。
个人分类: 求败者联盟——心智评价系统|0 个评论
何毓琦教授:同行评议是最糟糕的科研评价方式,但。。。
热度 6 liuli66 2020-3-9 12:13
何毓琦教授在科学网博客上针对“同行评议”这种科研评价方式,发表独到的观点[1]。本人试译如下: 丘吉尔说过一个名言,即:民主是政府治理国家最糟糕透顶的方式,但是,历史实践证明,其他种种方式比民主更糟糕。何毓琦教授套用这种表达修辞,提出:同行评议是科研评价最糟糕透顶的方式,但是,历史实践证明,其他任何方式比同行评议更糟糕。作为哈佛终身教授,何先生对同行评议的种种弊端,看得清清楚楚真真切切,比如同行评议会被滥用,缺乏效率,甚至出线错误的决策。但是,在相当长的历史时期,同行评议是无以伦比的,不可替代的。好的科研工作,或许会被错误评价,但是,再加上“时间检验”,这个同行评议,虽然它有种种弊端,但却是科研评价的最佳方式。 在科学史上,充满着大量这样的例子,那些作者和发明家活在人世时,没有得到应有的承认(recognition),而是死后名声大噪。导致这种悲剧的原因,(不是因为同行评议),主要是因为他/她们独特的个性问题,以及/或者因为他们的科研工作所产生的影响(Impacts)由于种种原因被延误了。从事后看,是金子总会发光,每个人都会得到他/她应有的名分。 同行评议体制有待改进,这是毫无疑问的。但是,要废掉同行评议,这是毫无理由的;在科研评价中,同行评议体制在相当长的历史时期,是不可替代的。 何毓琦教授原文: http://blog.sciencenet.cn/blog-1565-1222460.html LIU某人接着说 : “唯”SCI/SSCI论文是一种糟糕透顶的科研评价方式,但在现国情下,在现阶段以及相当长一个时期,对绝大多数大学、科研院所和科研工作者,其他种种科研评价方式比SCI更糟糕。 一流大学看论文原创性,二流大学看影响因子,三流大学看SCI篇数。这是符合现实“国情”和发展阶段的、实事求是的科研评价“标准”。 相关: 刘立2018:科研评价阶段论:世界一流大学看论文本身;三流大学看影响因子 https://m.sohu.com/a/223112111_465915/?pvid=000115_3w_afrom=timeline 刘立2019: 科研评价要突出“唯原创性”标准 中国科学报2019020 https://mp.weixin.qq.com/s/HRmfyIav1xZBLgnlF1Q8nQ
个人分类: 科技与创新政策|1876 次阅读|28 个评论
从我所经历的一次国际考评谈起
热度 12 周浙昆 2020-3-8 16:37
自从教育部 科技部印发《关于规范高等学校SCI论文相关指标使用 树立正确评价导向的若干意见》的通知以后,对于科研业绩的考评就成了《科学网》的热门话题。 多年来科研管理部分似乎一直没有找到一个被广大科研人员所认可的,有公信力的科研考评和人才评价体系,每次新的政策一出,都会引起热议。今天我也凑一个热闹,谈谈我所经历的一次“国际考评”。 我所在的研究所每年都要进行考评,然后根据考评的结果进行末尾淘汰和绩效工作的发放。 那个时候对于每年一次的考核,科研人员都有较大的压力。我见证过一些研究组由于考核名落孙山而被解散,科研人员的收入也因考核结果,拉开较大的差距。SCI论文和项目就是考核的两项硬指标,每个项目和每篇SCI论文都被量化为一个具体的分数,项目越多,论文发得越多,影响因子越高,考评的结果就越好。那个时候,研究所有40个多课题组,从事不同的专业和学科,有做植化的,有做分子的,有做分类和区系的,但是考评的时候大家都放在一起进行评比。我从事的研究是小众的基础研究,整个学科领域期刊影响因子都不高,我发的论文影响因子也不高。在每年考核中,我的名次也仅比孙山稍高几位,每次考核的时候都是压力山大。那个时候干科研和下乡时挣工分没有多大差别,几乎忘记了科学研究的初心。 为了改进考核方法,上级主管单位对所辖研究所组织了一次国际考评。评委由上级主管单位根据研究所的性质和学科特点在国际上遴选。考评分三个阶段,首先个人提交英文的业绩报告,报告特别注明要写出研究组的主要创新点。当然,发表的论文的清单也是必不可少的,也要求提供5篇代表作。第二个阶段是每个PI用英文向考评组陈述自己的工作,报告时间是20分钟,专家组有10分钟的提问。PI需要陈述自己最亮点的工作和创新之处。这个阶段研究所的PI按照研究学科性质分成两个大组进行的。第三个阶段,专家组根据PI的报告和现场陈述对每个研究组进行打分。打分按照美国NIH的体系进行,1.0-1.5是Outstanding, 1.6-2.0是excellent,2.1-2.5是good, 2.6-3.0是fair。考评的结果只向所领导报告,各研究组只收到自己的评估报告。从我收到的报告看,考评组从Overview, Significance/Impact of Research, Scientific Achievement, Creativity/Innovation and Productivity, Research Potential for the Next Five to Ten Years和Overall Evaluation等六个方面向被考评人反馈考评结果。在这次考评中,考评专家组组特别强调研究组在国际上的地位,注重被考评人与国际小同行的比较;其次,特别注意PI的研究组工作是否围绕科学假说和科学问题展开,研究工作是否有系统性,所提出的科学问题和假说的科学价值如何;其三,即看论文的篇数和所发表的期刊,又不完全依据篇数和所发表的期刊来做出判断。 考核结束,全所有6个组被评为outstanding,3个组评为excellent,6个组得到了2.5分被判定为不合格,其余研究组是合格的级别。在这次考评中,我得到了1.6分进入了excellent的等级,而在之前研究所数工分式的考核中,我都是排名靠后的。有一些论文发得比我多的研究组,得分比我高(得分越高成绩越差),原因是他们的论文之间关联性太差,研究不成体系,研究组的科学问题不明确,不集中。 现在回过头来,这个国际考评的理念与实际操作与科技部最近所发文件的精神还是比较吻合的。首先是对不同的学科进行分类考核,尽管这个分类考核,分得还有些粗糙,但是已经做到没有用一个标准来评判跳高的和跑步了。第二,在看论文产出的同时,更看中论文的创新性,和所以论文的关联性和系统性。除了论文发表的期刊外和引用率以外,更看重论文的国际同行对论文的评价和论文的科学价值。第三这个考核,还评价了研究组的潜力,指出了一些具体的努力方向。我个人认为这是一次成功的考评,让人心悦诚服的考评。我在那个考核之后,按照专家组的建议,努力去做一些 cutting-edge 的工作与发现。 这次国际考核成功的一个关键,我认为首先是有一个高水平的考核专家团队,他们非常严肃认真地对待这次考评工作,没有简单地依靠数据和刊物来判断一个研究组,他们认真地阅读了每个研究团队的报告,听取了 PI 的陈述,依靠自己的专业素养,对各位 PI 进行了客观的评价。教育部和科技部《关于规范高等学校SCI论文相关指标使用 树立正确评价导向的若干意见》应该说是一个非常好的文件,充分考虑之前科研业绩考评中的弊端,针对当前考评中的突出问题,特别是对于SCI过分依赖的问题,提出了一些指导性意见。我看一些网上评价,大家对于对唯SCI都是反对的。但是担心在“废除了SCI、ESI、IF、JCR、H-index、他引次数等可以直观比较的量化指标,基层科研工作者更怕那些掌控了话语权、终裁权、拥有巨大班扎夫权力指数、又带有强烈个人主观色彩的冯闷棍了”(引自王龙的博文, http://blog.sciencenet.cn/blog-467514-1222254.html )。就像高考一样,大家都知道,一考定终身的考试方式有诸多的弊端,但是这“一考”,保障了基本的公平与公正。 教育部 科技部的文件指出;“对于基础研究,论文是成果产出的主要表达形式,坚决摒弃“以刊评文”,评价重点是论文的创新水平和科学价值,不把SCI论文相关指标作为直接判断依据”。以刊评文肯定不对,不同的期刊办刊的目的不一样,发表文章的标准和要求有所有一些期刊的重点是最求新奇,而有一些期刊的则是强调工作的系统性。科学研究的常态是能够在本领域最好的期刊持续不断地发表论文,而不是只发表Science和Nature的论文。但是,一般而言越是好的期刊,评审过程越是规范和客观。如果完全摒弃“以刊评文”那么由谁来判断论文的水平和价值呢?这又要回到由人,由评委来判断论文的水平和价值了,这就对科技界自律水平提出了较高的要求。也就是两部委文件一开就是强调的“净化学术风气,优化学术生态” 。 任何一个评价体系(更何况我们还没有自己成熟的评价体系)都不可能是十全十美的。减少科研评价和各种行政命令对科研工作的干扰,将发表论文多少与个人收入脱钩,树立正确价值取向,引导科技工作者为探索未知世界而发表论文,才能树立一种风清气正的科研环境,让学术研究回归初心。
个人分类: 人生感悟|9517 次阅读|39 个评论
[转载]《关于破除科技评价中“唯论文”不良导向的若干措施(试行)》
liuli66 2020-2-28 21:18
http://www.most.cn/mostinfo/xinxifenlei/fgzc/gfxwj/gfxwj2020/202002/t20200223_151781.htm 息名称: 科技部印发《关于破除科技评价中“唯论文”不良导向的若干措施(试行)》的通知 索引号: 306-35-2020-781 信息类别: 规范性文件2020 发布机构: 科技部 发文日期: 2020年02月17日 文  号: 国科发监〔2020〕37号 效  力: 科技部印发《关于破除科技评价中“唯论文”不良导向的若干措施(试行)》的通知 国科发监〔2020〕37号 国务院各有关部门、直属机构,各有关单位:   为落实中共中央办公厅、国务院办公厅《关于深化项目评审、人才评价、机构评估改革的意见》《关于进一步弘扬科学家精神加强作风和学风建设的意见》要求,改进科技评价体系,破除科技评价中“唯论文”不良导向,按照分类评价、注重实效的原则,科技部会同财政部研究制订了《关于破除科技评价中“唯论文”不良导向的若干措施(试行)》。现予印发,请遵照执行。   对执行过程中的有关问题,请及时向科技部反映。试行1年后将开展实施效果评估,对有关措施进一步调整完善,对效果好的措施商有关部门在更大范围复制推广。   联系电话:010-58884332                  科技部               2020年2月17日   (此件主动公开) 关于破除科技评价中“唯论文”不良导向的若干措施(试行)      为落实中共中央办公厅、国务院办公厅《关于深化项目评审、人才评价、机构评估改革的意见》《关于进一步弘扬科学家精神加强作风和学风建设的意见》要求,改进科技评价体系,破除国家科技计划项目、国家科技创新基地、中央级科研事业单位、国家科技奖励、创新人才推进计划等科技评价中过度看重论文数量多少、影响因子高低,忽视标志性成果的质量、贡献和影响等“唯论文”不良导向,按照分类评价、注重实效的原则,经商财政部,现提出如下措施。    一、强化分类考核评价导向。 实施分类考核评价,注重标志性成果的质量、贡献和影响。   (一)对于基础研究类科技活动,注重评价新发现、新观点、新原理、新机制等标志性成果的质量、贡献和影响。对论文评价实行代表作制度,根据科技活动特点,合理确定代表作数量,其中,国内科技期刊论文原则上应不少于1/3。强化代表作同行评议,实行定量评价与定性评价相结合,重点评价其学术价值及影响、与当次科技评价的相关性以及相关人员的贡献等,不把代表作的数量多少、影响因子高低作为量化考核评价指标。   (二)对于应用研究、技术开发类科技活动,注重评价新技术、新工艺、新产品、新材料、新设备,以及关键部件、实验装置/系统、应用解决方案、新诊疗方案、临床指南/规范、科学数据、科技报告、软件等标志性成果的质量、贡献和影响,不把论文作为主要的评价依据和考核指标。   (三)提高对高质量成果的考核评价权重。对于具有一定学术影响或取得实际应用效果的标志性成果可作为高质量成果,可增加到10%的权重;对于具有重要学术影响、对相关领域的科技创新具有带动作用的,可增加到30%的权重;对于已在实践中应用、对经济社会发展和国家安全作出重要贡献的,可增加到50%的权重。具体权重由相关科技评价组织管理单位(机构)根据实际情况确定。   鼓励发表高质量论文,包括发表在具有国际影响力的国内科技期刊、业界公认的国际顶级或重要科技期刊的论文,以及在国内外顶级学术会议上进行报告的论文(以下简称“三类高质量论文”)。上述期刊、学术会议的具体范围由本单位的学术委员会本着少而精的原则确定,其中,具有国际影响力的国内科技期刊参照中国科技期刊卓越行动计划入选期刊目录确定;业界公认的国际顶级或重要科技期刊、国内外顶级学术会议由本单位学术委员会结合学科或技术领域选定。对于“三类高质量论文”的研究成果,可按高质量成果进行考核评价。发挥同行评议在高质量成果考核评价中的作用。    二、对国家科技计划项目(课题)评审评价突出创新质量和综合绩效。 立项评审注重对项目(课题)可行性和先进性进行评价,综合绩效评价注重对项目(课题)合同约定标志性成果的质量和影响进行评价。   (四)对于应用研究、技术开发类项目(课题),不把论文作为申报指南、立项评审、综合绩效评价、随机抽查等的评价依据和考核指标,不得要求在申报书、任务书、年度报告等材料中填报论文发表情况。   (五)对于基础研究类项目(课题),对论文评价实行代表作制度,代表作数量原则上不超过5篇。在申报书、任务书、年度报告等材料中,重点填报代表作对相关项目(课题)的支撑作用和相关性;在立项评审、综合绩效评价、随机抽查等环节,重点考核评价代表作的质量和应用情况。    三、对国家科技创新基地评估突出支撑服务能力。 注重评估科技创新基地支撑服务国家重大需求、经济社会发展的作用和效果。   (六)对于国家技术创新中心、国家临床医学研究中心等技术创新与成果转化类基地,注重评估对国家重大需求和工程建设的支撑作用、对重大临床需求和产业化需要的支撑保障作用。不把论文作为主要的评价依据和考核指标。   (七)对于国家科技资源共享服务平台、国家野外科学观测研究站等基础支撑与条件保障类基地,注重评估对外服务的质量和效果。不把论文作为主要的评价依据和考核指标。   (八)对于国家实验室、国家重点实验室等科学与工程研究类基地,注重评估原始创新能力、国际科学前沿竞争力、满足国家重大需求的能力等。对论文评价实行代表作制度,每个评价周期代表作数量原则上不超过20篇。    四、对中央级科研事业单位绩效评价突出使命完成情况。 注重评估科研机构履行国家使命和宗旨目标的情况,以及成果的学术价值和影响力。   (九)对于技术研发类机构,注重评估在成果转化、支撑产业发展等方面的绩效,不把论文作为主要的评价依据和考核指标。   (十)对于社会公益性研究类机构,注重评估公益性研究成果的绩效、履行社会责任的效果,不把论文作为主要的评价依据和考核指标。   (十一)对于基础研究类机构,注重评估代表性成果水平、国际学术影响、在经济社会发展和国家重大需求中的贡献等。对论文评价实行代表作制度,每个评价周期代表作数量原则上不超过40篇。    五、对国家科技奖励评审突出成果质量和贡献。 注重评审相关科技成果的质量、效果和影响,以及相关人员的贡献。   (十二)对于自然科学奖,注重对成果的原创性、公认度和科学价值等进行评审。对论文评价实行代表作制度,代表作数量原则上不超过5篇。   (十三)对于技术发明奖、科技进步奖,注重对成果的创新性、先进性、应用价值和经济社会效益等进行评审,不把论文作为主要的评审依据。   (十四)最高科学技术奖、国际合作奖也要落实分类评价要求。    六、对创新人才推进计划人才评选突出科学精神、能力和业绩。 注重评价学术道德水平以及在学科领域的活跃度和影响力、研发成果原创性、成果转化效益、科技服务满意度等。   (十五)对于科技创新创业人才,注重评价创业人才创办企业带动就业、产业科技含量及经济社会效益等,不把论文作为主要的评价依据和考核指标。   (十六)对于中青年科技创新领军人才,注重评价已取得核心成果的创新性和学术影响。对论文评价实行代表作制度,代表作数量原则上不超过5篇。   (十七)对于重点领域创新团队,注重评价团队协作创新能力,以及团队负责人的组织协调和领导力。对论文评价实行代表作制度,代表作数量原则上不超过10篇。   (十八)其它科技人才计划也要落实分类评价要求。    七、培育打造中国的高质量科技期刊。 以培育世界一流的中国科技期刊为目标,推动中国科技期刊高质量发展,服务科技强国建设。   (十九)加快实施中国科技期刊卓越行动计划,推进领军期刊建设,培育重点期刊、梯队期刊,鼓励创办高起点英文期刊,提高中文期刊英文摘要质量;建立中国特色、具有国际影响力的“科学引文索引”系统。鼓励财政资金资助的论文在高质量国内科技期刊发表。   (二十)完善学术期刊预警机制,定期发布国内和国际学术期刊的预警名单,并实行动态跟踪、及时调整。将管理和学术信誉差、商业利益至上的学术期刊,列入“黑名单”。    八、加强论文发表支出管理。 建立与破除“唯论文”导向相适应的资金管理措施,从严控制论文资助范围、从紧管理论文发表支出。   (二十一)对于国家科技计划项目产生的代表作和“三类高质量论文”,发表支出可在国家科技计划项目专项资金按规定据实列支,其它论文发表支出均不允许列支。对于单篇论文发表支出超过2万元人民币的,需经该论文通讯作者或第一作者所在单位学术委员会对论文发表的必要性审核通过后,方可在国家科技计划项目专项资金中列支。   (二十二)对于发表在“黑名单”和预警名单学术期刊上的论文,相关的论文发表支出不得在国家科技计划项目专项资金中列支。不允许使用国家科技计划项目专项资金奖励论文发表,对于违反规定的,追回奖励资金和相关项目结余资金。   (二十三)在项目综合绩效评价过程中,项目管理机构应加强对在国家科技计划项目专项资金中列支论文发表情况的核验。   (二十四)相关高校、科研院所等要对论文发表的必要性以及与项目研究的相关性进行审核;对于可能涉及国家安全和秘密等的论文,要从严审核、加强管理。不允许将论文发表数量、影响因子等与奖励奖金挂钩。    九、强化监督检查。 加大监督检查力度,确保各项措施落实落地。   (二十五)开展破除“唯论文”不良导向各项措施落实情况的监督检查。对落实不力、存在严重“唯论文”问题或存在奖励论文发表的相关高校、科研院所等,采取约谈、通报批评等方式予以处理并责令整改,整改期间暂停国家科技计划项目专项资金对该单位论文发表的资助。加强对咨询评审专家的培训引导,对项目评审中存在“唯论文”现象的,及时予以纠正。   (二十六)相关高校、科研院所要加强论文发表署名管理。《关于进一步弘扬科学家精神加强作风和学风建设的意见》发布后,对论文无实质学术贡献仍然“挂名”的,依规严肃追究责任。   (二十七)加大正面典型案例的宣传,树立正确的舆论导向。不允许过度宣传论文发表情况,不提倡将论文数量、影响因子作为宣传报道、工作总结、年度报告的重要内容。
个人分类: 科技与创新政策|1 次阅读|3 个评论
关于个人科研成果被引情况的观察与思考
libseeker 2020-2-27 18:42
考察科研成果被引情况,是较为复杂的系统工程。科研成果被引情况在多种场合需要关注,比如申报科研项目、申报科研成果奖等等。近期稍微花点时间,以自身为例,就个人科研成果被引情况进行了观察与思考。 《中国引文数据库》(简称《引文库》, http://ref.cnki.net/ ),官方宣称为“这是目前中国最大最全的引文数据库”,是依据CNKI收录数据库及增补部分重要期刊文献的文后参考文献和文献注释为信息对象建立的、具有特殊检索功能的文献数据库。《引文库》通过揭示各种类型文献之间的相互引证关系,不仅可以为科学研究提供新的交流模式,而且也可以作为一种有效的科研管理及统计分析工具。其作用为:(1)提供客观、准确、完整的引文索引数据。(2)针对某一对象或主题提供相关统计分析数据,通过数据分析器得到的相关比较分析数据,可以供相关研究人员和科研管理部门使用。(3)为相关评价工作提供基础数据。 种种原因,中文成果不那么受重视。主要原因有两条:其一是大环境是“唯SCI”,Web of science系列数据库有着“话语霸权”;其二是中文引文数据库起步较晚,尚未形成较有份量的话语权。尤金·加菲尔德为了使引文检索法变成现实,在实践中赢得图书馆、情报界和科学界的承认,1960年创办了科技情报企业——科技信息研究所。1963年编制、出版了《科学引文索引》单卷本。1973年科技信息研究所开始正式出版发行《科学引文索引》(季刊)。1973年又继而出版了《社会科学引文索引》(SSCI),1978年又出版了《艺术和人文科学引文索引》(AHCI)。这样,引文索引这项富有创意的发明在图书馆及情报界牢固地确立了自己的地位。中国科学引文数据库(Chinese Science Citation Database,简称CSCD)创建于1989年中文引文数据库。中文社会科学引文索引(CSSCI),1998年立项开发电子版。笔者印象中,超星公司大约2010年开始做图书引用研发,曾宣传推广图书引证报告。《中国引文库》2015年3月正式对外发布,近年发展较快。 《中国引文数据库》来源文献范围分为3类:期刊库、学位论文库、会议论文库。被引文献类型划分为10大类:期刊类型、学位论文类型、会议论文类型、报纸类型、图书类型、专利类型、标准类型、年鉴类型、外文文献、其他类型。前3类做得比较成熟,其余类型有所涉及,但个人认为尚处于探索中。“其他类型”情况较为复杂,包括报纸、网络文献(博文及其他)等等。以被引作者“王启云”检索自己,“文献总数45 总被引496 总他引450 篇均被引11.02 篇均他引10.00”。以被引作者“王启云”(第一作者)则为“文献总数38 总被引385 总他引345 篇均被引10.13 篇均他引9.08”。这个结果实际被引文献类型均为“期刊类型”。学位论文类型被引10次;会议论文类型没有检索到数据;报纸类型没有检索到数据;其他类型(包括报纸、博文等):“王启云”文献总数31,总被引大约50次;“图谋”文献总数28,总被引38。图书类型:高校数字图书馆建设评估研究(中国书籍出版社,2012)总被引5次(读秀学术搜索中总被引为5次,其中被图书引1次);高校数字图书馆建设评估研究(现代教育出版社,2009)总被引7次(读秀学术搜索中总被引为11次,其中被图书引4次);图书馆学笔记——科学网图谋博客精粹(知识产权出版社,2013)总被引4次(读秀学术搜索中总被引为3次);图书馆学散论——科学网图谋博客精粹(知识产权出版社,2015)总被引1次(读秀学术搜索中总被引为1次)。《图书馆学随笔——图谋博客精粹》(国家图书馆出版社)读秀学术搜索中总被引为5次(被图书引2次),中国引文数据库中无被引数据。 我在图书、报纸、博客这三方面投入了较多时间和精力,被引情况较差,但均存在被引,而且我自身曾留意过存在重要刊物知名学者引用过。图书类型的引用情况,《中国引文数据库》及读秀学术搜索中的表现相近,由此可见,图书被引的情况不甚理想。估计还不仅仅是个人的水平问题,还有更深层的原因。笔者与学术图书出版打交道11年,颇有感触。学术图书的地位受诸多因素影响,比如出版发行与传播方面,变化很大。时下,学术图书的发行量较少,读者群也较小。我留意了吴建中先生代表作《21世纪图书馆新论》的被引情况,1998年版723次被引,2003年版438次被引,2016年版12次被引。总体来说随着网络的普及,图书的被引情况似乎一年不如一年,近几年大多数图书的被引情况不甚理想。 近年,“大数据”确实有着大发展,但仍然存在着许多细节问题(比如元数据质量、标引质量等)需要进一步精益求精。引文机理、引文作用、引文评价相关理论与实践,尚有待进一步探索与发现。 延伸阅读: 王启云.《中国引文数据库》体验有感 . http://blog.sciencenet.cn/blog-213646-1218559.html
个人分类: 圕人堂|1954 次阅读|0 个评论
探讨破“SCI至上”后的科研评价原则
热度 15 qsqhopeiggcas 2020-2-27 11:39
在疫情期间,咱宅家每晚上都喝点高度白酒以实施内部“消毒”,这不昨晚上喝了几盅后脑细胞有些活跃,想了想关于破“ SCI 至上”后的科研评价原则问题,权当是酒后真言吧,写出来供大家讨论。 大家知道,科研的价值在于质量而不是数量,科技问题只有“已解决”和“未解决”之分。显然,未解决问题的难易程度和意义大小,是衡量研究者创新能力和工作价值的“标尺”。若研究者创立了原创性理论方法,解决了别人历经长期探索仍无计可施的重大科技难题,则这样的工作为“一流”;若其提出了高创新性的理论方法,解决了较为重要的科技难题,则为二流;若属于在前人基础上改进不大或拾漏补遗式的跟风工作,则为“三流”。 那么,什么样的问题称得上科技难题呢?公认的科技难题都有哪些呢? 介个嘛,不妨参考教育部 、 科技部 、 中国科学院 、 国家自然科学基金委员会 等四部门 发起征集且已出版的 《 10000 个科学难题》、中国科协近些年发布的“ 重大科学问题和工程技术难题 ”、《 Science 》公布的 125 个科学前沿问题等。这些是权威部门发布的,应该有一定的代表性和公认性。在此基础上,每个学科根据自己的具体情况,广泛征集大家的意见,把难题分类,经大多数人同意后发布。 若有那么一天,研究者宣称自己解决了某一难题,可向所在学会或单位提交评审材料,如代表性论文、专著或科研报告,初筛(退回跟风工作,拒绝并永不评审违背业已公认科学原理的工作等)后由学会或单位组织一次由国内外真才实学专家组成的评审委员会进行鉴定,根据科学原则进行面对面质疑讨论,看看是否真的解决了或解决到什么程度,确认成果水平属于“一流”、“二流”或“忽悠”。至于“三流”跟风工作,建议交给所在单位下属研究室或院系的学术委员会评审吧,反正这个属于“鸡肋”且容易鉴别。若国家层面想给研究者“帽子、“奖励”以资鼓励,可根据成果水平对等授予即可,这可基本上避免出现各种“不服”意见。 这样的话,自然会鼓励研究者潜心攻坚克难,亦可减缓学界学术浮躁之风气,因为攻克任何科技难题都需要较长的时间过程,靠投机取巧绝无可能;再者,也就主动消除了“ SCI 至上”为成果科学性及其价值背书的可能,体现了“看疗效而不看广告”之求实理念。如此,何乐为不为呢?!
个人分类: 建言献策|8576 次阅读|56 个评论
科研的实在与实在的科研
libseeker 2020-2-25 17:59
近期,《关于规范高等学校SCI论文相关指标使用,树立正确评价导向的若干意见》等文件,引起了广泛的关注与讨论。浏览了科学网数篇博文及其它平台的若干相关信息,作为一名高校图书馆工作者,亦在关注,略有所思。 2010年9月16日,笔者曾发布博文《SCI“幽灵”依然游荡》( http://blog.sciencenet.cn/blog-213646-363661.html ),结尾是:“‘科学’与‘幽灵’共舞,很滑稽。如何科学地作别‘幽灵’,是个重大课题。” 博文开头一段为: 2004年尤金·加菲尔德的《引文索引法的理论及应用》一书译者侯汉清先生在译后记中说到:“近几年,SCI像一个‘幽灵’在国内高等学校、科研院所乃至社会上游荡着。SCI不仅引起了广大教师、科研工作者的兴趣和注意,而且也引起了科研管理工作者乃至行政领导的青睐。”“SCI在国内的‘身价’和影响。连SCI创始人加菲尔德博士访问中国得知这种情况,也感到十分诧异。”“由此引发了2002年在《科学时报》等报刊上开展的一场有关SCI的大讨论。争论的核心是如何正确地看待SCI,如何正确地使用SCI。这场争论的结果导致了教育部、科技部等机构正式下发了一个有关正确进行科研绩效和成果评价活动的文件,决定取消政府导向的《科学引文索引》排名,引导高校和科研机构从重视科研论文的数量向重视论文质量方向转变,并将改进和完善现有的科技评价制度。”(见:(美)尤金·加菲尔德著;侯汉清等译.引文索引法的理论及应用._北京:北京图书馆出版社,2004.8:247-248)然而直至今天,SCI“幽灵”依然游荡,甚至愈演愈烈。 透过这一段文字,感慨良多。历史总是惊人的相似,仿佛“昨日重现”,今日与昨日何其相似! 就在2020年2月21日,有老师咨询我一个问题:“最近申请项目需要统计论文信息,以前没有查过,请问一下这个SCI光盘版、网络版如何查询?”我的答复是:“需要检索Web of science数据库。那种表述是有毛病的。SCI光盘版已成历史。现在的是网络版。因此你要看看,是否有进一步的定义或界定。这是相关人员外行导致。”“有可能其本意是想区分核心版与扩展版。假如是,我多年前曾梳理过检索方法。SCI核心版与扩展版检索方法.http://blog.sciencenet.cn/blog-213646-671694.html 由于该数据库更换了主人,现在可用的检索地址是:Master Journal List .http://mjl.clarivate.com/”这位老师进一步贴了填表说明,其中有“SCI请标明是《SCI光盘版》还是《SCI网络版》”。 高校图书馆是“为人才培养和科学研究服务的学术性机构”,因此围绕SCI及其相关产品与服务,需要保持持续关注与思考。自我感受是,始终是被牵着鼻子走,而且始终是那么地积极、主动,累并不那么快乐地忙乎着。为什么“并不那么快乐”,因为新的指标、新的概念、新的产品与服务层出不穷,好不容易弄明白一个概念,又涌现出一批新概念,还有新工具。对于经费不那么充足,且专业人员并不那么充足(需要“一专多能”“能者多劳”)的高校图书馆,更是“苦不堪言”。Web of science系列数据库包括五大引文库(SCIE、SSCI、AHCI、CPCI-S、CPCI-SSH)和两个化学数据库(CCR 、 IC),此外还有JCR、ESI(基本科学指标数据库)等产品与服务。 回顾一下某高校科研奖励的简史也是很有意思的。可以简单描述为以SCI收录论文为中心及标杆。早期是期刊论文1万元每篇,会议论文七千元每篇,持续了10多年,近年“高水平论文”导向,采纳了“分区”概念,出现了“级差”进一步“精细化”“精准化”,围绕相关指挥棒(比如学科评估、专业评估、大学排名等),步步精心。这类科研奖励政策,实际上是相互学习、相互借鉴的。 粗略检索了一下全国科学技术名词审定委员会术语在线( http://www.termonline.cn/ )平台,关于“科学研究”的定义为:“现代大学职能之一。为了增进人类知识和谋求知识新的应用而进行的创造性工作。可分为基础研究、应用研究和开发性研究三类。”(《教育学名词》第一版)关于“科研管理”的定义有:(1)“对研究机构的科学研究活动和研究人员进行的计划、组织、领导、激励与控制等一系列管理工作。”(《管理科学技术名词》第一版)(2)“对高等学校的科学研究、技术开发与推广等事务与活动进行的管理。”(《教育学名词》第一版)科研的实在与实在的科研,或许从中可见一斑? “SCI”是依据“引文索引法的理论及应用”打造出来的一把“西洋刀”,刀是一把宝刀。 尤金·加菲尔德(Eugene Garfield,1925.9.16-2017.2.26)是美国著名的情报学家和科学计量学家;美国科技信息研究所及《科学引文索引》的创始人。1955年,他在美国《科学》杂志上发表《引文索引用于科学》的重要论文,系统地提出了用引文索引检索科技文献的新方法,从而打破了分类法和主题法在检索方法中的垄断地位,打开了从引文角度来研究文献及科学发展动态的新领域。“加菲尔德为了使引文检索法变成现实,在实践中赢得图书馆、情报界和科学界的承认,1960年创办了科技情报企业——科技信息研究所,并争取政府的资助,进行引文的可行性实验。1961年在诺贝尔奖获得者J.Lederberg博士的帮助下,他取得了美国国家科学基金会的资助,编成了第一部有关遗传学文献的引文索引,探索多学科或边缘学科引文索引的可行性。该索引得到了科学工作者的好评。1963年他编制、出版了《科学引文索引》单卷本。1973年科技信息研究所开始正式出版发行《科学引文索引》(季刊)。1973年又继而出版了《社会科学引文索引》(SSCI),1978年又出版了《艺术和人文科学引文索引》(AHCI)。这样,引文索引这项富有创意的发明在图书馆及情报界牢固地确立了自己的地位。”( 摘自:(美)尤金·加菲尔德著 侯汉清,陆宝树,马张华译.引文索引法的理论及应用 .北京图书馆出版社,2004.8:240-242.) 其实类似“SCI”这样的刀,还有许多,国产的有中国科学引文数据库(CSCD)、中文社会科学引文索引(CSSCI)、中国引文数据库(CCD)……这类刀是工具,是科研伴侣。以中国引文数据库为例,它的功能介绍为 :“通过揭示各种类型文献之间的相互引证关系,不仅可以为科学研究提供新的交流模式,而且也可以作为一种有效的科研管理及统计分析工具。(1)提供客观、准确、完整的引文索引数据。(2)针对某一对象或主题提供相关统计分析数据,通过数据分析器得到的相关比较分析数据,可以供相关研究人员和科研管理部门使用。(3)为相关评价工作提供基础数据。” 不搞“一刀切”,多用几把刀,尽可能地将刀用好,或许有助于更好地科研,快乐的科研并享受科研的快乐。 延伸阅读: 教育部 科技部印发《关于规范高等学校 SCI论文相关指标使用 树立正确 评价导向的若干意见》的通知 教科技〔2020〕2号 http://news.sciencenet.cn/htmlnews/2020/2/436128.shtm 2020年2月18日 破除高等学校论文“SCI至上” 树立正确评价导向 ——教育部科技司负责人就《关于规范高等学校SCI论文相关指标使用 树立正确评价导向的若干意见》答记者问.http://news.sciencenet.cn/htmlnews/2020/2/436130.shtm 俞立平.关于SCI论文的几点看法.http://blog.sciencenet.cn/blog-45134-1219875.html 马军.规范当前学术评价和管理的思考.http://blog.sciencenet.cn/blog-60980-1220012.html 陈立群.学术评价的个人体会.http://blog.sciencenet.cn/blog-220220-1220135.html 冯培忠.科学家精神、专利、SCI、唯论文四个文件感想——牵住“牛鼻子”.http://blog.sciencenet.cn/blog-627429-1220006.html 冯培忠.专利 SCI 科学家精神三个国家文件有感.http://blog.sciencenet.cn/blog-627429-1219817.html 专利文件:“4.建立专利申请前评估制度。有条件的高校要加快建立专利申请前评估制度,明确评估机构与流程、费用分担与奖励等事项,对拟申请专利的技术进行评估,以决定是否申请专利,切实提升专利申请质量。”“停止对专利申请的资助奖励,大幅减少并逐步取消对专利授权的奖励,” SCI文件:“坚决摒弃“以刊评文”,评价重点是论文的创新水平和科学价值,不把SCI论文相关指标作为直接判断依据”“学校在绩效和聘期考核中,不宜对院系和个人下达SCI论文相关指标的数量要求,在资源配置时不得与SCI相关指标直接挂钩。要取消直接依据SCI论文相关指标对个人和院系的奖励”“不宜以发表SCI论文数量和影响因子等指标作为学生毕业和学位授予的限制性条件。”“不发布SCI论文相关指标、ESI指标的排行,不采信、引用和宣传其他机构以SCI论文、ESI为核心指标编制的排行榜,不把SCI论文相关指标作为科研人员、学科和大学评价的标签。” 实实在在的科研成果才是科研评价的正确导向.http://blog.sciencenet.cn/blog-57940-1220055.html 《关于规范高等学校SCI论文相关指标使用,树立正确评价导向的若干意见》,明确对 “SCI至上”说不,积极探索建立科学的评价体系。《意见》要点有:分类评价,代表作制度,同行评价,应用研究和技术创新,实现产业化的实际效果和实际贡献等。 王启云.SCI“幽灵”依然游荡.http://blog.sciencenet.cn/blog-213646-363661.html 2010-9-16 “科学”与“幽灵”共舞,很滑稽。如何科学地作别“幽灵”,是个重大课题。 图谋.SCI创始人尤金·加菲尔德传略.http://blog.sciencenet.cn/blog-213646-1036940.html
个人分类: 圕人堂|1956 次阅读|0 个评论
[转载]转发:中国放了一个大招,不再唯西方SCI马首是瞻!
ciccasduanhq 2020-2-23 15:06
来源: http://www.dacankao.com/thread-178901-1-1.html 2020年2月20日,教育部、科技部印发《关于规范高等学校SCI论文相关指标使用树立正确评价导向的若干意见》的通知,这则没有引起很多人关注的文件,在斐君看来,是抗击疫情以来最让人兴奋的大事情之一。   这个文件一旦实施,对我们的科研发展、人才独立和国-家-安-全都具有极为重大的战略意义。为什么这样说呢?   此前,举国抗击疫情之际,某高级专家在SCI(M国《科学引文索引》简称SCI)发表相关论文曾引起舆论的沸沸扬扬。据统计,截至目前,该专家已在SCI刊物上发表论文450余篇。舆论纷纷指责,该专家在非常时刻,不想着为国家救灾防疫做贡献,反而急吼吼的在美国期刊发表论文。   该专家如此热衷于在西方学术刊物上发表论文,究其根源,是因为目前科研体制以SCI论英雄的考核导向。以SCI论英雄到底给国家带来了哪些负面影响呢?   中科院院士陆大道(地理科学和资源所)曾毫不讳言地指出: 科技界论文数量和发表杂志的“档次”,特别是SCI论文,已经成为部分学者衡量自己价值、地位的象征及自己拥有的资源。“论文挂帅”已形成庞大的价值网络。   M国SCI及西方杂志的编辑部,远程间接操纵了中国的人才选拔,间接支配与操纵了中国大笔资金的投向。建国几十年来逐渐培养起来的以为国家服务为荣的价值观及兢兢业业、踏踏实实的精神,受到了严重的腐蚀。   陆院士还发出锥心之问:“我们在科技领域搞了这么多‘国际前沿’项目,是国际化了,还是被国际化了?”   以SCI为核心的论文挂帅,其客观结果是使我国的科学事业逐渐脱离“中国特色,自主创新”的方向。当然,不可避免地扼杀科技创造力,导致我国科技界贫于创新、贫于思想。   无独有偶,另一位院士( 工程院院士钟世镇,2012年 )也曾尖锐的指出“中国发在SCI上的论文85%是垃圾!”   但就是为了发表这些垃圾,我们每年投入了巨额资金。   北京工业大学一位研究员,以2016年中国在SCI发表的论文及投入的资金为例,发表研究称:2016年SCI收录中国学者的英文论文321,266篇,科研经费成本大约为295.56亿元人民币(包含少量国内英文版刊物)。单中国学者在国外刊物发表文章的版面费,有专家粗略估计每年达到数十亿元人民币。   此外,我国的科研人员完成的论文发表在国际刊物上,国外的刊物拥有版权,国内同行想阅读这些文献,国内的科研单位又不得不花费巨额资金购买国使用权或者订购国外的刊物。粗略估计,全国211高校每年购买国外文献数据库的使用权花费大约十几亿元人民币,这笔费用仅仅是一年时间的使用权,并没有购买到永久性的文献。   不夸张的说,中国学者英文论文的科研经费成本和发表费,相当于给M国每年送去一艘航母!   其负面影响远还不止于此:   其一、“紧跟”与照搬“国际前沿”与“国际热点”,导致学术思想固化于西方的框架与模式之中。一部分迷恋“SCI”的学者,他们极其看不上将全部精力置于国家需求研究的学者,对他们的成果肆意贬低,斥之为“三无”学者(没有国外权威文章,没有国际头衔,英语水平差)。   其二、脱离实际,离开国家需求。一些国家发展急需的课题,被一些人认为没有理论,不能发表论文,或该领域的问题不是“国际前沿”等,得不到重视,进展很困难而缓慢。   其三、科学工作者的民族自信心受到严重损害。受以SCI为主导的论文挂帅的深重影响,使相当多的学者认为我国科学技术还没有自立门户的可能。据说有少数科学家为了得到外国同行的好评,竭其热情,尽其谦卑。而一旦得到外国专家的几行好评,拿回国内,就以“资源”与“资本”加以利用。   其四、则是科研安全与国家安全。   终于,这次两部委的文件迈开了重要的一步,堪称这个疫情阴霾里的春天里的一场及时雨,要把那些污泥浊水、魑魅魍魉一扫光!   值得注意的是,文件里很多表述用的是“不得怎样怎样”,意味着该文件是有实际约束力的,一旦实施,将威力无比。   福祸相依。这场疫情带来了伤痛,也带来多领域的重大变革,其中不乏难啃的硬骨头,不乏我们长期敢言却无力改变的陈规陋习。乐观估计,未来还会有不少此类文件或改革出台。   当然,这次文件虽然令人兴奋,但要真正在学术和科研上去西方中心论,仍然还有很长的路要走!   好在,我们终于迈开了脚步!巨变,必然到来!
0 个评论
科研评价:分层次分阶段抛弃“SCI他引次数”指标
热度 5 liuli66 2019-12-15 13:02
在吾国有关科研评价的表格(如评教授,评TENURE-TRACK)中,几乎均要求填写论文(或论著)发表期刊的影响因子,他引次数,而且还必须出具加盖公章的“官方”证明书,通常是所在机构的图书馆部门来检索和证明。 最近,国内自然科学奖评选进行改革,率先明确表示取消和“抛弃”填写“他引次数”(以及影响因子)。科学共同体总体上为此叫好。 在科研评价中,考虑“他引次数”指标,面临诸多的困境,比如: 1)他引次数,与论文发表的时间高度相关。通常,新近发表的论文,他引用次数远远少于早期发表的论文。 2)他引次数,与论文作者的名气或团队大小高度相关。名气大的学者,或拥有大团队的学者,其论文的他引次数高于名气小或尚未成名或小团队的学者。 3)发表在不同影响因子期刊上的论文,他引次数会出现千差万别。通常,发表在高影响因子期刊上的论文,因其显示度(visibility)高等因素,而被多的他引。比如,发表在SCIENCE期刊上论文,其他引次数会远远高于国内期刊《科学通报》的论文(假设发表年份,学科领域等相同)。 4)科学计量学等研究表明,存在着“睡美人”论文或“零被引”论文现象(参见:潘云涛、梁立明、高继平、武夷山 著:《论文零被引面面观》(2018年)。 他山之石可以攻玉。英国针对大学的新一轮“卓越科研评价”(REF)所制定的 《评价标准》明确规定:任何评估小组对科研成果进行评估,不得考虑发表该成果的期刊的影响因子,不得考虑期刊的档次和级别。并提出:科研评价必须慎看他引次数。 REF按四大类学科进行分类评价。在 四大类学科主评估组下,划分为34个小学科评估小组 划分为34个小学科评估小组 很多小学科评估小组明确表示:科研成果评价中,彻底不看引用数,比如 物质科学、工程和数学大类中的“数学”评估小组,“工程”评估小组; 社会科学大类中除“经济学和计量经济学”评估小组之外,所有其他小组均不看引用数。 “艺术与人文”大类,一律不看引用数。 若干小学科评估小组表示,会部分看引用数,比如医学大类的所有分学科评估小组均看引用数。 对那些在科研评价中“参考”引用数指标的评估小组,REF作出了下述规定: ①引用数仅仅作为评估科研成果的学术重要性(academic significance)[而非原创性]的一个指标。引用数只是提示同行评议判断成果质量的一个元素,不得用作评估的主要指标和工具。 ②如果某项科研成果没有提供引用数,并不意味着该成果缺乏学术意义。 ③评估小组应当认识到,引用数只是有些时候而并不总是一个可靠的指标(reliable)。引用数并不是一个总可以查到的数据,并且引用数因学科或评估单元不同而不同,不能搞“一刀切”。同时,评估小组应当认识到,引用数对某些类型的成果(如应用性科研成果)是一个不可靠的指标;而且引用数对不是用英语写作的科研成果以及新近发表的成果,存在着很大的局限性(和不公平)。 ④评估小组如果看引用数,只能看REF评估组提供的数据,任何其他机构和个人提供的数据都是无效的。任何评估小组不得看期刊影响因子或期刊级别分区。 ⑤任何看引用数的评估小组,必须遵循REF的总规定。任何评估小组必须把同行专家评议作为科研成果评价的主要手段,以此作为对科研成果的原创性以及重要性和严谨性进行全面的评估。 在高层次的科研评价中,抛弃论文的他引次数这个评价指标,最根本的原因在于,他引次数与论文本身的“原创性”并没有直接的联系。论文是否进入高被引用的ESI,也与原创性无关。 对论文本身的原创性进行评价(而不考虑影响因子、他引次数、发表语言等“表面外在”因素),是科研评价的最高境界,比如评选诺贝尔科学奖。 科研评价这个最高境界,不能一蹴而就,不能一步到位,必须根据考虑国情因素(比如吾国重“关系”、“官本位”), 分层次(如国家自然科学奖、省部级奖、单位奖等层次;院士,长江,千人,万人等层次), 分阶段(比如2020年进入创新型国家、2030年进入创新型国家前列,2050年进入世界科技强国阶段), 逐步地趋近科研评价最高境界。 作为我国最高层次的国家自然科学奖这种科研评价,从我做起,从现在做起,一马当先,进入抛弃SCI他引次数、影响因子等指标的科研评价最高境界。
个人分类: 科技与创新政策|1580 次阅读|30 个评论
最高科学奖评选取消影响因子;其他科研评价呢?
热度 16 liuli66 2019-11-30 17:50
据《科技日报》公开报道,国家自然科学奖提名书取消填写论文期刊影响因子的硬性规定,鼓励发表在国内期刊的论文作为代表作(来源: http://news.sciencenet.cn/htmlnews/2019/11/433271.shtm )。 个人作延伸解读:国家自然科学奖评选,将不再看“影响因子”。对自然科学奖这个国内“最高”层次的科研评价评选,不看影响因子,主要依靠国内外专家进行高公正性高负责任高质量的同行评议,这是完全正确的。 那么,其他层次的科研评价比如大学或科研院所评教授评Tenure的“代表作”,是否也应取消影响因子评价指标呢?个人认为,不妥! 笔者曾发表系列科研评价的文章,总的观点是:科研评价,应该分层次分阶段淡化影响因子,看重对论文成果的原创性的同行评议。 比如这篇小文提出:科研评价应分阶段淡化影响因子,提高同行评议比重。 具体说来:我国的大学(或学科),除了极少数大学(如北京大学)已经是世界一流大学以外,绝大部分大学处于“世界二流”和“世界三流“阶段。在这样的状态下,”三流大学“的科研评价主要看影响因子,而很多“世界二流大学”科研评价主要看影响因子并兼顾论文本身,有其充分的现实合理性。 对“双一流“大学或学科的科研评价,应该分阶段地从以影响因子为主导的评价(2018到2035年),改革为以论文本身为主导的评价(2035-2050年),就是说这个阶段的科研评价,要无问发表论文的期刊是否是《自然》《科学》《细胞》(CNS),无问是否是国际顶尖学术期刊(如PRL),无问是否是高影响因子或一区SCI/SSCI,无问是否是正式期刊发表或者预印本系统发表,无问是英文发表还是中文发表,而是依靠由高水平高质量高公正性的高度负责任的国内外学术同行组成的评审委员会,对论文本身的原创性(和优先权),进行同行评议。 笔者在“代表作评价应更注重成果原创性”小文中提出:对于已获得教授或长聘教职的学者,开辟“评价特区”,对他/她们进行的科研评价以原创性和首发权为天,并鼓励其将高度原创性的科研成果发表在国内中英文期刊上,第一时间获取首发权。这不仅有助于出原创性成果和改变科研评价制度,也有助于实现我国建设世界一流科技期刊的目标。
个人分类: 科技与创新政策|4040 次阅读|36 个评论
把论文写在祖国大地上,让科研评价服务国家战略 || JDIS挪威模型专辑
ontheways 2019-10-16 14:54
挪威模型是以机构(或国家)为对象的科研评估模型,旨在为科研资源分配和绩效评估提供评价规则和指标体系。 Journal of Data and Information Science 特邀挪威模型创建者,北欧创新、科研与教育研究所(NIFU)的Gunnar Sivertsen教授组织本期专辑, 聚焦于挪威模型及其在欧洲国家的应用,首次以全面的国际化视角来展示该模型 。 自专辑出版后,JDIS 编辑部收到国内科研界、科研管理界的热烈反馈: 建议将专辑译为中文,让更多的科研人员和科研管理人员从中得到启发。 因此,编辑部推出了专辑的中文版本以飨读者。 电子版专辑免费获取, 点击此下载 纸质版专辑有偿获取(200元/本),请联系jdis@mail.las.ac.cn 下面是小编根据专辑7篇文章而整理的阅读索引。 1 机构评价和资助参考的评价模型的核心要素 一个可用于机构评价和资助参考的评价模型应该包含哪几项内容? 如何设计、组织和实施? “挪威模型”的详解及其在挪威十几年的实践经验总结,展示了机构或国家层面的完整且结构良好的科研信息系统如何服务于科研管理、国家资助和文献计量等多种目的。 参 见《挪威模型在挪威的应用》 2 科研评价模型要有可操作性——各环节的实践要点 科研评价模型的目标、目的、具体包含的内容、以及各项指标的加权等基本问题都是需要逐渐明确和不断探索的。 利益相关者之间的磋商和碰撞,需要一个过程。 参见《 基于绩效的科研资助体系——挪威模型在丹麦的应用和演绎》 3 构建出版物指标体系,助力各层级评价 构建全方位体现高校活动内容的绩效指标。 重点解析出版物指标系统中对不同类型出版物的分类和加权。 对于构建出版物指标系统的SWOT分析也很有信息量。 参见《 挪威模型在芬兰的应用及经验》 4 构建本地语言成果库,让科研评价服务国家战略 构建当地语言成果库,让科研评价服务国家战略,让科研人员得到应有认可。 科研评价中,我们要重视科研成果转化为经济和社会影响力,高校间与国际间合作的重要性。 参 见《基于绩效的科研资助体系: 挪威模型在比利时弗兰芒地区的演变》 5 多样化的科研成果,多元化的评价标准 学术图书作为重要的科研成果产出形式,在科研评价模型中应该扮演重要角色,但是图书的评价更复杂更困难,其他科研成果产出形式亦是如此。 什么样的图书值得评价,如何评价,或许可以从波兰的探索或许能有所启发。 参见《波兰基于绩效的科研资助体系中的图书评价模型》 6 充分发挥科研管理的激励作用 都柏林大学的科研资助体系,首要目标就是激励学校科研人员在高质量的期刊或出版平台上发表科研成果。 科研奖励专门用于支持科研,覆盖科研活动所需要投入的成本,科研管理部门借此也可以详细了解科研人员的科研活动内容,进而为科研人员营造良好的科研氛围。 参见《都柏林大学基于成果产出的科研资助体系》 7 降低科研管理的不确定性,让科研人员未来可期 一个相对稳定的科研评估模型,不仅可以保证资源的有效利用,也可以让科研人员能沉下心专注于科研工作。 瑞典多家高校(人文科学或社会科学)对指标得分计算方式进行了调整,以此应用于院校内的部门或个人进行资助金额的分配 。 参见《对分值的青睐: 挪威模型在瑞典的吸引力》 电子版 : http://ddl.escience.cn/f/T4d9
个人分类: 期刊评价|4599 次阅读|0 个评论
YZ大学理科博士生在学期间发表论文底线要求:用SCOPUS替代SCI
热度 3 liuli66 2019-4-29 11:22
声明:本文为“虚拟”。如有雷同,属于巧合。 申请YZ大学的博士学位,博士研究生必须在学期间以“第一作者”身份,且(第一)署名单位应为YZ大学,按下述要求发表与博士论文相关的学术论文。 一 指导思想 1、博士研究生在学期间写作和发表学术论文,是一个不可或缺的培养环节。 2、鼓励博士生从事“原创性”研究。 3、对博士学位论文原创性高、或以主要完成人身份获得重大科学奖或重大专利,不做发表学术论文的“硬杠杠”要求。 二 发表要求 1 理科博士生在学期间(普博约4年),必须至少在SCOPUS收录的期刊上,发表2篇学术论文。 2 发表在非SCOPUS收录的期刊上的(中文)论文,如经学位评定委员会进行“同行评议”认定,具有高原创性,可视同为SCOPUS论文。 三 有关说明 1、SCOPUS收录的期刊,比SCI/SSCI收录的期刊,数量更多,且包含更多的国内中英文期刊。又,目前很多大学排行榜或英国大学“卓越科研评价”以及科学计量学研究,均以SCOPUS论文为数据源。 2、对发表的SCOPUS论文,不对“影响因子”或一区二区等作硬杠杠要求。 3、对“第一作者”的界定,含:1)“共同第一作者”,2)(共同)“通讯作者”;3)导师(即亲导师)如为第一作者,学位申请人为“第二作者”。 3、博士生申请答辩时,如未达到学术论文发表要求,可以申请学位论文答辩;答辩通过者,可先行毕业。毕业后在三年期限内达到发表论文的基本要求的,可提出博士学位审议申请。
个人分类: 教与学|576 次阅读|21 个评论
[转载]2019-04-25
liuli66 2019-4-25 09:05
http://xxbg.cic.tsinghua.edu.cn/oath/detail.jsp?boardid=2704seq=130935 清华大学简报 ﹝ 2019 ﹞第13 期  ==================================== 清华大学制定发布《关于完善学术评价制度的若干意见》 为贯彻落实习近平总书记关于改革科技评价制度的重要讲话精神和中共中央办公厅、国务院办公厅《关于深化项目评审、人才评价、机构评估改革的意见》《关于分类推进人才评价机制改革的指导意见》,全面推进一流大学和一流学科建设,建立符合中国特色世界一流大学治理体系和价值追求的学术评价制度,清华大学从 2018 年初开始,成立完善学术评价标准专家组和 6 个专题工作组,历时一年向数百位专家和师生进行广泛调研、深度访谈、专题研讨和征求意见,于 2019 年 4 月 19 日正式发布了《清华大学关于完善学术评价制度的若干意见》(以下简称《意见》)。《意见》明确提出要坚持社会主义办学方向,坚持教书育人是教师的首要职责,以立德树人为根本,以提升学术质量为核心,以服务贡献为重点,完善学术评价制度,形成优良的学术文化。 一、坚决破除“五唯”,突出质量贡献 在评价体系上,克服唯论文、唯帽子、唯职称、唯学历、唯奖项等倾向,建立重师德师风、重真才实学、重质量贡献的导向 。学校从办学长远发展出发,扎根中国大地,将一流的学术标准和完善的学术评价制度纳入一流大学的建设目标之中。坚持以能力、质量、贡献评价人才,正确把握学术评价中数量与质量的关系,强调学术水平和实际贡献,突出代表性成果在学术评价中的重要性。优化学术环境,鼓励教师潜心学术,开展有长远价值和意义的研究工作。鼓励教师以高质量的学术成果服务经济社会发展,进一步完善成果转移转化政策,深化产学研合作,统筹校内外资源,支持教师参与解决影响经济社会发展的重大问题并作出实质性贡献,将相关成果作为职务晋升和工作考评的重要学术业绩。 二、尊重学科差异,突出教书育人 在评价标准上,深刻认识并切实尊重不同学科存在的客观差异,实施分类评价,明确教书育人是教师的第一学术责任 。把教书育人的投入与成效纳入教师学术评价体系,将师德师风作为评价教师队伍素质的第一标准,在职务晋升、工作考评中把教育教学和人才培养情况作为评价的重要内容,要求教师要践行价值塑造、能力培养和知识传授“三位一体”教育理念,学为人师、行为世范。同时,完善以促进全面发展为目标的学生评价制度,着重培养学生学术志趣、科学精神和学术能力。完善学生评奖评优机制。以提升质量为导向,完善学位论文的学术评价标准。一方面鼓励依据学位论文以及多元化的学术创新成果评价博士生学术水平,不再以学术论文作为唯一依据,激励博士生开展原创性、前沿性、跨学科研究。另一方面,由各学科制定学术创新成果要求,不再设立学校层面的统一要求,尊重学科特点和差异。 三、强化学术共同体意识,形成优良学术文化 在评价主体上,强调提升学术共同体在学术评价活动中的地位和作用,加强学术共同体和学术文化建设。 切实尊重学术共同体的学术判断,发挥学术共同体在学术标准制定和学术评价过程中的作用,完善各类学术组织和学术机构的职责和工作规程。树立良好的学术风范,增强学术共同体的自律,提升成员的荣誉感和责任感。提升学校的学术文化品位,促进学术水平持续提升。营造宽松包容的学术环境,鼓励师生自由探索。坚守学术道德,对学术不端行为零容忍。建立坚守诚信、崇尚创新、鼓励探索、敢于担当、宽容失败的学术文化。 为确保《意见》落实,学校专门成立了完善学术评价制度领导小组,统筹推进各项工作;同时成立完善学术评价制度工作组,保证相关工作落实落地。学校计划在 2019 年底之前完成“七大任务”:一是研究制定符合学科特点的分类评价制度;二是建设基于学术责任及成就的教师评价体系;三是完善研究生学位论文的学术评价标准;四是完善大学生荣誉奖励体系;五是完善学校、院系各委员会职责和工作规则;六是完善校内科技奖励制度;七是完善学术诚信教育和惩戒制度。学校党委将加强对完善学术评价制度工作的统一领导,统筹推进各项任务,组织修订校内涉及学术评价的相关制度文件,积极动员广大师生参与学术评价制度建设和学术文化建设,不断完善学术评价制度,形成优良的学术文化。 (供稿单位:科研院 责编:袁浩歌 核发:丛振涛) 报: 教育部办公厅, 北京市委教育工委 送: 校领导 清华大学党委办公室、校长办公室 2019 年 4 月 24 日
个人分类: 科技与创新政策|2 次阅读|2 个评论
英国对人文学科的评价:看原创性,不看影响因子和被引用数
热度 7 liuli66 2019-4-13 11:55
在国内外大力破“唯影响因子”评价的情况下,很多大学教师尤其是“青椒”疑惑纠结:不用影响因子,那你拿什么评价我能否入教职、能否上职称、能否获得铁牛(tenure)? 英国大学“卓越科研评价框架”(REF)规定:科研评价,只看原创性,不看影响因子或被引用数。英国的科研评价理念和做法,可借鉴参考。 一、何谓“原创性”? 什么是“原创性”(originality)?如何评价“原创性”?英国针对大学的“卓越科研评价框架”关于科研成果原创性评价标准,具有参考、借鉴意义。 科学社会学家默顿提出,原创性是科学的最高价值。科学作为一种社会制度,将原创性视为最高价值。他将原创性纳入科学的五种精神气质之中,即公有主义、普遍主义、无偏私性、原创性和怀疑主义。 正是通过原创性科研成果,人类知识才得以不断增长。从科学家转型为科学社会学家的齐曼提出,所谓原创性,就是给人类知识宝库“添新砖”“加新瓦”。 比如,提出新科学问题,探索新研究方法,获得新数据,提出新理论、新解释,或者是以上的组合。可以说,原创性是科学的精气神。 英国针对大学的“卓越科研评价框架”(以下简称REF),对科研成果的原创性提出相对可操作的界定,即原创性,指的是某个科研成果在多大程度上对某个科研领域的理解和知识作出了创新和重要的贡献。 具体来说,一个具有原创性的科研成果指的是,作出新的实证发现,或发现新材料,以及对这些新发现或新材料作出新解释;解决新问题或复杂难题;开发出创新性的研究方法、方法论和分析仪器设备;拓展出富有想象力和创造性的研究视野;提出新论证或/和新表述、新解释或/和新洞见;获得或采集到新的数据;或/和对社会政策和实践提出新理论、新分析或新表述。 英国对大学科研成果的评价,除了坚持原创性标准之外,还提出要兼顾对科研成果的“意义性”和“严谨性”进行评价。 所谓“意义性”,指的是某项科研成果在多大程度上对人类知识、学术思想或对社会政策和实践产生影响,或者对它们具有多大的影响潜力。也就是说,要全面评价科技创新成果的科学价值、技术价值、经济价值、社会价值、文化价值。 所谓“严谨性”,指的是某项科研成果是否充分体现学术严谨性、体现学术诚信科研伦理,使用的概念、分析方法、数据资料、理论和方法论是否确凿可信。 二、如何评价人文学科成果的“原创性”? 英国REF对科研成果采取“代表作”制(一个教师提供5年来的4篇论文或成果),“专家同行评议”和“分类评价”。 REF将科研成果划分为四大类学科进行评价。 第一类:物质科学、工程和数学;第二类:医学、健康和生命科学;第三类:社会科学;第四类:人文与艺术。 REF把科研成果的原创性(以及科研成果的意义性、严谨性),划分为四个层次,分别是四星、三星、二星、一星。 笔者曾经介绍REF对“物质科学、工程和数学”学科、“社会科学”成果的“原创性”(及意义性和严谨性)评价标准,这里再介绍REF对“人文学科”成果原创性的评价标准。必须指出:原创性是有“层次”之分的。 如果某项人文学科成果具有或潜在具有下列某些特征,可评定为四星级: •属于基点性的“参考点”(essential point of reference)。 •产生了广泛而深远的影响 •对提出新思维,新实践,新范式,新政策具有重要的推动作用。 •对现有研究的范围和深度及应用作出了重要的扩展, •具有突出的新颖性、创新性或创造性。 如果人文学科成果具有或潜在具有下列某些特征,可评定为三星级: •• 属于重要的“参考点”(point of reference)。 •。产生了相当大的影响 •对提出新思维,新实践,新范式,新政策具有催化作用或作出了重要贡献 •对现有研究的范围和深度及应用作出了较大的扩展, •具有较大的新颖性、创新性或创造性。 如果某项社会科学成果具有或潜在具有下列某些特征,可评定为二星级: •属于可识别出来的“参考点”(point of reference)。 •。产生了一定的影响 •对提出新思维,新实践,新范式,新政策具有渐进性和累积性作用 •对现有研究的范围和深度及应用作出了一定贡献。 如果某项人文学科成果具有或潜在具有下列某些特征,可评定为一星级: •可以看出该成果对人文理解有贡献,但无助于对现有范式的提升。 •影响微小 如果某项人文学科成果未达到一星级的门槛,则打入“忽略不计”行列。 三、对人文学科成果的评价,不得看影响因子 REF《评价标准》规定:任何评估小组(四大类学科主评估组下,划分为34个小学科评估小组),对科研成果进行评估,不得考虑发表该成果的期刊的影响因子,不得考虑期刊的档次和级别,包括人文学科的成果。 四、对人文学科成果的评价,一律不得看被引用数。 REF《评价标准》规定 ,对人文学科及二级学科,在成果评价时,一律不看被引用数。 结语 任何国家或大学的科研评价标准,必须与其发展阶段相适应,当具有“国别特色”或“自己特色”。在吾国很多大学处于世界三流或二流大学的情况下,在人文学科具有不同于自然科学和工程学科、社会科学的学科特性以及具有鲜明“国情”的情况下,吾国大学(包括已宣称进入了世界一流大学的PK U),在现实中采用期刊档次如A刊、CSSCI及影响因子、被引用数等量化指标的评价做法,具有很大的合理性,当然也有不合理性。 对于那些已经接近或进入世界一流水平人文学科,对它们的评价要分阶段地超越影响因子等量化指标,逐步转向基于同行专家评议的对成果本身的原创性评价。对长聘正教授科研成果的评价,也当如此。
个人分类: 科技与创新政策|5431 次阅读|50 个评论
社会科学的原创性,如何评价?
热度 7 liuli66 2019-3-24 12:11
英国大学社会科学评价:不看影响因子,看原创性 在国内外大力破“唯影响因子”评价的情况下,很多大学教师尤其是“青椒”疑惑纠结:不用影响因子,那你拿什么评价我能否入教职、能否上职称、能否获得铁牛(tenure)? 英国大学“卓越科研评价框架”(REF)规定:科研评价,只看原创性,不看影响因子或被引用数。看看英国的科研评价理念和做法,可借鉴参考。 一、何谓“原创性”? 什么是“原创性”(originality)?如何评价“原创性”?英国针对大学的“卓越科研评价框架”关于科研成果原创性评价标准,具有参考、借鉴意义。 科学社会学家默顿提出,原创性是科学的最高价值。科学作为一种社会制度,将原创性视为最高价值。他将原创性纳入科学的五种精神气质之中,即公有主义、普遍主义、无偏私性、原创性和怀疑主义。 正是通过原创性科研成果,人类知识才得以不断增长。从科学家转型为科学社会学家的齐曼提出,所谓原创性,就是给人类知识宝库“添新砖”“加新瓦”。 比如,提出新科学问题,探索新研究方法,获得新数据,提出新理论、新解释,或者是以上的组合。可以说,原创性是科学的精气神。 英国针对大学的“卓越科研评价框架”(以下简称REF),对科研成果的原创性提出相对可操作的界定,即原创性,指的是某个科研成果在多大程度上对某个科研领域的理解和知识作出了创新和重要的贡献。 具体来说,一个具有原创性的科研成果指的是,作出新的实证发现,或发现新材料,以及对这些新发现或新材料作出新解释;解决新问题或复杂难题;开发出创新性的研究方法、方法论和分析仪器设备;拓展出富有想象力和创造性的研究视野;提出新论证或/和新表述、新解释或/和新洞见;获得或采集到新的数据;或/和对社会政策和实践提出新理论、新分析或新表述。 英国对大学科研成果的评价,除了坚持原创性标准之外,还提出要兼顾对科研成果的“意义性”和“严谨性”进行评价。 所谓“意义性”,指的是某项科研成果在多大程度上对人类知识、学术思想或对社会政策和实践产生影响,或者对它们具有多大的影响潜力。也就是说,要全面评价科技创新成果的科学价值、技术价值、经济价值、社会价值、文化价值。 所谓“严谨性”,指的是某项科研成果是否充分体现学术严谨性、体现学术诚信科研伦理,使用的概念、分析方法、数据资料、理论和方法论是否确凿可信。 二、如何评价“原创性”?以“社会科学”为例 英国REF对科研成果采取“专家同行评议”和“分类评价”。REF将科研成果划分为四大类学科进行评价。 第一类:物质科学、工程和数学;第二类:医学、健康和生命科学;第三类:社会科学;第四类:人文与艺术。REF把科研成果的原创性(以及科研成果的意义性、严谨性),划分为四个层次,分别是四星、三星、二星、一星。 笔者曾经介绍REF对“物质科学、工程和数学”学科的“原创性”(及意义性和严谨性)的评价标准,这里再介绍REF对“社会科学”原创性的评价标准。必须指出:原创性是有“层次”之分的。 如果某项社会科学成果具有或潜在具有下列某些特征,可评定为四星级: 提出了全新(outstandingly novel)的概念、范式、研究方法或崭新的研究结果。 奠定了未来社会科学的研究元点(primary point of reference)。 对 学术研究议程不断产生影响。 研究设计、研究方法、调研和分析非常严谨扎实。 获得或开辟了极为重要的数据或研究资源。 如果某项社会科学成果具有或潜在具有下列某些特征,可评定为三星级: 提出了新颖的概念、范式、研究方法或崭新的研究结果。 奠定了未来社会科学的研究基点。 提出了非常重要的新知识、新思想和分析方法,很有可能对未来的学术研究议程持续的产生影响。 研究设计、研究方法、调研和分析严谨恰当。 获得或开辟了确凿的数据或研究资源。 如果某项社会科学成果具有或潜在具有下列某些特征,可评定为二星级: 提出了重要的新知识 对知识库作出了渐进性的或累积性的贡献 很专业地进行和采用了研究设计、研究方法调研和分析。 如果某项社会科学成果具有或潜在具有下列某些特征,可评定为一星级: 获得了有用的(useful)的新知识,但该知识不大可能产生较大的影响。 对知识库有一定的贡献,但是属于现有的范式或框架之内。 恰当地进行和采用了研究设计、研究方法调研和分析。 如果某项社会科学成果未能达到上述质量,则打入“忽略不计”行列。 三、不得看影响因子 REF规定,对大学科研成果评价,不得看影响因子,慎看被引用数。 REF《评价标准》规定:任何评估小组(四大类学科主评估组下,划分为34个小学科评估小组),对科研成果进行评估,不得考虑发表该成果的期刊的影响因子,不得考虑期刊的档次和级别。 四、慎看被引用数 若干小学科评估小组明确表示:科研成果评价中,彻底不看引用数,比如物质科学、工程和数学大类中的“数学”评估小组,“工程”评估小组;社会科学大类中除“经济学和计量经济学”评估小组之外,所有其他小组均不看引用数。“艺术与人文”大类,一律不看引用数。 若干小学科评估小组表示,会部分看引用数,比如医学大类的所有分学科评估小组均看引用数。 四大类学科主评估组对那些在科研评价中参考引用数的评估小组,作出下述规定: 1)引用数仅仅作为评估科研成果的学术意义(academic significance;或学术重要性,学术价值)[案:而非原创性]的一个指标。引用数只是提示同行评议判断成果质量的一个元素,不得用作评估的主要指标和工具。 2)如果某项科研成果没有提供引用数,并不意味着该成果缺乏学术意义。 3)评估小组应当认识到,引用数只是有些时候而非总是一个可靠的指标(reliable)。评估小组还应当认识到,引用数并不是一个总可以查到的数据,并且,引用数因学科或评估单元不同而不同,不能搞“一刀切”。 评估小组应当认识到,引用数,对某些类型的成果(如应用性科研成果)是一个不可靠的指标;而且,引用数,对不是用英语写作的科研成果以及新近发表的成果,存在着很大的局限性(案:和不公平)。 4)评估小组如果看引用数,只能看REF评估组提供的数据,任何其他机构和个人提供的数据都是无效的。任何评估小组不得看期刊影响因子或期刊级别分区。 5)任何看引用数的评估小组,必须遵循REF的总规定。任何评估小组必须把同行专家评议作为科研成果评价的主要手段,以此作为对科研成果的原创性以及意义性和严谨性进行全面的评估。 结语 任何国家或大学的科研评价标准,必须与其发展阶段相适应,当具有“国别特色”或“自己特色”。在吾国很多大学处于世界三流或二流大学的情况下,在社会科学具有不同于自然科学和工程学科的学科特性以及鲜明“国情”的情况下,吾国大学(包括已宣称进入了世界一流大学的PK U)在现实中采用期刊档次如A刊及影响因子、被引用数等量化指标的评价做法,具有很大的合理性,当然也有不合理性。 对于那些已经接近或进入世界一流社会科学的学科,对它们的评价要分阶段地超越影响因子等量化指标,逐步转向基于同行专家评议的对科研成果本身的原创性评价。对长聘正教授的科研成果评价,也当如此。
个人分类: 科技与创新政策|2285 次阅读|21 个评论
高校排名到底应该怎么排
热度 9 formthin 2019-3-20 08:36
黄洪林 江西中医药大学 刚看到科学网的新闻栏目,标题是:高校校长谈大学排名:不能不看也不能全看,在此特想谈谈自己的想法。 高校排名到底应该怎么排,才算合理。该文章说:不同版本的大学排行榜“掐架”也比较激烈。例如:东华理工大学在两种不同的排名方法前,相差了 175 名。所以,一些高校校长认为,高校排名,不能不看也不能全看,因为这些排名的方法依据的指标不同,得出的结论就不同,尤其是规模不大,专业性强的学校,排名就落后,包括科研经费总额都会有差距,这样的结果肯定不符合实际,如人文学科的中国人民大学,和理工科的中国科技大学。 现在问题是,高校排名有没有简单、合理的排名方法?我认为还是有的,当然,这种简单合理的排名方法需要建立在一种新的科学评价方法基础上。在此,我想谈谈自己的见解。 首先,我们要明白,什么是大学。按照英国教育家 纽曼的话来说:大学的职责是提供智能、理性和思考的练习环境。让年轻人凭借自身所具有的敏锐、坦荡、同情力、观察力在共同的学习、生活、自由交谈和辩论中,得到受益一生的思维训练。能够提供优质的以上服务,决定因素是这所学校的教师,拥有优质是师资才算得上是好的大学。蔡元培对大学的理解是“大学者,‘囊括大典,网罗众家’之学府也。”梅贻琦在就职演讲中提出“所谓大学者,非谓有大楼之谓也,有大师之谓也”的著名论断。也就是说,评价大学就是评价大学所拥有的教师队伍。对于某一大学来讲,职称就是评价教师的方式。但是,这些都是大学关起门来自己评, 985 学校, 211 学校,普通高校,同一职称的教授,学术水平能一样吗?如果数教授数量肯定不能比较两所学校的差距,所以,有了后来的论文数,科研经费数目的评价。如果对于年岁已高,热心传授知识的教授,这不就影响了对其学校的评价,从科研人才规律来讲,创造性劳动也是在 40 岁之前,之后的教授,即使有科研成果,多数也是盘剥学生的智力劳动。 我认为,如果要采用评价教师队伍的方法来评价大学,首先需要在某一特定专业领域,各个大学的教师们需要放在一起进行评价。打一个恰当的比喻,如围棋有段位、钢琴有考级、官员有级别,这都是某一特定领域进行评价。如我们药学专业领域,可以细分为药物化学、药理学、药剂学、药物分析学等,都可以有自己的全国行业学会,让这个行业学会制定规则进行评价,结果在行业学会网站公布,供全社会用人单位查阅。对于教师的专业水准评价,我认为就是两个指标:一是对本专业领域知识的掌握程度和应用能力,另外一个指标就是对本专业领域知识的贡献。第一个是入门的基本要求,要往高层次人才爬升,需要第二个指标权重增加,体现在科学论文,这些也可以通过同行答辩来甄别,一般有高层考察低层,然后民主投票决定。最高级别的层次人数较少,越往低走,人数越多,可以类似与官员的级别,如国级、副国级、省部级、厅级等依次排序。行业评价机构只是一个评价机构,为社会提供专业服务,用人权力还是在于大学的管理层,也就是由大学校长来决定给予应聘教师什么职位。也就是说,学术评价由行业学会进行,聘用由大学决定,评聘分开,可以高聘也可以低聘。参照学者在其行业学会学术地位,通过用人单位和学者之间议价来决定,这样人才可以按照市场要求自由流动。这样一来,学校的评价就非常简单了,对于某一学科,拥有教师数量和级别就很自然可以排序了。这个排序可以非常稳定,除非大学遭遇经济困难,没有经费养护这些高端人才,出现人才外流现象。因为大学要上升,唯一的就是按照市场规律来招聘人才,也能体现人才的价值。之于科研的评价,应该由科研投资部门来管理,这个可以采用科研贷款制来进行,这个话题今天我就不展开来讲,在我之前的博文中已大量提及。 有专业学会来进行专业人才水平评价和定等级是最准确的,大家都知道,专业人员隔行如隔山,离开了专业,只能依靠某些指标来加减,即使是大学有学者组成的学术委员会也是如此。由此类推,其实学位的颁发也可以脱离学校,由行业学会进行。这样,不同层次学校出来的同学位人才都是同等的水平。 今天的博文是看过科学网新闻,《高校校长谈大学排名:不能不看也不能全看》后,灵感来了,发表此议论,算是抛砖引玉吧,看看有没有共鸣者。
8955 次阅读|11 个评论
“谁”是科研评价的主裁判?
热度 13 qsqhopeiggcas 2019-3-15 14:12
关于如何合理地进行科研成果评价,历来是个热门话题。如有不少人士认为小同行评价靠谱,这事儿还真不一定,得分情况而论。 对于从“ 1 到 N ”的跟风式科研成果,小同行容易依靠过去的知识判断在前人的基础上进展有多大,且这样的成果动不了同行的“奶酪”,同行容易给出较为客观的评价。 然而,对于从“ 0 到 1 ”的原创性科研成果,往往因推翻了以前的认识,让诸多小同行感到自己以前的工作是“无用功”或“鸡肋”,可能会以冷漠、敌视甚至激烈反对的态度待之。纵观科学发展史,这样的成果一面世,最先跳出来反对的往往是小同行, TA 们一心要为捍卫“真理”而斗争。 记得看过这么一个故事(来自度娘): 1930 年爱因斯坦听说《 100 位教授出面证明爱因斯坦错了》,他闻讯后, 耸耸肩道 : “ 100 位?干吗要这么些人?只要能证明我真的错了,哪怕是一个人出面也足够了。 ” 由此看出,越是重要的原创性成果,其成长、壮大乃至最终的全面认可,首先是要突破小同行的“围剿”。可以这样说,起码在创新初期,小同行不是推动创新的“助推器”,而是绊脚石。 再者,小同行几乎都认可的成果是正确的吗?咱不讲大道理,举个例子说明。如圈内小同行普遍认可地震复发周期的概念,但这事儿存在吗?我曾经和圈内人士讨论过这个问题,说你们能举出一个实例证明这事儿存在,我都认可,结果是找不到一个靠谱的实例。想想,如果对“谁”在发震都不甚清楚,对地震产生过程有诸多误解,基于猜测提出的任何概念都不可能靠谱,只能是无源之水、无本之木啊。 大家晓得,投票表决是最基本的民主方式,决策时视支持意见多寡而定,这在大多数情况下也许是正确的,但是这种方式不适用于科研评价。因为在科研中(起码在初期)真理往往掌握在少数人手中,大多数人 的 意见往往只是代表了一种心理,而不是真相 。 简言之, 科学是不需要投票表决的 。 那么,“谁”是 科研评价的主裁判呢? 科学发展史告诉我们,只能是 实践或时间,其是检验认识是否正确的唯一标准 。任何科研结成果,即使具有原创性,但若通不过检验,只能认为是昙花一现的废品;反之,可能是载入史册的伟大成果。 针对“文化大革命”刚结束后学界出现的学风败坏现象,如粗制滥造 , 争名夺利,任意吹嘘等 , 1978 年华罗庚在中国数学会成都会议上语重心长地提出“早发表,晚评价。”后来又进一步提出“努力在我,评价在人。”这实际上提出了科学发展及评价科学工作的客观规律,即科学工作要经过历史检验才能逐步确定其真实价值,这是不依赖人的主观意志为转移的客观规律。 参考(略) 相关: 学界必须遵守“早发表,晚评价”的基本原则 http://blog.sciencenet.cn/blog-575926-1069662.html 科学感悟:实证为王 http://blog.sciencenet.cn/blog-575926-1104067.html
个人分类: 建言献策|4133 次阅读|34 个评论
新时代科研评价要突出“唯原创性”标准
热度 20 liuli66 2019-3-7 12:39
新时代科研评价要突出“唯原创性”标准 国家在大力破“四唯”“五唯”,那么“立”什么?当立“唯原创性”标准。 笔者曾发表文章:代表作评价制度应更强调成果原创性。 什么是“原创性”(orginality)?如何评价“原创性”?英国针对大学的 “卓越科研评价框架”(REF)关于科研成果原创性评价的标准,具有参考借鉴价值。 从科学家转型为科学社会学家的齐曼提出,所谓原创性就是给人类的知识宝库添新砖加新瓦,比如提出一个新的科学问题,探索出新的研究方法,获得新的数据,提出新的理论,提出新的解释;或者是这些新东西的组合。 英国针对大学的 “卓越科研评价框架”(REF) ,对科研成果的原创性提出了可操作性的界定,原创性指的是某个科研成果在多大程度上对某个科研领域的理解和知识作出了创新性和重要性贡献。具体说来,一个具有原创性的科研成果,指的是:作出了新的实证发现,或发现了新的材料(案:如考古新发现),以及对这些新发现或新材料作出了新的解释(案:如对清华简的解读);解决了新问题或复杂难题;开发出创新性的研究方法、方法论和分析仪器设备;拓展出富有想像力和创造性的研究视野;提出了新的论证或/和新的表述、新的解释或/和新的洞见;获得或采集到新的数据;或/和对社会政策和实践提出了新的理论、新的分析或新的表述。 英国对大学科研成果的评价,除了坚持原创性标准之外,还提出要兼顾对科研成果的“意义性”和“严谨性”进行评价。所谓“意义性”(significance,或重要性或价值性),指的是某项科研成果在多大程度上对人类知识、学术思想或对社会政策或实践产生了影响,或者对它们具有多大的影响潜力。给广泛地说,就是要评价科技创新成果的科学价值、技术价值、经济价值、社会价值、文化价值。 所谓“严谨性”(rigour),指的是某项科研成果是否充分体现了学术严谨性、体现了学术诚信科研伦理,使用的概念、分析方法、数据资料、理论和方法论是否确凿可信。比如,NgAgo基因编辑技术, 对人类胚胎的编辑等所谓科研成果,违背了科研诚信和伦理,因而不符合“严谨性”评价标准。 科研成果的原创性(含科研成果的意义性、严谨性) 是分层次的。大体可以划分为最高层次(人类顶级):在人类历史上开天辟地;第二层次(国际一流):在国际上顶天立地;第三层次(国际二流):国际认可;第四层次(国际三流):国内认可,以及缺乏原创性的“忽略不计“。 对科研成果的原创性评价,可参考借鉴英国 “卓越科研评价框架”(REF) 。“卓越科研评价框架”(REF)对科研成果进行“专家同行评议”和“分类评价”。这里指的是划分为四大类学科进行科研评价,分别是:第一类: 物质科学、工程和数学 ;第二类:医学、健康和生命科学;第三类:社会科学;第四类:人文与艺术。“卓越科研评价框架”(REF)对科研成果的原创性(含科研成果的意义性、严谨性)评价,划分为四个层次,分别是四星,三星,二星,一星;如果科研成果质量未达到一星标准,则打入“忽略不计”行列。 这里介绍物质科学、工程和数学大类对科研成果原创性(含科研成果的意义性、严谨性)层次的评价标准。 “物质科学、工程和数学”类成果 原创性(含科研成果的意义性、严谨性) 评价标准: 专家评议组要根据证据事实以及其他规定的通用标准,对科研成果的原创性(含科研成果的意义性、严谨性),进行评议: 四星级:如果某项科研成果具有或潜在具有下列某些特征,可评定为四星级: 开辟了新的科研议程(agenda-setting),导致其他科学家跟随跟踪或跟风。 引领(leading)世界科研,走在国际前沿。 对提出新思维、新技艺、新结果具有很强的新颖性(novelty)。 对科研主题和议程具有重大的影响。 提出了新的范式(paradigm)或崭新的概念 对社会政策或实践产生了重大的影响。 对生产过程、工艺流程和管理产生了重大的影响。 对用户产生了重大的影响。 三星级:如果某项科研成果具有或潜在具有下列某些特征,可评定为三星级: 在国际层面,对某科研领域作出了重要的贡献。 对某领域的知识、思想和方法作出了重要的贡献,并将产生持续的影响。 对社会政策和实践产生了重要的影响。 对生产过程、工艺流程和管理产生了重要的影响。 对用户产生了重要的影响 。 二星级:如果某项科研成果具有或潜在具有下列某些特征,可评定为二星级: 产生了有用的知识,对某领域有一定的影响。 作出了渐进性的贡献,比如对已有的理论和范式添砖加瓦。 对社会政策或实践产生了一定的影响。 对生产过程、工艺流程和管理产生了一定的影响。 对用户产生了一定的影响。 一星级:如果某项科研成果具有或潜在具有下列某些特征,可评定为一星级: 科研成果有用,但对本领域影响较小。 对社会政策或实践影响较小。 对生产过程、工艺流程和管理的影响较小。 对用户的影响较小。 “忽略不计”:如果科研成果的质量等,远远低于上述标准,则打入“忽略不计”行列。 结语:在新时代,我国高校和研究机构在评职称、“准聘—长聘”铁牛轨、各种“帽子”以及科研评奖时,应逐步转换评价标准和评价思维,淡化影响影子等量化指标,将科研成果的原创性程度作为最高准则,不管论文发表的期刊是否国际顶尖学术期刊,不管期刊是否高影响因子一区二区,不管是发表在英文还是中文期刊上。另外,科研评价,必须高度重视“首发权”。在科学研究中,只有第一,没有第二。我国科学家应充分利用国内中英文期刊获取科研成果的“首发权”(priority)。 补充20190415 原创性_学术评价的最高标准_何凯2002.pdf 邓小南谈学术研究如何兼顾原创性与时代性 2018 力度_厚度_深度_学术研究如何兼顾原创性与时代性_邓小南.pdf 原创性_学术研究的基本准则_陆敏.pdf 2002 刘念才等 科研评价_中国一流大学重大原创性_省略__基于国内外精英科.pdf 补充20190429 CAST优秀国内论文遴选指标标准.docx 科研评价 影响因子原创性与首发权.pptx
个人分类: 科技与创新政策|3729 次阅读|100 个评论
科研评价奖励:原创性和首发权高于影响因子
热度 10 liuli66 2019-1-8 19:45
科研评价:原创性和首发权高于影响因子 笔者曾发表文章提出:优先权高于影响因子;以及:代表作评价更应注重成果的原创性。现在,笔者从原创性、优先权(首发权)和影响因子三个维度,提出科研评价三维立方,如图1所示: 图1 科研评价三维立方 科研成果,按三维划分,可划分为8个象限: 1 原创性 高;优先权 有;影响因子 高。薛象限 2 原创性 高;优先权 有;影响因子 低。屠呦呦象限 3 原创性 高;优先权 无;影响因子 高。莱布尼茨微积分象限 4 原创性 高;优先权 无;影响因子 低。华莱士进化论象限 5 原创性 低;优先权 有;影响因子 高。NSC大多数象限 6 原创性 低;优先权 有;影响因子 低。SCI/SSCI大多数象限 7 原创性 低;优先权 无;影响因子 高。CXXX刊象限 8 原创性 低;优先权 无;影响因子 低。水刊象限 科研评价三维立方的主要意思是: 科研成果的原创性(originality, innovativeness),是最高的评价标准;但,某人或某单位必须拥有该成果的优先权(priority)或首发权,即你必须是第一个发现该成果的研究者,主要以科研论文为evidence(证据);所谓科学研究“只有第一,没有第二”。在科研评价的现实中,国内外均看重(发表论文的期刊)影响因子。 下面举例说明: 案例1 2018年度国家自然科学奖一等奖项目 “量子反常霍尔效应的实验发现”:原创性,高;优先权,有;影响因子,高 据可靠资料说:这是在国际上首次实验发现了量子反常霍尔效应。该成果的关键成果和代表作发表于2013年SCIENCE[1]。 (来源: http://science.sciencemag.org/content/340/6129/167/tab-pdf ) 该发现是否具有科研发现的一个最基本要求“可重复性”呢?据可靠资料,该发现已被国际多个实验室重复确认。而这多个国际实验室在 量子反常霍尔效应实验发现这个高度激烈的 科研竞赛中,失去了首发权,输了。 国内外同行评价如何呢?据可靠资料,2016年诺贝尔物理学奖得主霍尔丹认为是拓扑量子物质领域近二十年最重要的实验发现。诺贝尔物理学得主杨先生认为,是诺奖级的科研成果。 外行往往不懂得“量子反常霍尔效应的实验发现”的原创性,喜欢看影响因子和被引用数。据可靠资料,该成果的8篇代表性论文被SCI他引超2200次,高!其实,对于最高水平的科研评价,是不会看影响因子和被引用数这类“科学计量学”或数数指标的,比如诺贝尔科学奖就绝不搞数数。不知道国家科技奖励填写表是否有“数数”的内容,比如是否要求填写影响因子,被引用数?如有,笔者建议,以后废除这些科学计量学数数指标。 案例2 屠呦呦发现青蒿素治疗疟疾。原创性,高;优先权,长期争议后获得;影响因子,低。 该成果具有高度的原创性和IMPACTS(治疗千千万万疟疾病人,拯救了千千万万人的生命),遗憾的是,很多很多年来,吾国科学共同体未能认识到其科学价值和社会医疗价值,比如屠呦呦多次申报院士未能成功;该项目直到2015年屠呦呦获得诺奖后,才获得国家最高科技奖。 关于青蒿素科研成果的优先权:为了获得我国在青蒿素科研发现的优先权,“青蒿素协作组“1977年在国内中文期刊《科学通报》上发表了一页纸的论文,板上钉钉,从而确立了我国在青蒿素上的首发权优先权,全球都认可。但是,关于青蒿素治疗疟疾的优先权,究竟属于哪个科学家和哪个单位?长期以来激烈争论不休。屠呦呦为捍卫自己在青蒿素发现的优先权上作出了很多努力,也引发了一些”矛盾“。最后,诺奖委员会一锤定音,确立屠呦呦作为青蒿素的最关键贡献者。 来自网络 案例3 CAX发现外尔费米子。原创性,高;优先权,争议中;影响因子,低。 CAX课题组 ,与国际上两个课题组,同时独立发现了外尔费米子。在现行科研评价体制下,CAX团队将论文投稿到影响因子很高的SCIENCE期刊。结果是:SCIENCE同期正式(ONLINE)发表了国际上两个课题组的论文,而拒了CAX的论文。CAX与外尔费米子重大科研发现的优先权首发权,失之交臂。CAX课题组后来立马转身从SCIENCE转战到一个影响因子较低的专业期刊上发表了该成果。因而,有若干国际科研机构以及CAX自己均 承认CAX课题组 的外尔费米子的优先权。 结束语 国际学术界流传”Publish or Perish”,其题中应有之义就是:发表为王,首发为大王。如何第一时间获取“首发权”? 我们曾提出:充分利用国内期刊获取首发权。 现在国家政策提出破“四唯“”五唯“。不破不立。那么,”立“什么?就是要立“原创性”,立“首发权”。 [1]C. Z. Chang, J. S. Zhang, X. Feng, J. Shen, Z. C. Zhang, M. H. Guo, K. Li, Y. B. Ou, P. Wei, L. L. Wang, Z. Q. Ji, Y. Feng, S. H. Ji, X. Chen, J. F. Jia, X. Dai, Z. Fang, S. C. Zhang, K. He, Y. Y. Wang, L. Lu, X. C. Ma and Q. K. Xue, “Experimental Observation of the Quantum Anomalous Hall Effect in a Magnetic Topological Insulator”, Science 340, 167 (2013). http://science.sciencemag.org/content/340/6129/167/tab-pdf
个人分类: 科技与创新政策|3982 次阅读|58 个评论
1985年的Optics Communications其实很牛
热度 8 ningbi 2018-10-8 16:45
国庆除了抱娃,主动被动 ( 半推半就 ?) 也得关注 NB 奖。其中一个细节,让我印象深刻,就是物理学奖时隔 55 年再次授予女生: 因为找到了生成高强度超短光脉冲办法的加拿大唐娜 · 斯特里克兰 (Donna Strickland) 和法国的热拉尔 · 穆鲁共同摘得了 900 万瑞典克朗奖金的一半 ,唐娜也 成为历史上第三位获得 诺贝尔物理学 奖的女科学家。 国内对此事的关注,还有一个有趣的细节: Donna 及其导师获奖的代表作发表在 Optics Communications 上,此刊影响因子 1.887 。一些人、一些媒体对此的解读为:此刊影响因子较低,大科学家并不追求在高影响因子期刊上发文等。 事实果真如此吗? 依据诺贝尔奖官方网站 ( https://www.nobelprize.org/uploads/2018/10/popular-physicsprize2018.pdf ) ,这篇代表作为: Strickland, D. and Mourou, G. (1985) Compression of Amplified Chirped Optical Pulses, Optics Communications, Vol. 56, Nr 3 。 Donna 是第一作者,其导师是通讯作者。 查询 JCR 数据库, Optics Communications 其 2017 年影响因子的确是 1.887 。但还有一系列问题需要回答: 问题 1 :影响因子 1.887 就低吗? 问题 2 : 1985 年 Optics Communications 的影响因子是 1.887 吗? 问题 3 : Optics Communications 在 1985 年的江湖地位到底如何? 我们尝试着用已经知道的事实一一回答: 问题 1 :在光学学科,影响因子 1.887 不低的。同样依据 JCR2017 , Optics Communications 影响因子 1.887 ,学科排名为 46/94 ,即在 Optics 学科 94 种期刊中排名 46 位, Q2 。不算低。至于有人认为低,可能是拿光学学科期刊影响因子与其他影响因子普遍较高的学科 ( 比如医学或生命科学 ) 比了。影响因子跨学科直接比较,是误用行为之一。当然这个影响因子也不算特别高。但请冷静想一想, Donna 那个时候博士还没有毕业哦 ( 诺贝尔奖官方网站给出其博士毕业时间是 1989 年 ) ,即使只是一个 Q2 期刊,是不是也很不错了? 问题 2 : 1985 年 Optics Communications 的影响因子不是 1.887 ,比这个还低一点。是多少呢?电子版本的 JCR 数据库现在可以直接追溯到 1997 年,我们正在查询纸质版本的 JCR ,暂时给不出这个准确数据,但是依据 Web of Science 数据库可以大致测算的。推测 1985 年中发布 JCR1984 ,影响因子应该是计算 Optics Communications1982 年和 1983 年的文章在 1984 年的平均被引用次数。我们的测算大约是: 1.527 。当然,这个只是推算。拿到准确数据我第一时间告诉大家。 问题 3 : Optics Communications 在 1985 年的江湖地位挺高的,比现在强多啦!同样依据 JCR , 21 年以来 (1997-2017)Optics Communications 的影响因子及其学科排名如下: JCR 年 影响因子 学科期刊数 学科排名 相对位置 2017 1.887 94 46 48.94 2016 1.588 92 52 56.52 2015 1.480 90 50 55.56 2014 1.449 87 46 52.87 2013 1.542 83 34 40.96 2012 1.438 80 34 42.50 2011 1.486 79 37 46.84 2010 1.517 78 31 39.74 2009 1.316 71 26 36.62 2008 1.552 64 23 35.94 2007 1.314 64 21 32.81 2006 1.480 56 18 32.14 2005 1.456 55 19 34.55 2004 1.581 54 19 35.19 2003 1.482 53 16 30.19 2002 1.488 54 17 31.48 2001 1.354 54 17 31.48 2000 1.185 57 15 26.32 1999 1.352 50 15 30.00 1998 1.206 47 12 25.53 1997 1.258 45 12 26.67 我们可以推算, 1985 年时, Optics 学科期刊数更少、 Optics Communications 江湖地位与 1990 年代更高,很可能是学科前十名、稳稳的 Q1 期刊。 相关的背景信息也可以关注一下: 背景 1 : Optics 学科现在一些影响因子很高的期刊,创办的时间并不长,比如影响因子第一的 Nature Photonics ,应该是 2007 年创办的;影响因子第二的 Advances in Optics and Photonics ,应该是 2009 年创办的;影响因子第三的 Light-Science Applications( 中国科学院长春光学精密机械与物理研究所 ) ,应该是 2013 年创办的。 背景 2 : Donna 及其导师获奖的代表作引用次数很高的,截至 2018 年 10 月 8 日被引 2172 次,是此刊 1974-2017 年累计发文 29418 篇中被引次数最高的,第二三四五均是 1000 次引用左右。这反过来可以理解为,文章是文章、期刊是期刊。我反对现在一些单位庆祝在某牛刊上发文,但支持各单位庆祝重大成果 ( 不管发在哪个刊物上 ) 。换句话说,好刊也有水的成果发表、一般的期刊也可能有牛文、牛刊也有特别牛的文,这肯定没错的。但整体上,用影响因子评价期刊,是另一个逻辑,也基本适用。但是,不建议用影响因子直接评价期刊里的文章本身。 背景 3 : Optics Communications1974-2017 年每年发文量呈逐步增长趋势,中国大陆从 1981 年开始在此刊发文,近些年发文量较大、占比不低。这是不是现在中国人觉得此刊一般般的原因之一呢?如下表: 出版年 发文量 中国发文量 中国占比 2017 1036 638 61.58 2016 860 535 62.21 2015 1049 654 62.35 2014 973 550 56.53 2013 916 491 53.60 2012 1001 514 51.35 2011 1069 508 47.52 2010 938 420 44.78 2009 887 377 42.50 2008 1011 371 36.70 2007 913 295 32.31 2006 956 255 26.67 2005 715 176 24.62 2004 798 191 23.93 2003 716 150 20.95 2002 695 122 17.55 2001 711 102 14.35 2000 804 99 12.31 1999 651 77 11.83 1998 876 77 8.79 1997 804 68 8.46 1996 692 63 9.10 1995 685 43 6.28 1994 688 53 7.70 1993 658 47 7.14 1992 623 41 6.58 1991 554 34 6.14 1990 493 30 6.09 1989 488 32 6.56 1988 398 35 8.79 1987 389 18 4.63 1986 411 9 2.19 1985 368 8 2.17 1984 385 3 0.78 1983 390 2 0.51 1982 406 3 0.74 1981 452 3 0.66 1980 412 0 # 1979 385 0 # 1978 419 0 # 1977 426 0 # 1976 663 0 # 1975 329 0 # 1974 325 0 #
个人分类: 文献情报|19441 次阅读|16 个评论
杂评《关于优化科研管理若干措施的通知》之基础研究评价
热度 1 liuli66 2018-7-25 11:18
昨天(20180724)发布的 《国务院关于优化科研管理提升科研绩效若干措施的通知》(简称《关于优化科研管理若干措施的通知》), 就基础研究的评价,说: 基础研究与应用基础研究类项目重点评价新发现新原理新方法新规律的重大原创性和科学价值、解决经济社会发展和国家安全重大需求中关键科学问题的效能、支撑技术和产品开发的效果、代表性论文等科研成果的质量和水平,以国际国内同行评议为主。 并说:突出代表性成果和项目实施效果评价,对提交评价的论文、专利等作出数量限制规定。 点评如下: 1)赞成“代表性论文”等“代表作”并实现数量”封顶“的评价体制。比如,国家自然科学基金可规定,项目结题评价,只允许拿5篇代表性论文。这样可以限制或避免为追求论文发表的数量而消耗过多的时间和精力从而影响科学创新的质量。 2)对“代表性论文”,理想的情况是,不管发表该论文的期刊是否是SCI/SSCI是否是高影响因子或一区二区,是中文还是英文,只看“论文本身”是否解决了重要重大的科学问题,是否作出了重要重大的科学发现,在国际层次上的原创性高低。 在目前现实下,估计很多科学家或学者还是会拿出在高影响因子SCI/SSCI期刊发表的论文作为“代表作”。英国就是这样的情况。英国的大学“科研卓越框架”评价(Research Excellence Framework)实行的是“代表作”。笔者询问过参与该评价的英国大学教授,他们说,他们还是选择发表在学术共同体高度认可的专业期刊上的论文,作为代表作,(绝)不敢拿发表在一般期刊上的论文作为代表作去冒风险,不管其“原创性”如何。 3)赞成对“代表作”采取“以国际国内同行评议为主”。考虑到现在学术界存在“官本位”、“关系”、“人情”等社会因素影响科研评价,考虑到我国大学或科研机构总体上还处于世界二流和三流水平这种阶段等国情,不可贸然从以SCI/SSCI影响因子为主的评价阶段(毕竟在高影响因子期刊上发表的论文,是经过”小同行“严格的匿名同行评审过程的),一步跨越到以同行评议为主的评价阶段。个人的观点是:科研评价,要分阶段淡化影响因子,提高同行评议的权重(参见附录)。对同行评议,要严禁”打招呼“”做工作“等特色做法。 附录: (如引用,可标注:刘立:科研评价:分阶段淡化影响因子,提高同行评议权重,《科技中国》,2018年第6期)
个人分类: 杂感|1243 次阅读|8 个评论
改进科研评价:应抛弃“影响因子”[附“中国学”SSCI期刊]
热度 11 liuli66 2018-7-8 11:22
科学网博主LIULI 严谨地说,标题应该为:应抛弃(两年制)“影响因子”。 影响因子(JIF),被国内外很多大学和科研机构用于科研评价。虽然《关于科研评价的旧金山宣言——让科研评价更加科学》(简称DORA)[1]建议,大学和科研机构在对教师或科研人员的聘用、评职称或评“铁牛轨”(tenure-track)时,不得使用影响因子。 但现实中,很多大学和科研机构在进行科研评价时,坚持使用影响因子评价不动摇。[2]最近,有“青椒”在NATURE发文,质问:不用影响因子,你拿什么评价我?[3]由此可见,青椒还是喜欢被影响因子来评价。 现行影响因子,是“两年制”的,即某期刊前两年发表的论文在该报告年份(JCR year)中被引用总次数除以该期刊在这两年内发表的论文总数。举例如下: “中国学”(China Studies)的重要期刊China-An International Journal (CIJ),2017年的影响因子是这样计算出来滴: CIJ 2015-2016年共发表(可引用)文章69年,2017年被引用了12次,所以CIJ影响因子是12/69=0.174. 详细情况,如下: (来源:JCR Report, 2018) 个人直观感觉,影响因子“两年制”太短了。后来看到资料说,有科学计量学对此提出了“严谨严肃严厉”的批判,尤其是对一些“慢热”学科很不“公平”。后来,THOMSON REUTERS于2009年起,开始发布“五年制”影响因子(简称JIF5)。 “五年制”影响因子的计算方法是:用某期刊前5年发表的论文在统计当年的总被引次数除以该刊前5年出版的论文总量。 按此方法,CIJ 2017年5年制影响因子JIF5是0.422。 个人直观感觉,科研评价应看“五年制”影响因子。后来看到文献说,JIF5比JIF更“科学”。该研究文献“利用高分子科学学科期刊11年的样本数据,将5年期影响因子置于多个不同时间跨度的影响因子中进行实证分析。研究表明,以5年为期刊统计期是体现期刊被引高峰期与期刊平均被引的一个最佳统计期,IF5较好地反映出了期刊的被引高峰期和论文被引平均水平,是影响因子概念的本质体现。作为IF的重要补充,以IF5作为测度指标对期刊学术影响力的评价更加全面、更具客观性。”(王娟,郑厚春,2011) 对影响因子等计量学指标评价,“两办”文件《关于深化项目评审、人才评价、机构评估改革的意见》说:“ 在对社会公益性研究、应用技术开发等类型科研人才的评价中,SCI(科学引文索引)和核心期刊论文发表数量、论文引用榜单和影响因子排名等仅作为评价参考。”[4]注意,该文件对“基础研究”的评价,并未提及不用“影响因子”。 个人认为, 科研评价要抛弃(两年制)“影响因子”指标,而采用五年制影响因子指标。 附: 个人对科研评价的完整观点是: 分阶段淡化影响因子,提高同行评议的权重。又,一流大学看论文本身,三流的大学看影响因子。 全文如下: (如引用,可标注:刘立:科研评价:分阶段淡化影响因子,提高同行评议权重,《科技中国》,2018年第6期) [1]DORA中译本 http://blog.sciencenet.cn/blog-335532-758739.html [2]影响因子评价指标,为什么在现实中难以撼动? http://blog.sciencenet.cn/blog-71079-1121280.html [3] How will you judge me if not by impact factor? 中译文 https://mp.weixin.qq.com/s/_dovGo9pYWKJiGuORBcRUg [4] 《关于深化项目评审、人才评价、机构评估改革的意见》 《 人民日报 》( 2018年07月04日 06 版) http://paper.people.com.cn/rmrb/html/2018-07/04/nw.D110000renmrb_20180704_1-06.htm 附“区域学”和“中国学”SSCI期刊及影响因子 “中国学”SSCI期刊为第3,4,8,28,31,32,61。
个人分类: 杂感|9222 次阅读|34 个评论
影响因子评价指标,为什么在现实中难以撼动?(重发)
热度 9 liuli66 2018-6-28 16:51
(声明:本文根据 Moed, Henk F., 2016. Towards new indicators of a journal manuscript peer review process. Frontiers in Research Metrics and Analytics 摘译编译。欲知完整准确的内容和观点,请读原文。又, 本文并不代表笔者的观点 ,仅供交流。) 常言道:理想很丰满,现实很骨感。同行评议很理想,影响因子很现实。 许多(国家的)大学和科研院所的管理者、评估者坚持用期刊影响因子( IF )这一指标对科学家、科研团队和科研机构进行评价,更不用说很多出版商唯 IF 标准 来评价其下属的科学期刊 是否成功 。俗话说:存在即合理。为什么影响因子在现实科研评价中被坚持不动摇呢? 荷兰阿姆斯特丹独立学者和科学顾问( Independent researcher and scientific advisor, Amsterdam, The Netherlands ,这是笔者见到的最独特的单位署名和身份署名;当然米国总统奥巴马那篇学术论文的署名也很独特 单位 dependentresearcher and scientific advisor, Amsterdam, The Netherlands ), Henk F. Moed 先生对此进行了解释。主要原因有四个:影响因子具有显示度( visibility ),可获得性( availability ),概念简明性( conceptual simplicity ),以及实用性( utility )。下面简要阐述。 第一,显示度。 1972 年 GARFIELD 博士发表那篇关于影响因子的经典论文,并持续出版期刊引证报告( JCR ),具有很高的显示度。从此影响因子成为了他创立的“科学信息研究所”( ISI )的一面旗帜。后转卖给了汤森路透,最近又被 高价 转卖了。 第二,可获得性。影响因子就在汤森路透 JCR 报告中,按学科类别进行排序,数据就挂在网上,对全世界都是公开透明的,凡是地球人均可去查阅 SCI / SSCI 期刊的影响因子。 第三,概念简明性。从影响因子的概念框架看,影响因子一目了然,只要具有一般统计学知识的人都能理解影响因子的涵义。其他的计量学指标对普通人来说,像“天书”一般,让丈二和尚摸不着头脑。 第四,实用性。科研工作者和图书管理员发现 JCR (含影响因子)很有用。 JCR 是世界上第一个对成千上万种、几乎涵盖了所有学科领域的科学期刊给出了一个独具特色、整合性描述的工具。在对科学工作者、科研团队和科研机构进行评价时,人们默认影响因子高低就表示期刊对稿件进行同行评议过程的质量高低。也就是说,第一,在具有高质量同行评议的期刊上发表文章,就表示该论文质量高。第二,衡量某期刊同行评议过程的质量,最方便可得的指标就是该期刊被引证的影响力。 影响因子之被用于科研评价这种客观存在,也有其不合理性。 Moed 等人对此进行了批判性思维,并提出了替代方案。但在 现实中,要取代影响因子评价,路漫漫其修远兮! 本人观点: 刘立:科研评价:分阶段淡化影响因子,提高同行评议权重,科学网公号,20180419 https://mp.weixin.qq.com/s/7ImXpkY1siFJjpoZfFqlVw (如引用,可标注:刘立:科研评价:分阶段淡化影响因子,提高同行评议权重,《科技中国》,2018年第6期) 预告:关于科研评价,一个重磅合作文章,即将发表。
个人分类: 科学传播与普及|8594 次阅读|39 个评论
短效评价阻碍科学创新
热度 3 ZJUlijiang 2018-5-28 12:22
说明:本博客与微信公众号“林墨”同步更新,所有内容均为原创,可授权转载请扫码关注“林墨”公众号 基于短期时间窗口的科学评价指标不但没有鼓励创新、促进科学原创的发展,反而阻碍了科学创新。追求短期效益的评价方式有可能蒙蔽科学政策的双眼,最终削弱科技发展的潜力。 闵超 / 南京大学 注:图片来自参考文献 。 开垦少有人涉足的科学领地,有可能收获重大的科学影响,但是同时也具有更高的风险与不确定性。由于采用了非常规的研究方式,这类研究常被称作“探索性研究”(explorative research),与基于常规方式的“开发性研究”(exploitative research)形成对照。可以预见,前一类研究中涉及更多“新颖性”(novelty),因而也有可能发现更多潜在的科学创新。 然而创新的科学研究是否总是受人待见?科学政策制定者应该如何应对?荷兰莱顿大学Jian Wang等人 的一项研究揭示了科学研究的新颖性与其影响力之间复杂的关系及其对科学政策的启示。 如何判断科学新颖性 科学研究中的新颖性容易感知,却不易衡量。Wang等人采用了一种“组合新颖性”的视角来量化科学研究中的新颖性。新颖性被定义为通过新颖的方式对已有的知识碎片进行重新组合。作者指出,这种定义有其理论渊源 。具体操作上,作者仿照Uzzi等人的做法 ,将一篇研究论文的新颖性量化为它在多大程度上以新颖的方式重新组合先前的知识碎片,而知识碎片则以期刊作为衡量单位。与Uzzi做法不同的是,作者关注的是一篇研究论文的参考文献中出现的某对期刊,先前是否已被其他文献同时引用过。 以2001年Web of Science收录的所有论文为例,计算新颖性的流程如下: 为每一篇论文检索它引用的所有期刊,并将这些期刊配对。 为每一对期刊,检查它们是否同时出现在Web of Science以往收录的论文中。如果没有出现过,则认为它们是一对新期刊。 为每一对新期刊,计算它们前三年中同时被引用的次数,从而得到所有期刊对的共被引矩阵。利用矩阵中的向量,计算一对期刊被“组合”在一起的容易程度。 对每一篇论文,汇总它引用的所有期刊对被“组合”在一起的容易程度,从而得到这篇论文的“组合新颖性”。 由于得到的新颖性数值呈现出高度的偏态分布,作者进一步将新颖性分为三个类别:(1)非新颖,一篇论文没有引用新的期刊对;(2)中度新颖,一篇论文引用了至少一对新期刊,但是新颖值低于同领域论文的前1%;(3)高度新颖,一篇论文的新颖值位于同领域论文的前1%。 当然,作者也指出,“组合新颖性”并非取得科学突破的唯一方式。科学上的突破可能来自一次灵光乍现的新观测,来自全新仪器的建成,来自一个新物种的发现,等等,而新颖性自身也并不等同于科学突破。 新颖的研究具有高风险性 结果显示, 高新颖性的论文其引文数量的分布高度分散 ,离差比非新颖的论文高出18%;而中度新颖的论文与非新颖的论文在引文分布的离差方面没有显著的区别。这种现象的原因在于, 那些高度新颖的论文,有一部分的引文数量非常高,而有一部分的引文数量非常低 ,反映出它们在影响力方面的高度不确定性。与此形成对照的是, 中度新颖的论文中有相当部分的引文数量很高,而只有很少论文的引文数量很低 。 新颖的研究具有高收益 尽管新颖的研究面临着高风险,但是它们同时有更大的可能做出突出的科学贡献——成为“大受欢迎的论文”(big hits)。这里,“大受欢迎的论文”定义为在相同年份、相同学科领域内被引次数居于前1%的论文。结果显示,高度新颖的论文与中度新颖的论文在成为“大受欢迎的论文”方面,分别比非新颖的论文高出57%与13%的几率。同时,研究还发现,高度新颖的论文更可能被其他“大受欢迎的论文”引用。因此,高度新颖的论文不但自身更可能成为“大受欢迎的论文”,而且也更可能激发能够产生重要影响的后续研究。 新颖的研究具有跨学科影响 控制论文被引次数以及其他变量相一致,高度新颖的论文与中度新颖的论文均比非新颖的论文被更多的学科所引用,多出的学科类别比例分别是19%与11%。除此之外,新颖的论文在本领域之外拥有更高比重的引文,而且外领域与本领域之间的距离也更大。这表明新颖的研究比非新颖的研究具有更大的跨学科影响力,其影响范围能够达到更远的科学领域。进一步的分析显示,新颖研究的这种高影响力更多来自外领域的高引用量,而非本领域的引用。 新颖的研究被延迟认可 高度新颖的论文在发表三年以内很少成为高被引的论文 。而从发表之后的第四年开始,高度新颖的论文明显更多地成为高被引论文,它们对非新颖论文的优势随着引文时间窗口的增加而增加。并且,对新颖论文的这种延迟认可不仅存在于发表论文的原领域,还存在于原领域以外的领域中。 短期指标是否阻碍了创新 Wang等人进一步阐释了研究发现的政策启示。他们认为,新颖研究的延迟认可属性对于文献计量指标在科学政策制定中的使用具有直接的启示。由于新颖的研究容易遭遇延迟认可、需要足够长的引文时间窗口来展现其主要影响,那些基于短期引文窗口的文献计量指标事实上将科技政策导向了阻碍科技创新的歧途。这些指标的广泛使用有可能使新颖的科学研究及其从事者埋没于各类排名中,阻碍科学发展的进程。基金资助机构、人员聘用机构、科学评估机构都应采取更丰富、多元的评价方式保证科学创新的长远发展。 Wang, J., Veugelers, R., Stephan, P. (2017). Bias against novelty in science: A cautionary tale for users of bibliometric indicators. Research Policy, 46(8), 1416-1436. Arthur, W.B., 2009. The Nature of Technology: What It Is and How It Evolves. Free Press, New York, NY. Burt, R.S., 2004. Structural holes and good ideas. Am. J. Sociol. 110 (2), 349–399. Mednick, S.A., 1962. The associative basis of the creative process. Psychol. Rev. 69 (3), 220–232. Schumpeter, J.A., 1939. Business Cycles; A Theoretical, Historical, and Statistical Analysis of the Capitalist Process, 1 st ed. McGraw-Hill Book Company, Inc, New York, NY; London, UK. Simonton, D.K., 2004. Creativity in Science: Chance, Logic, Genius, and Zeitgeist. Cambridge University Press, Cambridge, UK; New York, NY Weitzman, M.L., 1998. Recombinant growth. Q. J. Econ. 113 (2), 331–360. Retrieved from. http://www.jstor.org/stable/2586906. Uzzi, B., Mukherjee, S., Stringer, M., Jones, B., 2013. Atypical combinations and scientific impact. Science 342 (6157), 468–472.
13091 次阅读|16 个评论
科研评价要分阶段淡化影响因子提高同行评议权重
热度 14 liuli66 2018-4-18 19:53
科研评价要分阶段淡化影响因子提高同行评议权重 讨论稿 作者:科学网博主 LIULI 一个国家的大学(和科研机构)如何对教师和科研人员的“基础研究”成果进行评价,跟这个国家的总体科研在国际上的发展阶段有关,也与这个大学(院系,或学科)的总体科研在国际上的发展阶段有关。前者可以用跟跑阶段、并跑阶段、领跑阶段来描述,我国整体上处于从“跟跑并跑”向“并跑领跑”转型的阶段。后者可以用“国际一流”、“国际二流”、“国际三流”和“国际不入流”来划分。本文主要谈论大学的发展阶段与科研评价的关系。 国际国内大学的科研评价,主要看两类指标,一是看科研论文本身是否具有原创性(originality, innovativeness,简称“论文本身”。这里的论文是广义的,包括正式期刊公开发表的论文,也包括在预印本系统和微信公众号上公开发表的文章,以及专著或书章book chapter)。二是看发表论文期刊的计量学指标,比如影响因子,被引用数,是否SCI/SSCI,是否A刊,是否一区二区等,简称为“影响因子”)。 初步观察国内外大学科研评价,总的来说是: 一流大学看论文本身;三流大学看影响因子。 具体来说,基本状况如下表所示: 论文本身 影响因子 世界一流大学 ○ X 世界二流大学 ○ ○ 世界三流大学 X ○ 世界不入流大学 X X ○ 表示看重某评价指标;X 忽视某评价指标 一所大学的科研评价指标,必须与其所处的发展阶段有关,不能超越或落后于其发展阶段,比如,“世界三流大学”的科研评价,总体上以发表论文的期刊的影响因子作为评价的“指挥棒”。如果“世界三流大学”也以“论文本身”的原创性作为主要评价指标,那就超越了其发展阶段了,这是因为“世界三流大学”的同行评议低劣,官本位、关系等非学术因素在科研评价中占据重要的地位。“世界二流大学”通常在科研评价中, 以影响因子为主,兼顾论文本身。如果一个大学(或学科)已经建设成为了“世界一流”了,那么它仍然坚持以影响因子评价为主,那就落后于其发展阶段了,不利于它保持“世界一流“大学的地位,不利于它成为“伟大的大学”。观察世界一流大学如MIT,世界一流科研机构如马普研究院、世界一流科研评选如诺贝尔科学奖评选,完全不看发表影响因子,就看论文本身的原创性(和影响力),这样的科研评价可以说是科研评价的最高境界。 我国的大学(或学科),除了极少数大学(如北京大学)已经是世界一流大学以外,绝大部分大学处于“世界二流”和“世界三流“阶段。在这样的状态下,”三流大学“的科研评价主要看影响因子,而很多“世界二流大学”科研评价 主要看影响因子 并兼顾论文本身,有其充分的现实合理性。而已接近或已成为“世界一流”的大学或学科,仍坚持以影响因子为主导来进行科研评价,那是不利于“双一流”建设的,不利于成为顶尖世界一流大学或学科。 个人认为:“双一流“大学或学科的科研评价,应该分阶段地从以影响因子为主导的评价(2018到2035年),改革为以论文本身为主导的评价(2035-2050年),就是说这个阶段的科研评价,要无问发表论文的期刊是否是《自然》《科学》《细胞》(CNS),无问是否是国际顶尖学术期刊(如PRL),无问是否是高影响因子或一区SCI/SSCI,无问是否是正式期刊发表或者预印本系统发表,无问是英文发表还是中文发表,而是依靠由高水平高质量高公正性的高度负责任的国内外学术同行组成的评审委员会,对论文本身的原创性(和优先权),进行同行评议。 细化地讲, 科研评价,大体可分这样几个阶段,逐步淡化影响因子评价,提高同行评议的权重。 第一阶段即现初级阶段:影响因子权重100%,同行评议权重0%。 按学科分类,根据WOS影响因子排列出SCI/SSCI“顶级”(100分)、A+(90分),A(80分),A-(70分)、B+(60分)、B(50分)等期刊;CSSCI顶级80分,A+,70分;A,60分;A-,50分。 比如,XYZ论文发表在“顶级”期刊,即得分100分,无问同行评议的意见。 第二阶段:分区权重80%,同行评议20%。 逐步改为按“分区”标准:1)按WOS中的SSCI( Q1,100分;Q2 80分;Q3 60分;Q4 50分 ); 2)再放宽按SCOPUS ( Q1 ,100分;Q2 80分;Q3 60分;Q4 50分); 3 )中文期刊分区(Q1,100分;Q2 80分;Q3 60分;Q4 50分)。兼顾同行评议,20%。 比如,在第二阶段的第2)阶段,XYZ论文发表在SCOPUS Q2区,80分;同行评议为50分,则该论文总分为:74分。 第三阶段:进入主流数据库,权重50%;同行评议权重50%。 取消“分区”标准, 1 )凡进入WOS的期刊; 2 )后凡进入SCOPUS的期刊, 3 )进入CSSCI期刊,核心期刊数据库的期刊( “门槛”), 即为100分,权重50%。同时对“论文本身”进行同行评议,权重为50%。 比如,在第三阶段的第2)阶段,XYZ论文是SCOPUS论文,即得100分。同行评议得40分,则该论文得分为70分。 第四阶段即高级阶段:同行评议100%。 凡正式发表的论文,包括在预印本或公众微信号上发表的论文,凡正式出版的专著(无问出版社级别、包括自费出版的),对“论文本身”进行同行评议。完全靠同行评议,改百分制为等级制,分为A+,A,A-,B+、B等等级,同行评议100%。 比如,XYZ论文发表在《TJ社会科学》(某省中文期刊)上,综合平均同行评议意见,为B+。 附注: 补充同行评议出来的期刊,进入A类期刊。 可以为极个别论文可开一个“口子”,但要从严控制:对自认为极有创新性的论文,取消被评价的入门门槛(如影响因子),提交到同行评议,进行评价。
个人分类: 科技与创新政策|9656 次阅读|33 个评论
ESI视角下的中国科学院科研表现
热度 4 ningbi 2018-3-26 09:44
ESI视角下的中国科学院科研表现 新一期的 ESI数据于3月15日发布,3月份最新的数据范围为11年整,即覆盖时间段为2007年1月1日至2017年12月31日。 自2017年11月开始,ESI对中国科学院(简称“中科院”)下属科研机构进行拆分及清理归并。截至目前,共有68所院属机构进入到相关学科的ESI全球前1%行列 。 拥有 ESI前1%学科最多的中科院院属机构 本期 ESI数据中,中科院在整个ESI 22个学科中均跻身至全球前1%行列,中国科学院大学(简称“国科大”)紧随其后,目前拥有17个ESI前1%学科。除以上两所机构外,拥有4个及以上ESI前1%学科的院属机构共有10所,如表1所示。与所有院属机构相比,中科院生态环境研究中心拥有最多ESI前1%学科,分别为“社会科学”、“动植物科学”、“环境与生态学”、“工程学”、“化学”及“农业科学”。表明中科院生态环境研究中心在以上6个学科领域均已进入全球前1%行列,同时也可看出该中心的科研成果跨学科程度较高。 表 1 拥有4个及以上ESI前1%学科的中科院院属机构 机构名称 ESI前1%学科数量 中国科学院生态环境研究中心 6 中国科学院地理科学与资源研究所 5 中国科学院大连化学物理研究所 5 中国科学院动物研究所 5 中国科学院沈阳生态研究所 4 中国科学院寒区旱区环境与工程研究所 4 中国科学院微生物研究所 4 中国科学院南京地理与湖泊研究所 4 中国科学院上海硅酸盐研究所 4 中国科学院过程工程研究所 4 进入 ESI学科前1%阈值内的中科院院属机构 从 ESI 22个学科的角度来看,进入前1%阈值线的中科院机构数量较多的有化学、工程学、环境与生态学以及材料科学等,超过20家科研机构在以上4个学科领域均跻身进入全球前1%行列,也表明中科院在上述4个学科领域科研表现相对更加突出,见表2。 表 2 进入ESI学科前1%阈值内的机构数量 ESI学科 拥有前 1%学科的机构数量 CHEMISTRY 24 ENGINEERING 22 ENVIRONMENT/ECOLOGY 21 MATERIALS SCIENCE 20 PLANT ANIMAL SCIENCE 16 AGRICULTURAL SCIENCES 12 GEOSCIENCES 11 PHYSICS 10 CLINICAL MEDICINE 9 BIOLOGY BIOCHEMISTRY 8 SOCIAL SCIENCES, GENERAL 5 MOLECULAR BIOLOGY GENETICS 5 PHARMACOLOGY TOXICOLOGY 4 MICROBIOLOGY 4 NEUROSCIENCE BEHAVIOR 3 COMPUTER SCIENCE 3 PSYCHIATRY/PSYCHOLOGY 2 IMMUNOLOGY 2 SPACE SCIENCE 2 MATHEMATICS 2 MULTIDISCIPLINARY 1 ECONOMICS BUSINESS 1 总计 187 前 1‰阈值下的中科院的科研表现 如果以进入 ESI前1%作为世界先进水平的话,那么能够进入ESI前1‰可理解为更高水平的发展表现。本期ESI数据显示,中科院有16个ESI前1‰学科,而国科大目前拥有7个ESI前1‰学科。除此之外,如表3所示,在66个中科院院属机构中,长春应用化学研究所与化学研究所均有2个ESI前1‰学科,位列首位,两家机构在“化学”与“材料科学”的科研表现已进入全球前1‰。 表 3 拥有前 1‰ 学科的中科院院属机构 机构名称 进入前 1‰的学科数 中国科学院长春应用化学研究所 2 中国科学院化学研究所 2 中国科学院生态环境研究中心 1 中国科学院上海有机化学研究所 1 中国科学院大连化学物理研究所 1 中国科学院上海硅酸盐研究所 1 中国科学院金属研究所 1 进一步分析进入 ESI学科前1‰阈值内的中科院院属机构,在“化学”与“材料化学”中有6家机构已进入到全球前1‰行列,较其他学科表现尤为突出。在材料科学领域,除了中科院、国科大,及上述提及的长春应用化学研究所与化学研究所之外,沈阳金属研究所与上海硅酸盐研究所也进入到材料科学全球排名的前1‰。而在进入化学学科的前1‰机构中,同样除了上述四所单位之外,还包括了上海有机化学研究所及大连化学物理研究所,见表4。 表 4 进入ESI学科前 1‰ 阈值内的机构数量 ESI学科 拥有前 1‰学科的机构数 MATERIALS SCIENCE 6 CHEMISTRY 6 ENVIRONMENT/ECOLOGY 3 PLANT ANIMAL SCIENCE 2 AGRICULTURAL SCIENCES 2 ENGINEERING 2 GEOSCIENCES 2 PHYSICS 1 MULTIDISCIPLINARY 1 MOLECULAR BIOLOGY GENETICS 1 BIOLOGY BIOCHEMISTRY 1 PHARMACOLOGY TOXICOLOGY 1 CLINICAL MEDICINE 1 COMPUTER SCIENCE 1 MICROBIOLOGY 1 MATHEMATICS 1 总数 32 发表超过 100篇高被引论文的机构 高被引论文是 ESI中按学科领域和出版年统计的被引次数排名前 1% 的论文 (Article和Review),表示文章的引文影响力已经位列全球同年度、同学科的前1%。机构在不同学科领域的发展,需要发表更多高被引论文来进一步提升机构影响力。在这一期ESI,中科院共发表5359篇高被引论文,而国科大目前拥有928篇高被引论文。本文统计了发表超过100篇高被引论文的机构,如表5。 表 5 发表超过100篇高被引论文的机构 机构名称 高被引论文数 中国科学院化学研究所 423 中国科学院长春应用化学研究所 320 中国科学院物理研究所 297 国家纳米科学中心 216 中国科学院高能物理研究所 194 上海生命科学研究院 191 中国科学院大连化学物理研究所 180 中国科学院上海有机化学研究所 168 中国科学院金属研究所 132 中国科学院上海硅酸盐研究所 119 中国科学院福建物质结构研究所 111 中国科学院生态环境研究中心 110 数据源简介 基本科学指标数据库( Essential Science Indicators,简称ESI)是由世界著名的学术信息出版机构美国科技信息所(ISI)于2001年推出的衡量科学研究绩效、跟踪科学发展趋势的基本分析评价工具,是基于科睿唯安公司(原汤森路透知识产权与科技事业部)旗下Web of Science(SCIE/SSCI)所收录的全球12000多种学术期刊的1000多万条文献记录而建立的计量分析数据库,ESI已成为当今世界范围内普遍用以评价高校、学术机构、国家/地区国际学术水平及影响力的重要评价指标工具之一。 注:本文数据将中科院、国科大及其已进入 ESI前1%的66所院属机构放在一起统计,共计68家机构。
个人分类: 文献情报|10302 次阅读|8 个评论
《旧金山宣言》之后,《三院联合声明》来了
热度 4 ZJUlijiang 2018-3-23 19:27
说明:本博客与微信公众号“林墨”同步更新,所有内容均为原创,可授权转载请扫码关注“林墨”公众号 还记得六年前的《旧金山宣言》吗?2017年12月,同样在科研评价领域,法国、德国和英国的三大科学院联合发出声明,给出了他们的科研评价指南。 李发桐 / 大连理工大学 注:图片来源于必应 旧金山宣言 还记得五年前的《旧金山宣言》吗? 2012 年 12 月,包括美国科学促进会( AAAS )在内的 75 家机构和 150 多位知名科学家在旧金山举行的美国细胞生物学学会会议上,支持签署了《关于研究评价的旧金山宣言》:科学界应该停止使用影响因子评价科学家个人的工作,影响因子不能用于评估科学家的贡献,也不应该用于招聘、晋升和项目资助等的评审。 截止到目前,虽然签署机构和个人已经超过 900 多人,但是效果看起来并不理想。很多签署了《旧金山宣言》的科学家们,在业绩考核的时候,仍然在学校的要求下老老实实的填写上论文的影响因子。对于科研管理部门来说,对影响因子的依赖是一种瘾,戒掉这种简单和定量的科研评价方式,并不像看起来那么容易。 欧盟三院联合声明 2017 年 12 月,在欧盟委员会专员卡洛斯·莫达斯( Carlos Moedas )的撺掇下, 法国科学院,德国利奥波第那科学院和英国皇家学会 ,三院联合签署了一份宣言,对科研评价问题第一次共同发声。 首先必须强调,同行评议是科研评价最值得依赖的基石。影响因子或其他文献计量学的指标,虽然简单而且容易量化,但是他们不能替代同行评议。可是,要想抵制文献计量学指标,单靠无休止的争论没有意义,需要想办法提升科学家们的科研评价能力。 其次,不要过分评估。比如,现在很多项目都强化了中期审查的频次和程度,虽然 适度的中期审查可以确保科研工作顺利进行,及早的发现问题,但是过度的审查,也 会浪费负责该项目的科学家和评审专家的时间,使他们没办法投入到更为重要的研究工作中去。应该给予项目负责人足够的 信心,相信能够获得项目资助的负责人有能力完成研究任务。 再次,应该谨慎的选择同行。科学家希望他们的成果能够被准确评价,这就要求评审专家必须来自于真正的同行,具有相关的研究经历。研究水平出众应该作为对评审专家的最主要的要求,其他的如性别、种族、民族、性取向和年龄都不应该作为挑选评审专家时的考虑因素。 另外,应该对评审专家进行培训。我们总是默认评审专家们天生就具有进行科研评价的才能,但是实际上,在评审过程中,需要告诉他们怎么来找到项目方案里面的不足之处,以及如何比较不同领域的项目和提案。要告诉他们,不要过于倾向于那些热门的研究主题,告诉他们如何避免陷入这种无意识的偏见的技巧。英国工程和自然科学研究委员会的经验是,通过利用原有的项目申请书进行模拟评审,对新的评审专家进行培训和指导。 科研评价是科学界里永远无法回避的课题。如何科学的进行科研评估,欧盟三大科学院的联合声明只是一个开始,具体的科研评价方法,还需要全体科学家共同实践来摸索。 Catlow, R. (2017). Peer reviewers need more nurturing. Nature, 552 (7685), 293-293.
4757 次阅读|4 个评论
学界必须遵守“早发表,晚评价”的基本原则
热度 16 qsqhopeiggcas 2017-8-5 12:20
针对“文化大革命”刚结束后学界出现的学风败坏现象,如粗制滥造 , 争名夺利,任意吹嘘等, 1978 年华罗庚【 1 】在中国数学会成都会议上语重心长地提出“早发表,晚评价。”后来又进一步提出“努力在我,评价在人。”这实际上提出了科学发展及评价科学工作的客观规律,即科学工作要经过历史检验才能逐步确定其真实价值,这是不依赖人的主观意志为转移的客观规律。 大家晓得,在科研上撕开一个突破口很难,因为前人历经多年的探索,容易发现的已有人捷足先登了,留下的都是难啃的“硬骨头”啦。 做理论研究的,若有了突破性进展,即创建了新假说,从完善、验证形成理论乃至用于实战,往往需要长期过程,决不是一蹴而就的。 做科学实验的,提出了新的试验方法或观察到新现象,除需满足可重复检验这一基本要求外,还需要寻找影响结果稳定性的因素,不断改进实验方法,确认其科学意义或应用价值后,才能获得学界认可,而这通常也需要长期过程。 以上说明,想在短期内把某一领域的科学城——“罗马”建成,几无可能。这方面的例子好多,俺就不举例说明啦。 反观我国的学术界和新闻媒体,往往不懂得科研工作的客观规律,也不明白“拔苗助长”的后果,在诸多事件上莽撞行事,最终以“逗你玩”的闹剧收场。例如,有人在 CNS 杂志上发表了一篇有点新东东的论文,本应淡然视至以静观后效,但因某些人(部门)和新闻媒体根本不懂科学,把杂志影响因子与成果水平画等号,将其吹捧为“诺奖级成果”、“里程碑式突破”,不但奖金大大的有,而且各种帽子也频频“空降”,这对某些学者简直就是“捧杀”啊。事实上,对某项研究,若连正确与否都不知道,意义大不大都不晓得,扯这些无疑属于“老头劈叉”嘛。 科研中急于求成的心态要不得,科研评价也来不得半点虚假且必须遵守其客观规律。 科研中有了新认识或新发现,自己要反复检验,不要为了“上镜”抢先发表漏洞百出的论文。确实有突破性研究论文发表了,本人一定要耐住性子,某些部门和新闻媒体也不要为吸引眼球“放卫星”炒作,须知“实践(时间)是检验认识是否正确的唯一标准”,而这通常需要一个长期的过程。其实啊,也甭担心,因为“是金子早晚会发光的,是沙子会无声无息沉入海底”,科研嘛,本来就是一个大浪淘沙的过程,假的真不了,真的也无法否定。 参考 【 1 】 1 https://www.zybang.com/question/a991c64d9b4b22b9fa9a230983a534b1.html
个人分类: 建言献策|9915 次阅读|21 个评论
拿什么来拯救经典生物分类学
热度 26 huayanc 2017-2-26 08:52
拿什么来拯救经典生物分类学 陈华燕 分类学家是一个濒危物种!这是比利时皇家自然科学研究所不久前在其网站上挂出的一篇文章的题目( https://www.naturalsciences.be/en/news/item/6633 )。这篇文章随即被中国科学院动物研究所的朱朝东教授贴在他发表在科学网博客上题目为《分类学者濒危》( http://blog.sciencenet.cn/home.php?mod=spaceuid=536560do=blogid=1032723 )的文章里。朱老师的博文介绍了中国生物分类学的现状,观点基本与比利时皇家自然科学研究所的文章描述的一致:分类学家已像他们要保护的很多物种一样,自身也成为了濒危物种。朱老师在文中还介绍了一些可以推动我国生物分类学发展的建议。朱老师的文章在生物进化与系统学的微信群里引起了激烈的讨论,各路分类学家纷纷出谋划策。朱老师的那篇博文并没有被科学网精选,但目前也有了 4 千多次的阅读量。如果被精选的话应该会有更多的人看到。可喜的是,朱老师昨天发的博文《生物分类学者之神仙说》( http://blog.sciencenet.cn/home.php?mod=spaceuid=536560do=blogid=1035703 )讨论的是同样的话题,终于被科学网精选,希望有更多人关注这个话题。 我看到朱老师的第一篇博文时就想写点什么来和应一下,因为我也一直关注这个话题,而且感同身受。无奈当时正在准备紧张的博士候选人资格考试。没想到的是,有关经典分类学的话题竟是笔试题目之一。现在笔试已考完,那就来说说我的一些经历和想法吧。 起初我给这篇博文起的题目不是现在的题目,而是《逃离经典生物分类学?》。我想表达的意思是,我也不知道我是否要逃离经典生物分类学。仔细思考一下,这个即使是带问号的题目也有点不符合我行事的信条。我更愿意,与其诅咒黑暗,不如划亮一缕光亮。即使我也不知道该怎么拯救这个濒危的学科,但如果有机会,我定会身践力行的贡献一份力量。 其实比利时皇家自然科学研究所的文章和朱老师描述的现象并不是什么新鲜事物,而是自上个世纪 90 年代起就被学界所广泛讨论的分类学困境:世界性的缺乏可以记录和描述地球上的生物多样性的分类学家。全球目前已知近 200 万种生物,这是分类学家几百年的发现成果,但是自然界中存在的物种比已知物种的数量多得多,目前科学家的估算是 500 万至 3000 万种。也就是说,有更多的种类等待科学家的发现。最近看一篇文章,开篇的一句话非常有意思,大致说物种灭绝就在我们的眼前发生。我觉得说的不够确切,如果物种灭绝就在我们眼前发生,说明我们是知道是哪些物种灭绝掉的,但事实上,由于自然界自身的演化和人类的活动,有很多物种还没来得及被发现就已经灭绝了,我们根本就不知究竟有多少种是灭绝掉了。 地球上的生物多样性是人类生存与发展的基础与福祉。分类学几百年的发展才发现地球上已知物种很少的一部分,随着全球气候变化和环境的恶化,更多的物种面临濒危或灭绝,急需更多的分类学者为人类的福祉努力奋斗。然而,生物分类学作为曾经的科学之皇后(物理学是科学之王),已渐渐沦为边缘学科,俨然成了岌岌可危的科学之奴仆。分类学的濒危,归根结底是因为分类学是生物学的基础研究,它的经济价值极大的被政府,各机构的决策者,甚至生物学其它领域的科学家所忽略,他们正在使用着分类学家的研究成果却认为这是免费的。人们需要分类学,却不愿意买单。后果就是,提供给分类学家的资金越来越少,分类学的工作岗位也越来越少,这就是分类学困境形成的原因。 分类学困境的形成是可以理解的,但分类学困境的继续恶化应该是令人费解的。人们越来越意识到生物多样性的重要性,而且有越来越多的人关注生物多样性。毫无疑问的是,人们对分类学的兴趣是不缺乏的,因为分类学是发现生物多样性的前提工具,而且人生来就对周边的其它生物感兴趣,可以说人人都有成为生物分类学家的潜质。然而并没有更多的人成为专业的分类学家,而且越来越少的年轻人愿意选择分类学方面的职业。简而言之,分类学的困境就是分类学后继无人。除了前面提到的资助少,岗位少的原因外,年轻学者不愿意选择分类学还有另外的原因,那就是,现行的不合理的科研成果评价政策。这就是我想说的有关自己的经历和想法。 前面提到我不知道我是否会逃离经典分类学,这是真实的感受。我从硕士研究生开始,学的就是经典的动物分类学,专攻寄生性的膜翅目。我喜欢分类学并且觉得分类学很有趣,用我的博士生导师 Norman F Johnson 教授的话说就是:世界上最美妙和最令人惊叹不已的事情莫过于检视一批刚刚采集的标本并且发现一种可能从来就没有人见过的新物种! 3 年的硕士学习,走过半个中国的大山寻找虫子,那些采集虫子的日子给我留下了美好的回忆,并将让我终生受益;结识了学界最著名的国内外学者,极大的开阔了我做科学研究的视野。从那时起,我就心里默认,昆虫学就是我的最爱,我将以此为职业。 2013 年我到浙江大学参加昆虫学博士研究生面试时, 6 个学生中,我是唯一一个学习经典分类学的。虽然当时面试我的十来位教授知道我已决定放弃浙大的机会而到美国求学,有好几位教授再三建议我,千万别放弃分类学的学习,哪怕我的研究工作会涉及到昆虫学的其它方面。我当时是不怎么理解老师们为什么会有这样的建议,而且我一直笃信我喜欢分类学,应该不会改变研究方向。 但最近我困惑了,我不知道我的坚持是否是正确的或者是否是值得的。来了美国之后,我依然做经典分类学,同时也开始用分子做生物进化与系统学。我花了一年时间来整理了新世界区一个寄生蜂属 Calliscelio (图 1 )的种类,检视了超过一万头标本,共发现了 42 个种,其中 38 种是新种,最近发表在了动物分类学国际权威杂志 ZooKeys 上( http://zookeys.pensoft.net/articles.php?id=10935 )。所有认识我的科学家都说我做了非常不错的工作,甚至我们博物馆的新闻经理要采访我们这个工作。可是看看我发表文章的杂志的影响因子,再看看国内单位的招聘要求,这篇文章基本上是对我找工作毫无作用的。 ZooKeys 的影响因子不到 1 (但这个杂志基本是发表动物经典学文章最好的杂志之一,在本专业的口碑还是很好的),按中科院的杂志分区是属于 4 区的,而国内很多单位的招聘要求是根本就不考虑 4 区的文章,发了也相当于没发,才不管你的文章在专业内有多大的影响力,招聘单位只会数点数和篇数。 2016 至 2017 年度,我在 ZooKeys 上发表了 2 篇长论文和 2 篇短论文,共描述了 70 种寄生蜂,其中包括 46 种新种。美国加利福尼亚自然科学研究院最近有个新闻说他们单位的学者 2016 年共发表了一百零几种新物种,而我们几个人发表新种的数量就快达到了他们的一半,我们是否也该上一下新闻呢?但是,一看杂志的影响因子,我就尴尬了,我发的论文简直“一文不值”。这就是我困惑的原因。你比别人花了更多的时间,比别人更努力,换来的评价却是:毫无价值。 可是,我们的工作真的毫无价值吗?我并不这么认为。而且我相信从事经典生物分类学的学者们都不这么认为。正如朱老师的博文中指出的,以及众多科学家认识到的,经典生物分类学的工作不应按现行科研评价标准(唯影响因子点数论)来评判,因为即使最有影响力的分类杂志的影响因子也很低,同其它学科相比,按影响因子点数来评判经典分类学的工作有失公平。如果非得按影响因子来评判,分类学文章应该得到应有的引用,因为现行的惯例是生物学的各个学科在使用物种名的时候根本就没有引用发表这个物种的文章,严格意义上说,这可以算是学术不端。如果每个物种的名字被提到时都必须提供引文的话,分类学杂志将成为影响因子最高的杂志之一,因为翻开每一篇生物学文章,不可能不提到某个物种的种名。从这个视角来说,分类学文章的影响力应该比其它文章的影响力更大,因为一个物种被正确发表后,将永远被引用,只要有有关这个物种的研究正在进行。 所以,回到本文的题目,拿什么来拯救经典生物分类学?从一个仍然希望可以坚持分类学工作的年轻学者的角度来看,请改变现行的科研评价方式吧,不要再唯影响因子点数论,而更多的通过同行评议来根据该分类工作对本学科的贡献大小来做出评价。 图 1. Calliscelio suni 。这个种存在很多种内的变异,因此我用孙悟空的姓( sun )来命名,寓意这个种像孙悟空一样能变化多端。给新物种命名是经典分类学最好玩的部分之一。
21334 次阅读|61 个评论
SCI= Stupid Chinese Idea i鸿遍野
冯用军 2016-7-17 00:03
即使木有了SCI,或者SCI已死,中国四肢发达头脑简单的行政管理部门和行政管理人员,还会弄出替代的BCI、YCI、XCI,把原本复杂系统的科研质量评价简单化、数字化、一刀切化,就像女人的罩杯,这不国内还有CSSCI嘛 所以,SCI易主(商业化),几家欢喜几家愁,有人欢喜有人忧,但中国科技人员苦逼的快乐生活还会继续,该骗的骗、该假的假、拜科学教、唯SCI主义,你有政策,我有对策,咱们人多、钱多... 中国,i鸿遍野,木有科学探索无禁区的制度安排,木有宽松的学术氛围和允许试错失败的机制,木有终身教职和自由的探索精神,科技人员不能获得自身的彻底解放,怎么能去解放全人类,去哪儿原始创新?
个人分类: Science Journal|1553 次阅读|0 个评论
诱惑与困惑:“影响因子游戏”该如何继续?
热度 9 st69786 2016-6-16 00:22
诱惑与困惑:“影响因子游戏”该如何继续? 本文2016年6月15日发于“知识分子”公众号(原文链接: https://mp.weixin.qq.com/s?__biz=MzIyNDA2NTI4Mg==mid=2655407757idx=1sn=f7acfbc52aaac3b0b8fdef1a49c39e51scene=1srcid=0615WzrXP0jTIQpj1pGcwro9pass_ticket=HOD%2B1AjNtNpi178BAQB68uOpUcFMyY4V165URZ8%2F7Jur5TyIBZii%2FIct6%2BSocNXi#rd )。 转载请联系“知识分子”公众号。 本文为博客文章修订稿,初稿曾以“ 影响因子的前世今生 ”为题发于2015年7月9日的作者的科学网博客(原文链接:http://blog.sciencenet.cn/blog-1015-904042.html)。 撰文 | 贺飞(北京大学) 责编 | 李晓明 引言: 伴随着科研竞争的日益激烈,如果你正在获取tenure职位、获得基金、评上国家奖或是当选院士的道路上,那么你的一篇最新得意之作发表在哪家期刊比较好呢?论文发表后能否得到较大的认同度和传播率呢?如果你面临着科研选题,哪些期刊的研究情报才是最值得信赖的研究动态呢?一个可供你参考的答案那就是“期刊引证报告(Journal Citation Reports,简称JCR)”,这是对学术期刊影响力评估的各项指标的概要,是当前全球最具影响力的同行评议期刊的评估报告,其中的一个核心指标就是期刊影响因子(Journal Impact Factors,简称JIF)。 “影响因子”对于学术研究的影响越来越大,学术界有很多人批评对其滥用,但当前要马上取消它,或者马上改革并不是一件一蹴而就的事。就此,国际学术界近年来持续对“影响因子扭曲”现象发声并努力平衡其对科研产出的不利影响。 ● ● ● 1 期刊影响因子年度报告出炉 2016 年6月13日,汤森路透公布了2016年度《期刊引证报告》(Journal Citation Reports,简称JCR)。今年的JCR报告涵盖了来自81个国家和地区234个学科的11365种期刊(去年为82个国家和地区237个学科11149种),其中自然科学领域(SCIE)收录了8757种期刊,社会科学领域收录了3206种期刊(部分有重叠)。与去年相比,今年有239种期刊首次获得其影响因子,有18种期刊被“镇压”;有57%的期刊的影响因子有所提升。 CA-A CANCER JOURNAL FOR CLINICIANS 、NEW ENGLAND JOURNAL OF MEDICINE(NEJM) 以及 NATURE REVIEWS DRUG DISCOVERY 包揽了榜单的前三甲,影响因子分别为131.723(去年为115.84)、59.558(去年为55.873)和47.120。而去年以46.568排名第三的 CHEM REV 则降至第12位(37.369)。从分区看,位于一区(Q1)的期刊有3216种,Q2、Q3和Q4区的期刊分别为3650、3677和3592种。 本年度中国大陆共有185种期刊被收录,相对2014年度的173种增加了12种(增长6.94%),其中影响因子大于1.0的期刊由2014年度的84种增长至93种(增长10.71%),来自中国的 Cell Research (14.812,92位)、 Light science and applications (13.6,109位)、 NanoResearch (8.893,230位)和 National Science Review (8,282位)等四种期刊,从影响因子看表现不俗。 今年的JCR报告中综合性期刊共有62种,其中 Nature (JIF=38.138)和 Science (JIF=34.661)分别位列第1和第2。值得注意的是 NatureCommunications (JIF=11.329)今年再次超过 PNAS (《美国科学院院刊》,JIF=9.423), PNAS 的影响因子位列全部期刊的第203位(去年为198位)。 来自中国的综合期刊 National Science Review 首次获得的影响因子便达到8,成功跻身63种综合类期刊的第5名。此外,自去年开始,期刊引证报告的排名新增一个“特征因子”(Eigenfactor score)指标,这一指标是衡量某一期刊在其学科中的总体贡献(假定一个学科的全部贡献值是100)。例如上文的 Nature, Science 和 PNAS 的“特征因子”分别为1.45, 1.16 和1.33。总体来说影响因子和这个系数是高度相关的(r2 = 0.83)。 世界上的期刊成千上万,五花八门,要收录世界所有的期刊显然是不可能的,汤森路透期刊遴选是一个持续的过程,旨在识别、评价和筛选最重要和最有影响力的国际和地区期刊,收录进Web of Science数据库。因此,确保JCR和期刊影响因子的有效性是遴选和维护所收录期刊的必要环节。JCR通过对可量化统计信息的客观评价来评估期刊在学术文献中的地位,JCR候选期刊除了需要被Web of Science数据库平台及其所包含的其他数据库所收录外,还需要通过一系列包括出版及时性、内容新颖程度、国际多元化、以及其他标准的评估,相关分析包括引证数据、影响力衡量指标、以及来自Web of Science中数百万的期刊被引及施引数据。 期刊影响因子年度官方发布可以追溯到1975年,当初的主要目的是通过期刊对文献进行分类。 根据汤森路透的初衷,期刊影响因子(Journal ImpactFactor,简称JIF)作为JCR的一个重要指标,通常被认为代表着期刊的重要性。汤森路透认为,期刊影响因子所具有的优势是直接反映了科学家和学者自己对于最值得关注和有帮助的科学研究的判断。然而,尽管影响因子在一定程度上是一本杂志质量高低的标准之一,并且能够带来科学以外太多的东西:教职、基金申请、科研奖励、学术影响力等。学术界有很多人批评对其滥用,但当前要马上取消它,或者马上改革并不是一件一蹴而就的事。 2 期刊影响因子是怎样诞生的 那么什么是期刊影响因子呢? 根据汤森路透的定义,期刊影响因子即某期刊前两年发表的论文在第三年中平均被引次数。例如,某期刊在2015年影响因子为6.25,说明这本期刊2013年和2014年发表的论文在2015年平均被引用了6.25次。 期刊影响因子的计算基于两个因素:一个是期刊过去两年发表的论文在当年所获得总引用次数,被用作分子;一个则是期刊过去两年所发表的论文总数,被用作分母。之所以这么考虑,是因为如果仅使用之前一年发表的论文用来计算,则赋予学科的快速变化更多的权重;对于某些学科,即便基于两年论文数据计算的影响因子也不能全面反映该学科期刊的状况,有人建议使用5年甚至10年的统计期则更为恰当。 从影响因子的定义明显可以看出,其十分依赖于所谓“可被引”的论文类型的数量,显然其越少越好(即分母越小,影响因子越高)。由于一个期刊的影响因子源自于期刊所有论文的引用,因此这一数字并不能告诉我们该期刊上某一篇特定论文的质量信息,也不能告诉我们任何特定作者的论文质量信息。此外,期刊影响因子通常会极大地受综述论文的影响(其常较研究论文得到更多的引用)或受到少量极高被引的研究论文的影响。在汤森路透的一份如何正确使用期刊影响因子的声明中,他们认为: ► 汤森路透一直强调,作为衡量期刊影响力的常用指标,期刊影响因子应予以恰当的应用,而不是作为评估作者或机构的替代品。 ► 期刊影响因子仅仅是单一数据点,必须严谨地并且联系实际情况加以考虑,因为很多因素都会影响论文在不同学科中的引用情况。 ► 让期刊影响因子作为评估论文本身或者作者的代替品并不合理。 其实早在上世纪60年代的早期,科学引文索引(SCI)之父尤金·加菲尔德(Eugene Garfield)博士就开始了相关尝试,其将Current Contents所收录的期刊,如 Nature、Science 和 The Journal of the AmericanMedical Association(JAMA) 等大型期刊与发表数量不多但影响重大的综述性论文(Review)的期刊或其他刊发年度综述(Annual Review)的专业期刊进行比较时发现,如果仅考虑论文总数或引文总数,后者就有可能被遗漏。为了避免这一现象,他提出了期刊影响因子(Impact Factor)这一概念。此外,加菲尔德博士还发现,每年对于文献的总引用有25%来自对发表了2-3年的论文的引用,所以他决定使用该期刊之前两年的所刊载的论文在当年所获得的平均被引次数来计算当年的期刊影响因子。 3 “爱恨交加”的学术界 汤森路透每年公布其期刊引证报告时,各出版商可以说是几家欢喜几家愁,“爱恨交加”,各期刊也会纷纷吐槽来评论这一“盛事”。正如 PLoS Medicine 在其2006年6月6日题为“影响因子游戏”的社论中所说:“如果我们说对我们期刊即将诞生的第一个影响因子不感兴趣,那肯定是在撒谎。 PLoS Medicine 的影响因子究竟是多少的确是作者之间讨论的常见话题,由于我们作者的看法对我们十分重要,我们必须认真对待。然而,对于一个如此广泛使用和滥用的数字,令人惊讶的是很少有人真正知道期刊影响因子是如何计算的,更重要的是其在评价某一期刊某一篇论文的真实影响力的作用是如何有限。” 2015 年6月30日出版的 PNAS 发表了其主编Inder M. Verma的一篇吐槽文章“影响力而非影响因子”,显然是针对当年6月18日汤森路透公布的年度期刊引证报告有感而发。Inder M. Verma是一位来自美国加州圣地亚哥索尔克生物科学研究所的分子生物学家,于2011年11月出任 PNAS 主编,其职责是确保 PNAS 的水准得以维持,而大部分的论文审查和出版工作则仍将由 PNAS 的职员和编委会进行。他还在索尔克研究所自己的实验室里继续从事基因疗法、肿瘤遗传学和炎症的研究。他在文章中说: 当英国哲学家赫伯特·斯宾塞1864年引入“适者生存”这个短语时,他万万没有想到可用来概括当前年轻科学家所处的困境。随着教师职位和研究经费竞争的持续白热化,今天的科研人员面临在高影响因子科学期刊上发表论文的巨大压力。但仅在几十年前的1970年代,当我作为一个病毒学家开始我的科学生涯时,我所在的领域普遍认同的是病毒学专业杂志。而只有跨学科的工作才会发表在那些迎合更多读者的期刊上。大多数研究人员阅读和发表论文时很少考虑传说中的所谓期刊自身的影响。教师任命、晋升以及科研项目的获取常常主要基于工作本身的未来可察觉的影响力,而不是依据其研究工作发表在所谓的“高影响力”期刊上。 不幸的是自那以后变化大潮势不可挡。美国科技情报所(ISI)(研究所后来成为汤森路透的一部分)的创始人Eugene Garfield引入了期刊影响因子(JIF)这一概念。其最初的想法是帮助指导图书馆员决定订购哪种期刊,自那以后这一指标长期被用于科技期刊的排名。这一计算方法存在固有的不足,由两年的时间窗口的引用数来决定影响力可能会造成仅少数论文就会对期刊的总体影响力影响巨大,尤其是在那些多产且快速变化的研究领域,占了绝大多数引用。(例如,最近在杆细胞生物学和基因编辑领域的爆发性增长)。 反思这一缺陷, Nature杂 志在其2005年的一篇社论中认为其当时的期刊影响因子 32.2的89%可归因于有关时段发表的25%论文的贡献。正如Garfield自己所观察到的,从1900到2005年的3800万篇文献中仅有0.5%的论文被引超过200次,有一半论文没有被引用,并且四分之一并非原创性研究的实际报告。此外,基于细微差别(有时精确到小数点后三位)的影响因子对期刊进行排序,以增加标的外观精度和识别力。 诚然,那种认为选择何种期刊发表论文不重要的想法也是不切实际的,那些激动人心的重要论文常常发表在影响因子高的期刊上。但这种事实并不意味着科学界认为影响因子很有用处,特别是将发表在高影响因子期刊上作为评价某篇论文质量的一个指标。例如,任职于任命/晋升/评估委员会的研究人员如何将申请人的研究论文归入特定的类别:属于低引用的大多数还是高被引的少数? 当提及如何判断研究工作本身的质量和重要性时,没有更好的质量评价替代指标,只好反复使用影响因子,但它既不是一个论文层面的指标,也不是一个比较研究者学术贡献的指标。然而,许多机构的绩效评估非常看重这一数字,目前其对学者的科学生涯进步有着巨大的影响。以至于一些大学的工作申请根本不考虑那些没有一篇作为第一作者的高影响因子期刊上论文的申请人。另外有的机构在给予tenure时考核申请人所发表论文的累积期刊影响因子是否达到一个阈值,如果达不到将会影响其职业进步。有的机构甚至提供巨额的奖励给那些在该影响因子期刊上所发的论文(传说有的按比例缩减!)。 诚然,科学界承担过多的责任,包括书写和评审项目申请和论文,教学,还要阅读成百上千的助理教授申请、tenure以及晋升。因此很容易的将高影响力工作等同于发表在高影响因子的期刊上。但并不是所有高影响力论文发表或能够发表在这种期刊上。需要记住的是什么因素决定一个特定工作最终对科学发展起作用是同等重要的。就 PNAS 来说,我们要求作者提交120字的工作重要性声明,来指出其在领域的影响力。其他机构和经费部门开始要求候选人陈述其重要论文的重要性,这些都将对评审有帮助。 作为论文重要性和业绩的仲裁者,科学家不能专门依赖于期刊的影响因子,可接受的指标应基于许多考虑,包括趋势分析和按学科领域分析。令人高兴的是科学界已注意到影响因子的负面影响,开始着手认真解决这一问题。“科研评价的旧金山宣言”——这份2012年美国细胞生物学会提出的一系列指南,瞄准研究人员、出版商、经费组织以及其他相关人员——提倡对科研产出的合理评价。在这次会议上,有关不合理使用影响因子的对话已引起科学界注意这一问题。2015年4月在华盛顿举办的第152届美国科学院年会上,由 eLife 主编Randy Schekman组织了一个研讨会,更加深了上面提到的忧虑。持续的努力能帮助阻止对期刊影响因子的滥用,并减少科学界对其过分依赖。对正在庆祝诞生100年的 PNAS 来说,我们始终关注的影响力,而不是影响因子。 2013 年5月17日, Scinece 杂志还以“影响因子曲解(Impact Factor Distortions)”为题发表了社论。 Scinece 社论同《科研评价的旧金山宣言(DORA)》的观点一致,这一宣言是一些有识科学家于2012年美国细胞生物学年会之际开会的产物。 为扭转科研评价中的曲解,DORA认为科学界应停止使用“期刊影响因子”来评价科学家个人的工作。宣言认为“影响因子不能作为替代物用于评价个人研究论文的质量,也不能用于评估科学家的贡献,以及用于招聘、晋升和项目资助等评审”。DORA还提出了以系列改进科研论文评价方式的行动,供基金资助机构、科研机构、出版商、研究人员以及评价机构借鉴。这些建议得到超过150多位知名科学家和包括美国科学促进会(AAAS)( Science 出版商)在内的75家科学机构签署支持。社论认为这样做的理由如下: 影响因子是基于某一期刊的论文平均被引次数而计算的数字,从未被规定为可用于评价科学家个人。它仅是一个评价期刊质量的指标。但它正日益被滥用于评价科学家个人,人们常常根据论文所发期刊的影响因子对科学家进行排名。基于这一原因,在许多简历中,科学家都要标注其每篇论文所发期刊的影响因子,并且一般会按照3位小数(例如,11.345)的降序排列。并且在一些国家,发表在影响因子低于5.0期刊上论文被官方认为是零价值。正如许多知名科学家多次指出,这种影响因子躁狂症没有意义。 影响因子的滥用具有巨大的破坏性,它鼓励期刊的指标赌博,(影响期刊出版政策),造成一些期刊不愿发表某些领域的重要论文(如社会科学和生态学) ,仅仅因为这些领域的引用较其他领域(如生物医学)要少。并且浪费科学家大量时间,他们不顾一切地为从评估人处获得高分,而滥投高被引期刊(如 Science )。 但任何“对研究者的质量自动打分”方式的最具破坏性的结果可能是鼓励“跟踪模仿”(me-too science)。任何评价体系如果是研究人员论文数量增加就带来某种纯粹数字或分数的增长,一般会成为从事高风险和潜在开创性突破的工作的极大的负面激励。因为建立新实验和新方法一般需要多年的努力,而这期间将不会有论文发表。这一指标进一步会阻碍创新,因为它鼓励科学家工作在已经高度热门的领域,因为只有这些领域才会有大量科学家引用别人的工作,而不管工作是否杰出。造成仅有那些十分勇敢的年轻科学家才会冒险从事一些冷门研究领域,除非取消对个人的自动数字评估。 DORA 的建议对维护科学健康发展十分关键。作为一个底线,科学家领导人必须承担仔细周到分析其他研究人员科学贡献的完全责任。为了做好这个,需要实际阅读每一研究者少量精选论文,而这一任务不能交由期刊编辑去完成。 这里列出《旧金山宣言》中的具体评价建议全文,以供参考: ► 总体建议 1 .不使用影响因子等评价期刊的指标作为评价单篇研究论文质量的代替指标,也不用来评价某位科学家的贡献,也不用于决定是否聘用、提职或经费资助的指标。 ► 对资助机构 2 .明确用于评价资助申请人科研生产力的标准,明确强调一篇文章的科学内容比刊载该篇论文的期刊的计量指标和知名度更重要,特别是对起步阶段的研究人员。 3 .科研评价的目的,除了发表的论文外,还应考虑其他所有研究产出的价值和影响(包括数据集和软件等),此外,还应考虑采用包括研究影响力的定量指标在内的更广泛的影响力测度指标,如测度其对政策和实践的影响等。 ► 对研究机构 4 .明确用于决定聘用、tenure和提职的标准,明确强调一篇文章的科学内容比刊载该篇论文的期刊的计量指标和知名度更重要,特别是对起步阶段的研究人员。 5 .科研评价的目的,除了发表的论文外,还应考虑其他所有研究产出的价值和影响(包括数据集和软件等),此外,还应考虑采用包括研究影响力的定量指标在内的更广泛的影响力测度指标,如测度其对政策和实践的影响等。 ► 对出版商 6 .应大大减少强调期刊影响因子作为促销工具,最好不推销影响因子,或只给出一些基于期刊评价的指标(例如,5年影响因子、特征因子、SCImago、出版频次等),以便全面了解期刊的绩效。 7 .提供一系列的论文层面的指标,鼓励转向到基于论文科学内容的评价,而非发表论文的期刊的出版指标。 8 .鼓励负责任的作者署名,能提供每一作者特定贡献的信息。 9 .无论期刊是开放获取还是订阅模式,应去除所有对论文参考文献列表的再利用限制,使其能按照“公共领域贡献知识共享”( the Creative Commons Public Domain Dedication)原则得以获取利用。 10 .去除或减少对论文的参考文献数量的限制,合适情况下,应强制要求引用原创性论文而不是综述论文,以便让首次报道某一发现的作者(们)能得到认可。 ► 对指标提供机构 11 .使用来计算所有指标的数据和方法公开透明。 12 .允许所提供的数能够不受限制地被再利用,并提供数据的计算步骤。 13 .明确声明不能容忍对指标的不当操控行为;明确哪些属于不当操控,以及将采用的打击操控措施。 14 .在使用、总计或比较指标时,应考虑文献类别(如综述 vs.研究论文)和不同学科领域的差异。 ► 对研究人员 15. 当参加一个委员会来决策经费资助、聘用、tenure或晋升时,应基于论文的科学内容而非所发表的期刊指标来做出评价。 16 .任何时候最适当论文引用方式应是引用首次报道观察结果的原创文献而非综述,让原创作者实至名归。 17 .采用一系列论文计量指标和个人指标/支持声明,作为某人所发论文和其它科研产出影响力的证据。 18 .挑战不恰当地依靠期刊影响因子进行科研评价的行为,提倡关注特定研究产出的价值和影响的最佳实践。 4 不断改进的评价指标 2015 年7月9日,《自然》杂志也以“数字游戏”为题提出科研机构必须对学术界使用的计量指标保持平常心。文章说,科学家喜欢抱怨同行评议系统用来判断研究质量,但常常也会反对用学术产出的计量指标来替代同行评议。同一周英国出版的一份有关利用这类计量指标的报告认为,计量指标虽然并未达到能取代同行评议,来判断研究论文、项目申请书的质量以及研究人员的个人水平,但这一指标的诱惑力日益增加。 在英国,许多高校开发各种系统来记录其学术人员的科研产出,收集其详细的经费数据和各种类型的产出 ,包括专利,论文,引用以及科研项目等,并将其同竞争大学进行比较以分析机构的优势。有的已经建设了其自有的内部科研信息系统,也有的依赖经费资助机构收集的研究人员产出的在线数据库。有的是公布信息的非营利系统,也有的是文献计量引用的商业系统。还有许多的商业对标服务也能够分析这类信息。 这类分析服务正日益高端化。他们采用各种特色方式来分组引用指标,涵盖了个人、系、机构或期刊等的论文集,并同类似组别进行对标分析。因此,科学家不应对这一状况视而不见,要承认现实,积极参与了解和改进这些指标。 影响因子在中国流行也是有它存在的土壤和原因的。由于科研竞争的日益激烈,各种评价也日益增多,面对种种科研不端行为,人们需要找到一种相对客观而又简单并且人为因素干预最少的办法。毋庸讳言,从这个意义上来说,影响因子在科研评价中还是发挥了一定的作用。期刊影响因子虽然不能作为研究水平的绝对和唯一的评价指标,在不同学科之间也是无法比较的。但它在同一学科内作为一般性评价指标还是有价值和意义的,一般来说同一学科内影响因子高的刊物的论文发表要求相对较高,文章的总体质量和平均水平也是相对较高的。虽然影响因子并不能完全反映一个科研工作者的水平,但从统计学的意义上讲,同一领域内,发在高影响因子杂志上文章的水平还是要普遍高于低影响因子杂志上的文章。在同行评议还不能做到完全客观和全面时,影响因子总体上还是能反映一些问题的。因此,影响因子评价虽然是有违科研精神的,但目前阶段还是一种较为公平的评价,大家在同一个游戏规则下也是平等的。 然而,影响因子只代表研究热点,不能直接代表研究水平(哪怕是同一个领域的),因此,影响因子只能作为某种参考,不能唯影响因子是论,更不能赋予其太多的利益和好处。因为,在一些传统学科的老牌刊物,因为其综合性强,加之学科本身并不是十分热门,因而其影响因子并不太高,而一些新的学科其所推出的新期刊反而期刊影响因子很高,他们所发表的论文水平是不能放在一起比较的,更何况在同一高水平期刊中的论文还有好坏之分,有的甚至还会撤稿。 值得注意的是,在过去的40多年中,JCR也在不断发展完善。汤森路透逐步推出了一系列更加成熟的期刊计量评价指标,如期刊影响百分位、标准化特征因子、期刊规范化引文影响力、期刊期望引文数等全新评价指标等。 ► 期刊影响因子百分位(JournalImpact Factor Percentile) :期刊影响因子百分位是一种规范化指标,可实现不同学科领域的期刊间更为恰当的且更有意义的对比分析。该指标克服了不可直接利用影响因子进行跨学科比较的局限性,同时是对期刊分区数据(Q1-Q4)的一种补充。 ► 标准化特征因子(NormalizedEigenfactor) :是由华盛顿大学特征因子(Eigenfactor)团队开发的经改进的计算方法,使衡量指标更为明确;例如,一本期刊的特征因子(Eigenfactor)为2,这表示该期刊的影响力两倍于同学科领域的期刊平均水平。 ► 期刊规范化的引文影响力(JNCI) :对文献发表在特定期刊上的被引次数进行了规范化。即每篇出版物的JNCI为该出版物的实际被引频次与该发表期刊同出版年、同文献类型论文的平均被引频次的比值。一组出版物的JNCI值为每篇出版物JNCI值的平均值。JNCI指标能够提供某单一出版物(或某组出版物)与其他科研工作者发表在同一期刊(或同一组期刊)上成果的比较信息。这个指标能够回答,诸如“我的论文在所发表期刊上表现如何?”之类的问题。如果JNCI的值超过1,说明该科研主体影响力高于平均值,如果JNCI的值低于1,说明其影响力低于平均值。JNCI对于出版社评价论文发表后的影响力水平亦是十分有用的指标,它揭示出那些超过平均水平并提高了期刊被引频次的研究工作。 表 作者层面的CNCI与JNCI指标示例 总出版物数 总引文数 引文影响力 h 指数 CNCI JNCI 科研工作者D 66 290 4.39 9 1.32 1.86 科研工作者E 62 289 4.66 9 0.45 0.72 注:学科规范化的引文影响力(Category NormalizedCitation Impact)通过其实际被引次数除以同文献类型、同出版年、同学科领域的期望被引次数获得的。当一篇文献被划归至多于一个学科领域时,则使用实际被引次数与期望被引次数比值的平均值。一组文献的CNCI,例如某个人、某个机构或国家,是该组中每篇文献CNCI的平均值。CNCI是一个十分有价值且无偏的影响力指标,它排除了出版年、学科领域与文献类型的影响。如果CNCI的值等于1,说明该组论文的被引表现与全球平均水平相当;CNCI大于1表明该组论文的被引表现高于全球平均水平;小于1,则低于全球平均水平。CNCI等于2,表明该组论文的平均被引表现为全球平均水平的2倍。由于CNCI是一个排除了出版年、学科领域与文献类型的作用的无偏影响力指标,因此使用它可以进行不同规模、不同学科混合的论文集的比较。 上表列举了一个在作者层面应用CNCI和JNCI的例子。科研工作者D和科研工作者E的出版物数量与引文数均十分接近。他们的引文影响力也十分接近,h指数也是相同的。如果只从上表中的前四个指标,则不能区分两个科研工作者的科研绩效。实际上,两位科研工作者可能在两个不同的科研领域进行研究,其论文发表的历史也可能完全不同(老论文与新论文)。 使用CNCI和JNCI指标,能够让我们更好的了解两位科研工作者与同领域、同文献类型、同出版年的同行的对比情况。 从规范化的指标中,我们可以很快发现科研工作者D的CNCI(1.32)与JNCI(1.86)的值都超过了平均值(大于1)。发现科研工作者E的CNCI(0.45)与JNCI(0.72)的值均低于平均值(小于1)。 应该注意到JNCI是一个相对的科研绩效评估指标。尽管在很多情况下,CNCI与JNCI可能正相关,但这并不是对所有情况都成立。例如,如果一个科研工作者的CNCI指标高于平均值,JNCI指标低于平均值,这可能意味着该科研工作者在其论文发表的科研领域获得了比平均水平更多的引用,但是这位科研工作者发表的期刊具有非常高的被引频次(例如 Science 或 Nature ),因此他/她的论文被引频次低于这本期刊上论文的平均被引频次。 期刊期望引文数(Journal Expected citations) :是同一期刊、同出版年、同文献类型的论文的平均引文数。可以通过计算实际/期望引用值的比值,也就是用一篇论文的实际引文数除以该期刊论文的平均引文数,来评估论文的表现。如果该比值大于1,说明论文的引文数高于平均值。 例如,2004年,Circulation期刊的篇论文平均引文数为55.34,则期刊期望引文数即为55.34。如果某一2004年发表于Circulation期刊上的论文有30篇引文,则其实际引文数与期望引文数的比值为0.54,说明该论文表现低于平均值。 事实上,在很多分析中,期刊实际/期望引文数的比值是一个累积的比值,也就是说,分母(期望引文数)是一组论文集发表的所有期刊期望被引频次的总和,而分子(实际引文数)则为该组论文集引文数的总和。 参 考文献: 1.https://jcr.incites.thomsonreuters.com 2.GarfieldE(2006) The history and meaning of the journal impact factor. JAMA 295(1):90 –93 3.Anonymous(2012) San Francisco Declaration on Research Assessment. ASCB Annual Meeting.Available athttps://archive.org/stream/principlesbiolo05spengoog#page/n460/mode/1up. 4.Anonymous(2015)A numbers game.Nature 523(7559):127-128 5.I.M.Verma(2015)Impact,not impact factor.Proceedings of the National Academy of Sciences of the UnitedStates of America.112 (26):7875-7876 6.B.Alberts(2013)ImpactFactor Distortions. Science. 340 (6134):787 7.Eigenfactor.org. http://www.eigenfactor.org/. 8.ThePLoS Medicine Editors (2006) The impact factor Game. PLoS Med 3(6): e291.
个人分类: 文献计量学|10235 次阅读|11 个评论
观察 | 是谁对北大ESI指标的贡献大?
热度 3 st69786 2016-5-15 02:36
观察 | 是谁对北大ESI指标的贡献大? ------- 以 2003-2013 年论文为例 文 | 贺飞(北京大学) 近年来,北大进入 ESI 前 1% 的学科数不断增加,论文总数、总引用数和平均引用也不断增长。目前已经有 19 个学科进入前 1% , 2003-2013 年 - 论文总数 42,606 ,总引用数 443,787 ,平均引用为 10.42 。 本文回答的问题:北大校内哪些学者的贡献最大? 分析 方法: 由于不同的学科的引用习惯不同,不同年份发表的论文的引用也随时间变化存在很大的数量差别,因此本文采用 22 个学科中引用最少的数学学科的每年前 1% 的阈值作为控制指标,将这些论文定义为北大的“高被引论文”,然后检索 WOS 数据库中北大 2003-2013 年历年的高被引论文,并进行分析。 需要说明的是,本文在分析个人贡献时,仅分析了北大学者为通作的学者的论文,没有统计北大学者参与合作的论文的引用贡献情况。 历年论文引用的检索阈值 年 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 按照数学1% 64 63 56 49 43 37 29 23 14 8 3 分析结果: 1 、 2003-2013 年北大的高被引论文共计 4744 篇(占同期论文总数的 11.1% ),总引用数为 240915 次(占同期论文总引用数的 54.3% ),平均引用为 50.78 (为同期整体论文引用的 4.9 倍)。历年分布如下:  年 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 高被引论文数 134 184 212 230 315 370 458 504 727 839 771 其中北大通作 79 92 115 115 156 200 233 258 365 397 369 非通作 55 92 97 115 159 170 225 246 362 442 402 2 、在高被引论文中,北大为通讯作者的 2371 篇,占高被引论文的 50.0% ,占同期北大总论文数的 5.56% ,总引用 114055 ,占同期北大总引用的 25.7% ; 北大参与国际合作论文数 2373 篇,占高被引论文 50.0% ,占同期北大总论文数的 5.56% 。总引用 126860 ,占同期北大总引用的 28.6% 。 其中北大参与大科学合作产出高被引论文 173 篇(物理学院 CMS 小组),总引用 6243 次。 3 、 统计分析部分高被引课题组如下(按通讯作者统计,分别按照篇数和总引用数取前 30 名 , 本文略去作者姓名 , 用数字代表) (1) 按篇数前 30 名 通作 篇数 总引用 1 ,化学 48 4167 2 ,药学院 42 1646 3 ,化学 35 3109 4 ,化学 34 3666 5 ,化学 34 1372 6 ,工学院 34 935 7 ,化学 29 2133 8 ,化学 27 2920 9 ,化学 25 997 10 ,城环 25 1311 11 ,化学 23 1088 12 ,地空 20 355 13 ,物理 19 2316 14 ,环工 19 684 15 ,药学院 18 515 16 ,工学院 18 1017 17 ,化学 17 1162 18 ,化学 17 1130 19 ,工学院 16 1096 20 ,化学 16 1172 21 ,化学 16 454 22 ,城环 16 605 23 ,城环 15 703 24 ,生命 15 1829 25 ,化学 13 223 26 ,化学 13 332 27 ,化学 13 984 28 ,化学 13 352 29 ,生命 13 911 30 ,物理 12 378 31 ,化学 12 610 32 ,心理 12 579 33 ,工学院 12 394 ( 2 )按总被引前 30 名(姓名略去 , 以姓氏第一个字母代表) 通作 篇数 总引用 S ,化学 48 4167 Y ,化学 34 3666 Q ,化学 35 3109 G, 化学 27 2920 Y ,物理 19 2316 Z, 化学 29 2133 D ,生命 15 1829 P ,信息 11 1748 J ,药学院 42 1646 W ,化学 34 1372 T ,城环 25 1311 X ,化学 16 1172 S ,化学 17 1162 Z, 化学 17 1130 Z, 工学院 16 1096 L ,化学 23 1088 H ,工学院 18 1017 Y ,化学 25 997 W ,化学 13 984 C ,工学院 34 935 D ,生命 13 911 Y ,化学 7 907 S ,医学部 9 880 K ,化学 8 857 H ,环工 9 843 D, 化学 9 842 L ,化学 9 736 P ,化学 10 706 F ,城环 15 703 G ,药学院 11 687 4 、值得一提的是,北大物理学院 CMS 小组参与国际大科学合作,共产出高被引论文 173 篇(每篇论文作者数均超过 2000 人),占北大总论文数的 2.10% ,总引用 6243 次,占北大总引用的 7.58% (数据显示,北大 CMS 小组共发表国际合作大科学论文 284 篇)。其高被引论文历年统计数据见下表。 北大物理学院CMS小组高被引论文数和总引用数 年 论文数 总引用数 2008 1 302 2010 28 1028 2011 51 1705 2012 54 2935 2013 39 273 5 、部分院系(学科)的高被引论文(按总引用取前 10 ) 5.1 医学部 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 J ,药学院 42 1646 S ,医学部 9 880 G ,药学院 11 687 Z ,医学部 6 647 Z ,北大医院 3 580 H ,医学部 3 562 Z ,药学院 18 515 T ,医学部 4 488 L ,医学部 8 469 D ,北大医院 6 464 5.2 物理(姓名略去 , 以姓氏第一个字母代表) Y ,物理 19 2316 O ,物理 3 482 M ,物理 4 404 L, 物理 12 378 D ,物理 10 364 W ,物理 4 363 X ,物理 3 354 Z ,物理 4 221 W ,物理 3 217 L ,物理 2 210 5.3 环境(包括城环) 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 T ,城环 25 1311 H ,环工 9 843 F ,城环 15 703 N ,环工 19 684 H ,城环 16 605 P ,城环 11 605 Z ,环工 6 516 S ,环工 9 455 Z ,环工 7 370 H ,环工 7 344 5.4 化学 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 S ,化学 48 4167 Y ,化学 34 3666 Q ,化学 35 3109 G ,化学 27 2920 Z ,化学 29 2133 W ,化学 34 1372 X ,化学 16 1172 S ,化学 17 1162 Z, 化学 17 1130 L ,化学 23 1088 5.5 生命 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 D ,生命 15 1829 D ,生命 13 911 L ,生命 8 636 W ,生命 9 630 C , IMM 6 391 Z ,生命 4 387 G ,生命 8 241 J ,生命 4 215 X , IMM 4 207 J ,生命 1 184 5.6 工学院 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 Z, 工学院 16 1096 H ,工学院 18 1017 C ,工学院 34 935 T ,工学院 6 510 S, 工学院 10 492 X ,工学院 4 453 X ,工学院 5 428 D ,工学院 12 394 W, 工学院 4 358 W ,工学院 3 340 5.7 地空 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 S ,地空 8 592 C, 地空 6 497 L ,地空 9 456 H ,地空 8 430 C ,地空 20 355 Z ,地空 4 332 X ,地空 3 186 H, 地空 3 156 Z, 地空 4 153 T ,地空 1 127 5.8 信息 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 P ,信息 11 1748 Z ,信息 9 222 F ,信息 1 157 Z ,信息 2 138 G ,信息 1 133 K ,信息 1 131 L ,电子 1 124 C ,信息 2 120 S ,信息 3 111 Z ,信息 5 101 Z ,信息 1 101 5.9 心理 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 H ,心理 12 579 Z ,心理 4 149 L ,心理 1 46 F, 心理 1 18 S ,心理 1 14 D ,心理 1 8 X ,心理 1 5 5.10 社科 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 W ,光华 6 372 W ,光华 1 204 Z ,光华 1 72 Z ,中国经济研究中心 1 68 Z ,光华 1 63 Z ,人口所 1 54 K ,光华 1 51 Z ,光华 1 42 L ,光华 1 40 C ,光华 1 15 W ,国关学院 1 14 H ,经济学院 1 3 Y ,统计中心 1 3 5.11 数学 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 T ,数学 1 117 J ,数学 1 80 D ,数学 1 71 C ,数学 2 70 P ,数学 1 70 L ,数学 1 64 C ,数学 2 36 G ,数学 1 33 C ,数学 1 28 Y ,数学 1 26 5.12 天文 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 W ,天文 1 116 W ,天文 2 107 W ,天文 1 83 P, 天文 2 50 G ,科维理 2 49 V ,科维理 1 45 K ,科维理 1 38 J ,科维理 1 31 C ,天文 1 31 L ,科维理 1 23 5.13 其他 通作 (姓名略去 , 以姓氏第一个字母代表) 篇数 总被引 C ,深圳医院 2 125 X ,核磁中心 3 98 L, 深圳研究生院 3 94 H ,深圳研究生院 3 88 H ,深圳研究生院 5 86 H ,深圳医院 1 60 Z ,交叉 2 50 L ,深圳医院 1 45 Z ,数学 2 44 C ,深圳研究生院 1 37 ( 转载请注明出处,联系作者: st69786@tom.com )
个人分类: 文献计量学|12308 次阅读|3 个评论
【重点解读】第四轮高校学科评估科研水平评价的五大变化
热度 2 liuhongusst 2016-4-27 22:29
1. 更加体现学科特色。 “科学研究水平”下设“科研成果”“科研获奖”“科研项目”三个指标,并在艺术、建筑等应用性较强的学科设置“创作表演”与“建筑设计”指标,体现学科特色。 2. 重点优化科研成效评价。 克服“纯客观”评价缺陷,坚持“主观与客观、国内与国外、规模与质量”三结合的学术论文评价方式。分别与汤森路透、中国知网、CSCD、CSSCI 等机构进行研讨,改进论文评价方法,“学术论文质量”采用“三结合”评价组合。 “一是坚持质量与数量相结合,采用代表性论文,在“比总量”与“比人均”之间找到平衡点;二是坚持主观与客观相结合,通过统计“中国版 ESI 高被引论文”(自然科学学科)或“A 类期刊论文”(人文社会学科)进行客观评价,并通过“代表性论文”进行专家主观评价;三是坚持国内与国外相结合,要求代表性论文数和“A 类期刊论文”中,应包含一定比例的中文期刊。“ 3. 增加科研成果评价的中国元素。 建立更科学的“中国版 ESI 高被引论文”(自然科学学科)和人文社会学科我国自主的“A 类期刊”(人文社会学科)评价体系,树立中国论文评价的国际地位。其中A类期刊是由汤森路透、爱思唯尔、CNKI、CSSCI、CSCD根据科学计量学方法遴选产生初步名单,面向全国万余名博导进行网络投票,最终由相关学科评议组进行投票确定的。 4. 更加鼓励跨学科研究成果。 坚持“归属度”方法,科学评价“跨学科成果”,鼓励学科交叉合作,鼓励协同发展,促进产出高水平成果。 5. 首次将教材编写列入科研成果。 主要是为了落实教育部加强教材建设的意见,鼓励教师积极参与高质量教材编写,促进学科基础建设质量提升。 (上海理工大学管理学院刘虹课题组编写)
6763 次阅读|3 个评论
中美科研差距思考
热度 44 dancingion 2016-1-5 15:25
出去交流的这一年多的时间,以及回来之后的这段时间,让我切身体会到了几点国内科研水平与美国的差距之所在。 上研究生课程的时候,曾听到有一位中科院的教授跟我们抱怨说自己的学生不行,说一流的学生都到了国外,留在国内的都是二流的学生,所以做不出什么重要的东西。以我这一年出去的经历来看,其他单位我不了解,至少清华北大中科院这些大单位的学生丝毫不比国外的(包括在美国的中国学生和其他国家学生)差,有些还更强(暂且排除世界顶级名校,因为我不了解,我所去的学校为世界排名几十左右但专业实力很强)。这位老师忽略了还有很多优秀的学生,不是出不去国,而是因为对国内科研实力有信心、为了不远离父母,仍然选择在国内学习。所以,问题不在于学生。 中科院的仪器设备条件绝对是世界一流,美国大部分实验室的仪器设备条件绝对不是一个档次的。这一点,很多人也都已了解到。所以,问题也不在于硬件设备。 以己之拙见,以及这一年多在外学习的体会,提出如下几点,供思考借鉴: 1. 学生培养方式方面: 我所在的美国实验室里,师生关系非常平等和谐。有科研问题,老板都会组织大家一起讨论,申请新项目时,老板也会让大家都出谋划策,并且非常尊重学生们的意见;而国内的状况,老板或领导们高高在上,组会或学术讨论大都会演变成“批斗会”:“你这么做不对,你这么做根本没有意义,你这想法根本不可行”。。。 学生们一旦反驳一句,便会被冠上不尊敬老师领导的罪名。久而久之,学生们都不再敢发表自己的观点,于是乎又被老师们说成是思维不活跃,没有创新创造力。科研工作上都一样繁忙,但国外的博士们大都过得潇洒自由,而国内的博士生们的很多都感觉被压制的苦闷。“不拘一格降人才”,这不仅是让一个国家强盛的方式,也是让国家科研水平更上一层楼的必需措施。“师者,所谓传道授业解惑也”,不仅如此,博士生导师的职责还应包括培养学生的科研思维,激发其科研创造积极性,待到博士毕业时,该生应具备成为一个独立科研工作者的能力。一个优秀的博士生导师,不仅自己科研要做的好,还要能够带出一批后生科研力量。国内导师有这方面意识的人实在不多,往往只重了前者。千里马常有,而伯乐不常有。导师应该因材施教,发掘其潜能。“弟子不必不如师,师不必贤于弟子”。多放手鼓励学生们自己的想法,多加引导而非斥责,才能更加提高学生们科研的积极性。我本身也是一名博士生,这一点在我出国的这一年深有体会:当自己的能力被自己的伯乐看中时,自己的潜能和工作积极性真的是大大提高,同时,遇到伯乐时心中那种愉悦也是无法形容的。 除此之外,国内学生们大都得帮老板干本应属于秘书的活儿,如报账、安排老板会议行程、为老板预定机票火车票等等。这些琐碎的事情不难,但很分心费时间,让学生们不能够专注于真正所研究的问题。这样一来,真的是让学生们成了老板的打工仔,唯老板命是从,没有了自己的自由意志和话语权了。这是不利于学生创新创造思维的培养的。 2. 课题组科研课题开展方面: 我在美国的课题组,每个课题的开展大都是以问题为导向,以解决问题为目的,即意识到自己科研领域里某个问题比较有意思,至今还没有解决,于是我们开展工作去把这个问题搞明白,等到工作结束,文章就是一种将自己的工作所得与他人分享的途径。国内很多课题组,课题的开展都以热点为导向,以发文章为目的,即所谓的“科研追星族”,例如,发现最近石墨烯比较热,比较好发大文章,于是很多领域都拿它来做,等到工作结束,又开始追踪下一个热点材料,再拿来用用。在国内,文章更多的被当做炫耀的资本。以热点为导向的科研,可能会红一时,但没有深厚的根基,难成大气候;以问题为导向的科研,则更容易成体系,从而更有意义和长远影响力。安下心来,找准问题,踏实科研。与其追逐热点,何不努力让自己成为热点? 3. 科研体系评价方面: 国内这种“以热点为导向,以文章为目的”的科研风气的形成与我们国家科研体系评价机制脱不开干系。很多项目的申请评价都是以文章、以影响因子为考量标准,而不顾实际工作内容,很多课题组也是迫于压力,不得不追逐热点多发文章。国外的科研评价也看文章,但更多的是看内容,看工作的系统性和意义。因为这一问题的根深蒂固,积重难返,要改变国内科研体制的这一问题并非易事,似乎并没有什么可以立竿见影的方法。可能得等到更多的人意识到这一问题,大家一起努力,才能真正改变这种局面吧。 从国外交流回来之后,这些感受就一直萦绕在我心头。我不愿只做个看客,或者逃避国内科研环境。我希望中国的科研也能够像中国的经济一样让外国人刮目相看,希望外国人也都来中国进行交流学习而不是中国人都必须有国外留学经历才显得高大上。我相信很多人都跟我一样,我们对我们的国家有信心! 还有半年毕业,还是打算出去继续学习进修,也决心以后要回国发展。中国科研界虽还存在很多问题,但正因为不完美才有更大的发展空间,也希望自己能够为国家的科研发展贡献自己的一份力。 当然,当下我们最应该做的,是继续努力学习,使自己成为一个优秀的科研工作者!
19768 次阅读|67 个评论
“自然指数”和“自然出版指数”的区别
热度 3 st69786 2015-11-12 15:05
“自然指数”和“自然出版指数”的区别 贺飞 北京大学 今天的科学网头条文章 《 自然出版指数:中美成最大科研合作伙伴 》(http://news.sciencenet.cn/htmlnews/2015/11/331576.shtm), 文中将自然指数和自然出版指数这两个不同的概念给混淆了,这里简要介绍一下这两个概念的区别和联系。 NPG 自2005年开始构建自然出版指数(NPI)。这是专门用于计算《自然》及其子刊的研究机构贡献一个指数。 自然出版指数的英文名字为 nature publishing index, 其参与评价的期刊仅限于自然出版集团NPG旗下的所谓自然子刊,及刊名为nature或nature XXXXXX 的刊物。计算方法参见我之前的博文 “自然出版指数是如何计算的”(http://blog.sciencenet.cn/blog-1015-557807.html) 。自然出版指数统计文章类型为Articles, Letters和Brief Communications。 最近的增刊,特别是针对亚太地区的,可在 nature.asia/publishingindex-asia-pacific获取。由于无需选择期刊,NPI没有外部咨询者或选择小组介入。 详情请参阅: http://www.natureasia.com/en/publishing-index/global/ 。这里不多介绍了。 自然指数的目的是提供一个关于全球高质量研究产出模式的指标, 定位为关于研究机构对科研论文贡献的一个更为包容的数据库,范围远远超出 Nature 刊物, 并不全是自然子刊 ( 例如,当前的自然指数就不包括 Nature Climate Change ) 。但自然指数按NPI的同样原理构建,只是范围更大。自然指数的 核心是68种期刊(下表),由研究人员根据其最愿意在其上发表其最好质量研究成果而独立选出。核心期刊按以下基本原则确定:所包括的期刊由独立于NPG集团之外的活跃科学家组成的一个专门小组选择;选择反映研究人员对期刊内容的看法,而非诸如影响因子之类的测度。用于构建自然指数的68期刊列表最初构建于2011年,包含了一些自然科学主要学科领域的最高选择性的期刊以及高选择性的多学科期刊(定期评估更新)。 编号 期刊名称 1 Applied Physics Letters 2 PNAS* 3 Physical Review Letters 4 Journal of Biological Chemistry 5 Chemical Communications 6 The Astrophysical Journal 7 Journal of the American Chemical Society 8 Monthly Notices of the Royal Astronomical Society 9 Angewandte Chemie International Edition 10 Journal of High Energy Physics 11 Astronomy Astrophysics 12 Journal of Neuroscience 13 Inorganic Chemistry 14 Organic Letters 15 Nature Communications 16 Analytical Chemistry 17 Nano Letters 18 Journal of Geophysical Research: Atmospheres 19 Nature 20 Physical Review B 21 Advanced Materials 22 Science 23 The Astrophysical Journal Letters 24 The Journal of Physical Chemistry Letters 25 Chemical Science 26 Earth and Planetary Science Letters 27 Proceedings of the Royal Society B 28 Journal of Geophysical Research: Oceans 29 Journal of Clinical Investigation 30 European Physical Journal C 31 Cell 32 Current Biology 33 Journal of Geophysical Research: Solid Earth 34 Neuron 35 Geology 36 Ecology 37 Molecular Cell 38 Journal of Cell Biology 39 The EMBO Journal 40 Nature Neuroscience 41 Physical Review A 42 American Journal of Human Genetics 43 Nature Genetics 44 Developmental Cell 45 Genes Development 46 Genome Research 47 PLOS Biology 48 The Astrophysical Journal Supplement 49 Nature Structural Molecular Biology 50 Immunity 51 Nature Geoscience 52 Nature Materials 53 Physical Review D 54 Nature Cell Biology 55 Nature Methods 56 Ecology Letters 57 Nature Chemistry 58 Cell Metabolism 59 Nature Physics 60 Nature Medicine 61 Nature Photonics 62 Nature Nanotechnology 63 Cell Host Microbe 64 Nature Immunology 65 Cancer Cell 66 Nature Chemical Biology 67 Cell Stem Cell 68 Nature Biotechnology 自然指数涵盖所有领域意在提供机构产出的包括多个学科的分析。 将所选择的期刊同所有研究论文产出进行比较,目的是保证自然指数内的学科比率应大致同每年的科研产出一致,不存在某一学科对自然指数贡献太大而不公平的现象。自然指数提供3个测度指标: 原始论文数(the raw article count (AC));分数计数(the fractional count (FC)),根据每一贡献者将论文数进行分配;以及加权分数计数(weighted-fractional count (WFC)) ,采用加权值修正一个学科代表性的粗略不平衡。这一明显的不平衡是在天文学和天体物理学领域中,所选期刊代表了这一学科发表在国际期刊上的所有论文的大约50%。这一比例大约是其他领域同等数据的5倍,因此尽管天文学和天体物理学的数据按照其他所有学科完全一样的方式构建,在WFC中,来自这些期刊的论文被赋予0.2的权重,即这些期刊的分数计数(FC)乘以0.2得出WFC。 自然出版集团希望自然指数能为研究机构提供一个追踪和量化研究产出特别是高质量研究产出的工具,并将其同其他机构进行比较。 ( 转载请注明出处,联系作者st69786@tom.com)
个人分类: 文献计量学|10456 次阅读|3 个评论
缺智能的大数据:清华超过了麻省理工!
热度 3 wengjuyang 2015-10-10 03:46
《美国新闻和世界报道》杂志最近公布了它搞的 2015年“最好的”世界性大学排名。其中的工程方面排名,中国的清华大学第一,美国的麻省理工第二,得分是97.1(如果第一是100分)。 很多美国人和中国人都认为,象中国 1958年至1960年上半年的以缺智能的简单指标为目标的大跃进只有在中央集权的中国大陆发生。因为个别领导权力太大,可以动员全国。 我不很同意这个简单观点,权力太大没有制约是造成到极大破坏的必要条件之一。但还有另一个更根本的必要条件:每个单人,不论是毛泽东、邓小平和中国后来的几个总书记还是美国的任何一个总统,包括华盛顿,杰斐逊、老罗斯福、林肯、里根和奥巴马,都很缺乏胜任他的工作的所需要的知识。为什么缺乏?任何智能群体的运行是一个非常复杂的群智能问题。任何单脑都不可能有足够的群智能,不论他是不是“伟人”。所以,每个“伟人”都用缺智能的符号理想指标去处理复杂的群智能问题。如果没有其他人的有效制约,会造成大破坏。 什么是符号理想指标?共产主义、社会主义、缩小两极分化等等,都是这些符号理想指标的典型例子。奥巴马要加富人的税,就是缩小两极分化在他的脑子里捣鬼,使美国经济恢复很慢。 《美国新闻和世界报道》又是一个例子。这些搞媒介的编辑们不懂大学评价和科研评价一样,是无法用几个符号性指标来评价的。而且大学评价不仅包括了科研评价而且比科研评价更加复杂。 《美国新闻和世界报道》没有公开它的评分计算方法。其网站上仅写道:“排名指标 :文献计量指标是基于(汤普森的)《科学网站》 的从2009至2013五年的对12,000多个最具影响力和权威性的学术期刊的(统计)研究数据。这些学术期刊包括了科学,社会科学,艺术和人文科学。”看来好像这排名指标是仅基于简单的几个符号指标,如我们大家已经熟悉了的发表文章数,他引数等等。这杂志雇了几个数据处理员,力图用这些缺智能的“大数据”来替换非常复杂的“影响力和权威性”。 我的科学网博客《公开信:敬请中国计算机学会取消对会议和期刊的歧视性分区并公布》提到了 Bruce Alberts 的话“这样的评价系统还会阻止创新,因为他们鼓动科学家去搞很多人已经在搞的科学领域,因为只有在这些领域才有希望有很多科学家来引用他的工作,不论这工作是不是优秀。”大家可以查一下,是不是清华比麻省理工有更多人在搞很多人已经在搞的科学领域? 这样对大学,期刊,会议排名造成了系统性的歧视,还不告诉“愚众”(没有恶意,引自《罗辑思维:愚众的迫害》)这个缺智能的指标是怎么计算出来的。这又是一例评价方法缺乏程序正义。
2519 次阅读|10 个评论
数据看北大清华同世界一流大学的差距(7)
热度 13 st69786 2015-9-29 09:15
数据看北大清华同世界一流大学的差距(7) 贺飞 北京大学 近年来,文献计量学和引文分析方法越来越多的被应用于科研绩效评价中。一般来说,没有任何一个单一的文献计量学指标能全面的评价科研绩效。通常会选取一组一组恰当的文献计量学指标,更加全面,视野更为开阔地多角度深入挖掘数据内涵。本博主选取一组特定的文献计量指标(预计10来个指标),将美国新闻与世界报道2014年世界大学排名前20名的大学同北京大学(39)和清华大学(67)两所学校进行比较。相关文献计量学指标和数据来自汤森路透新一代研究分析平台incites。数据检索时间为2015年6月10日。 【前情提要】 (1)、 《数据看北大清华同世界一流大学的差距(1) 》中介绍了3个指标: 论文总数、总引用数、篇均引用数 。 (2)、 《数据看北大清华同世界一流大学的差距(2) 》中介绍了1个指标: 学科规范化引文影响力(Category Normalized Citation Impact)。 (3)、《 数据看北大清华同世界一流大学的差距(3)》 中介绍了2个指标: 国际合作论文数以及国际合作论文占比 。 (4) 、《 数据看北大清华同世界一流大学的差距(4)》 中介绍了2个指标: 平均百分位、论文被引百分比。 (5) 、 《数据看北大清华同世界一流大学的差距(5)》 中介绍了2个指标: 被引次数排名前1%的论文百分比,以及被引次数排名前10%的论文百分比。 (6) 、 《数据看北大清华同世界一流大学的差距(6)》 中介绍了3个指标: 期刊规范化的引文影响力(Category Normalized Citation Impact)、高被引论文(Highly Cited Papers) 以及 高被引论文百分比。 今天这篇博文介绍3个指标: 与企业合作论文百分比(% of Industry Collaborations)、热点论文百分比(% Hot Papers)以及相对世界影响力。 1 指标简介 与企业合作论文百分比就是横向合作论文百分比(% of Industry Collaborations), 一篇横向合作的论文,是指那些包含了一位或多位组织机构类型标记为“企业”的作者的出版物。与企业合作论文百分比是某一论文集与企业合作发表文献数除以该论文集合中论文总数的数值,以百分数的形式表现。 需要注意的是,目前InCites TM 中并未统一所有论文包含的每一机构的隶属关系,只有那些已被统一的机构才能被标记特定的组织机构类型。因此,可能存在一些企业,其隶属关系未被统一而没有被标记组织机构类型为“企业”或其他,其发表论文未被标记为与企业合作论文。目前统计结果可能只限于大型跨国企业,因此可能存在区域偏差。今后,随着越来越多的组织机构被统一,横向合作论文的数量预计会大幅增加。 热点论文百分比(% Hot Papers): 入选ESI热点论文(按领域和时间段统计的引文数排名前0.1%)的出版物百分比。 相对世界影响力是相对于全球平均水平的影响力(Impact Relative to World), 某组论文的引文影响力与全球总体出版物的引文影响力的比值。这个指标可以被用于机构、国家和全球水平。这个指标展示了某项研究的影响力与全球研究影响力的关系,反映了相对的科研绩效水平。 全球平均值总是等于1 。如果该比值大于1,即表明该组论文的篇均被引频次高于全球评价水平;小于1,则低于全球平均水平。 相对影响力=引文影响力(即篇均引用)÷基线(全球引文影响力) 请注意,这个指标虽然考虑了出版年份的因素,但由于机构或国家同时在多个学科发表论文, 该指标却忽略了这些学科之间的差异 ,因此建议与其他考虑被评估论文平均引用率差异的文献计量学指标共同使用。 2 热点论文百分比 年 2013 年 2014 年 哈佛 0.63% 0.64% MIT 1.04% 0.68% 伯克利 0.64% 0.41% 斯坦福 0.64% 0.50% 牛津 0.48% 0.63% 剑桥 0.44% 0.32% 加州理工 0.70% 0.37% UCLA 0.50% 0.43% 芝加哥 0.55% 0.48% 哥伦比亚 0.60% 0.48% 霍普金斯 0.55% 0.58% 帝国理工 0.43% 0.46% 普林斯顿 0.43% 0.55% 密执根 0.29% 0.39% 多伦多 0.44% 0.46% 华盛顿 0.50% 0.75% 耶鲁 0.37% 0.56% 圣迭戈 0.46% 0.45% PENN 0.45% 0.40% 杜克 0.43% 0.48% 北大 0.21% 0.19% 清华 0.12% 0.14% 3 、与企业合作论文百分比 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 3.11% 3.30% 3.23% 3.41% 3.39% 3.36% 3.18% 2.99% 2.87% 3.11% MIT 3.48% 3.65% 3.87% 3.96% 4.48% 4.71% 4.20% 3.73% 3.52% 3.89% 伯克利 2.38% 2.37% 2.02% 2.18% 1.97% 2.31% 2.35% 1.98% 1.87% 1.95% 斯坦福 4.28% 4.29% 3.94% 4.76% 3.99% 3.65% 3.75% 3.19% 3.04% 3.40% 牛津 2.59% 2.73% 2.34% 2.68% 2.54% 2.77% 3.00% 2.70% 2.44% 2.20% 剑桥 3.16% 3.16% 3.02% 3.48% 3.52% 4.16% 3.87% 3.45% 3.50% 2.96% 加州理工 2.52% 2.07% 1.61% 2.17% 1.53% 2.01% 1.84% 1.78% 1.46% 0.90% UCLA 3.44% 3.40% 3.23% 3.60% 3.08% 3.46% 3.38% 2.73% 3.37% 2.78% 芝加哥 2.11% 2.18% 1.82% 2.28% 1.99% 2.57% 1.66% 2.14% 2.09% 2.16% 哥伦比亚 4.36% 3.71% 4.36% 3.60% 3.31% 3.08% 2.66% 2.33% 2.51% 2.84% 霍普金斯 2.63% 2.70% 2.62% 2.49% 2.93% 3.04% 2.80% 2.99% 2.62% 2.93% 帝国理工 3.53% 3.64% 4.29% 4.22% 4.55% 4.63% 4.76% 3.94% 3.18% 3.61% 普林斯顿 4.50% 4.73% 4.44% 3.26% 3.96% 4.30% 4.52% 3.25% 3.54% 3.22% 密执根 3.00% 2.84% 2.76% 2.69% 2.41% 2.50% 2.87% 2.39% 2.55% 2.52% 多伦多 2.55% 2.36% 2.27% 2.71% 2.47% 2.28% 2.44% 2.14% 2.20% 2.47% 华盛顿 3.31% 2.50% 2.92% 3.15% 2.64% 3.11% 3.41% 2.42% 2.29% 2.36% 耶鲁 1.81% 1.87% 2.12% 1.86% 1.89% 2.12% 1.65% 1.65% 1.66% 2.05% 圣迭戈 3.51% 4.09% 3.75% 3.79% 4.30% 4.50% 3.82% 3.28% 3.42% 3.50% PENN 3.28% 3.14% 3.22% 3.96% 3.30% 3.25% 3.31% 3.40% 2.22% 2.48% 杜克 4.19% 3.84% 4.04% 3.74% 3.90% 4.12% 3.48% 3.53% 3.23% 3.46% 北大 1.07% 0.87% 0.86% 1.07% 1.21% 1.39% 0.95% 1.31% 1.21% 1.37% 清华 1.15% 1.37% 1.07% 1.29% 1.37% 1.61% 1.31% 1.15% 1.41% 1.39% 4 、相对世界影响力 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 4.366 4.309 4.377 4.261 4.296 4.030 3.852 4.074 3.789 3.278 MIT 4.368 4.236 4.581 4.619 4.860 4.694 4.644 5.159 4.719 3.664 伯克利 3.344 3.398 3.385 3.679 3.616 3.849 3.566 3.989 3.467 3.213 斯坦福 3.638 3.578 3.853 3.981 3.662 3.770 3.710 3.725 3.444 3.027 牛津 3.161 2.905 3.102 3.276 3.457 3.492 3.166 3.506 3.063 2.875 剑桥 2.992 2.913 3.266 3.157 3.231 3.416 3.211 3.522 3.089 2.743 加州理工 3.763 4.194 3.800 4.151 3.884 4.607 4.255 5.008 4.376 4.267 UCLA 3.272 3.229 3.413 3.347 3.413 3.180 3.072 3.578 3.107 2.661 芝加哥 2.867 3.173 3.198 3.411 3.500 3.443 3.470 3.907 3.344 3.177 哥伦比亚 3.494 3.211 3.540 3.276 3.293 3.164 3.194 3.408 3.052 3.747 霍普金斯 3.557 3.590 3.722 3.460 3.900 3.436 3.522 3.719 3.118 2.918 帝国理工 2.675 3.029 3.066 3.207 3.234 3.285 3.113 3.413 3.066 3.731 普林斯顿 3.042 3.370 3.207 3.314 3.738 3.286 3.494 3.720 3.433 3.029 密执根 3.117 3.151 3.172 3.083 3.133 3.017 2.745 2.918 2.694 2.494 多伦多 2.785 2.797 2.854 2.792 2.886 2.806 2.898 2.826 2.791 2.423 华盛顿 3.517 3.392 3.388 3.543 3.473 3.642 3.107 3.762 3.048 2.945 耶鲁 3.338 3.447 3.474 3.483 3.413 3.379 3.063 3.781 3.012 2.965 圣迭戈 3.412 3.414 3.423 3.652 3.576 3.535 3.376 3.846 3.158 2.798 PENN 3.287 3.260 3.386 3.302 3.480 3.289 3.085 3.417 3.168 2.936 杜克 3.525 3.595 3.487 3.509 3.559 3.615 3.191 3.725 2.934 2.788 北大 1.652 1.606 1.758 1.961 1.892 2.067 2.123 2.386 2.404 1.897 清华 1.136 1.310 1.465 1.639 1.719 1.876 1.958 2.187 2.074 1.751 相关阅读: 1 、数据看北大清华同世界一流大学的差距(1) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922382 2 、数据看北大清华同世界一流大学的差距(2) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922533 3 、数据看北大清华同世界一流大学的差距(3) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922756 4 、数据看北大清华同世界一流大学的差距(4) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923258 5 、数据看北大清华同世界一流大学的差距(5) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923588 6 、数据看北大清华同世界一流大学的差距(6) http://bbs.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923743 (转载请注明出处,电子邮件: st69786@tom.com )
个人分类: 文献计量学|23579 次阅读|15 个评论
数据看北大清华同世界一流大学的差距(6)
热度 6 st69786 2015-9-27 05:30
数据看北大清华同世界一流大学的差距(6) 贺飞 北京大学 近年来,文献计量学和引文分析方法越来越多的被应用于科研绩效评价中。一般来说,没有任何一个单一的文献计量学指标能全面的评价科研绩效。通常会选取一组一组恰当的文献计量学指标,更加全面,视野更为开阔地多角度深入挖掘数据内涵。本博主从今天开始,将选取一组特定的文献计量指标(预计10来个指标),将美国新闻与世界报道2014年世界大学排名前20名的大学同北京大学(39)和清华大学(67)两所学校进行比较。相关文献计量学指标和数据来自汤森路透新一代研究分析平台incites。数据检索时间为2015年6月10日。 【前情提要】 (1)、 《数据看北大清华同世界一流大学的差距(1) 》中介绍了3个指标: 论文总数、总引用数、篇均引用数 。 (2)、 《数据看北大清华同世界一流大学的差距(2) 》中介绍了1个指标: 学科规范化引文影响力(Category Normalized Citation Impact)。 (3)、《 数据看北大清华同世界一流大学的差距(3)》 中介绍了2个指标: 国际合作论文数以及国际合作论文占比 。 (4) 、《 数据看北大清华同世界一流大学的差距(4)》 中介绍了2个指标: 平均百分位、论文被引百分比。 (5) 、 《数据看北大清华同世界一流大学的差距(5)》 中介绍了2个指标: 被引次数排名前1%的论文百分比,以及被引次数排名前10%的论文百分比。 今天这篇博文介绍3个指标: 期刊规范化的引文影响力(Category Normalized Citation Impact)、高被引论文(Highly Cited Papers) 以及 高被引论文百分比。 1 指标简介 期刊规范化的引文影响力(JNCI) 与 学科规范化的引文影响力类似,主要区别在于JNCI对论文发表在特定期刊上的被引次数进行了规范化,但未对研究领域进行规范化。 每篇论文的JNCI为该论文的实际被引频次与其发表的期刊同出版年、同文献类型论文的平均被引频次的比值。 一组论文的JNCI值为每篇论文JNCI值的平均值。JNCI指标能够提供某篇论文(或某组论文)与其他研究人员发表在同一期刊(或同一组期刊)上的成果的比较信息。指标主要回答“我的论文在所发表期刊上表现如何?”之类的问题。如果JNCI的值超过1,说明该其影响力高于平均值,如果JNCI的值低于1,说明其影响力低于平均值。JNCI对于出版商评价论文发表后的影响力水平也十分有用,它揭示出那些超过平均水平并提高了期刊被引频次的研究工作。 CNCI 与JNCI指标的区别与联系 研究人员 总论文数 总被引数 引文影响力 h 指数 CNCI JNCI 某甲 66 290 4.39 9 1.32 1.86 某乙 62 289 4.66 9 0.45 0.72 上表列举了一个在作者层面应用CNCI和JNCI的例子。某甲和某乙的论文数量与被引数都十分接近,引文影响力也十分接近,h指数相同。如果只从这4个指标看,就不能区分两人的科研绩效。事实上,两人可能是不同科研领域的,其论文发表历史也可能完全不同(老论文与新论文)。使用CNCI和JNCI指标,能够让我们更好的了解两人与同领域、同文献类型、同出版年的同行的对比情况。从规范化的指标中,我们发现某甲的CNCI(1.32)与JNCI(1.86)的值都超过了平均值(大于1)。发现某乙的CNCI(0.45)与JNCI(0.72)的值均低于平均值(小于1)。JNCI是一个相对的科研绩效评估指标,尽管其在很多情况下可能与CNCI正相关,但这并不总是成立。例如,如果一个研究人员的CNCI指标高于平均值,JNCI指标低于平均值,很可能意味着他在其论文发表的科研领域获得了比平均水平更多的引用,但是他所发表的期刊具有非常高的被引频次(如《science》、《nature》),因此他/她的论文被引频次低于这本期刊上论文的平均被引频次。 高被引论文(Highly Cited Papers) 是指按领域和出版年统计的引文数排名前1%的论文(含研究论文与综述)。 高被引论文百分比 指标则是用某一论文集(论文、作者、机构、国家、期刊、学科领域)内的ESI高被引论文数除以该文献集中论文总数,以百分数形式展现。其可用于评价高水平科研,并能展示某一机构论文产出在全球最具影响力的论文中的百分比情况。 相关参考指标: l 学科规范化的引文影响力(Category Normalized Citation Impact) l 平均百分位(Average Percentile) l 被引次数排名前1%论文百分比 l 被引次数排名前10%论文百分比 2 期刊规范化的引文影响力(Category Normalized Citation Impact) 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 1.25 1.24 1.20 1.21 1.21 1.22 1.18 1.21 1.19 1.16 MIT 1.46 1.41 1.34 1.31 1.33 1.36 1.26 1.33 1.29 1.20 伯克利 1.28 1.30 1.26 1.25 1.24 1.31 1.28 1.29 1.27 1.24 斯坦福 1.36 1.31 1.23 1.30 1.21 1.27 1.24 1.22 1.22 1.19 牛津 1.17 1.18 1.11 1.14 1.15 1.24 1.17 1.18 1.17 1.18 剑桥 1.26 1.22 1.15 1.16 1.16 1.16 1.19 1.12 1.13 1.14 加州理工 1.37 1.48 1.29 1.30 1.21 1.40 1.39 1.40 1.40 1.41 UCLA 1.24 1.22 1.17 1.22 1.18 1.20 1.16 1.22 1.20 1.18 芝加哥 1.18 1.27 1.13 1.21 1.19 1.18 1.18 1.26 1.20 1.19 哥伦比亚 1.17 1.18 1.20 1.19 1.12 1.15 1.17 1.17 1.17 1.09 霍普金斯 1.19 1.21 1.14 1.16 1.21 1.16 1.17 1.17 1.18 1.20 帝国理工 1.13 1.22 1.16 1.18 1.16 1.19 1.17 1.19 1.19 1.14 普林斯顿 1.26 1.46 1.25 1.27 1.32 1.33 1.31 1.33 1.32 1.32 密执根 1.18 1.25 1.18 1.16 1.15 1.16 1.14 1.12 1.15 1.17 多伦多 1.12 1.12 1.09 1.09 1.09 1.13 1.11 1.12 1.12 1.11 华盛顿 1.23 1.26 1.19 1.19 1.17 1.24 1.16 1.20 1.19 1.18 耶鲁 1.14 1.13 1.13 1.11 1.11 1.16 1.12 1.18 1.13 1.22 圣迭戈 1.19 1.17 1.15 1.17 1.17 1.18 1.18 1.25 1.16 1.20 PENN 1.16 1.18 1.17 1.16 1.17 1.17 1.14 1.18 1.15 1.17 杜克 1.19 1.21 1.15 1.17 1.13 1.16 1.13 1.18 1.13 1.16 北大 1.07 1.02 1.03 1.03 1.05 1.06 1.04 1.08 1.11 1.05 清华 0.92 1.00 1.03 1.04 1.05 1.08 1.06 1.11 1.11 1.09 3 、高被引论文数 年 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 478 476 601 581 695 723 818 841 959 908 687 MIT 186 199 207 202 237 222 283 331 356 344 267 伯克利 175 171 203 185 238 255 297 322 298 309 248 斯坦福 197 204 194 238 260 249 312 341 318 330 284 牛津 125 148 133 153 193 221 244 269 300 318 276 剑桥 114 145 136 169 179 174 215 241 287 274 213 加州理工 102 106 116 118 97 105 137 152 164 166 136 UCLA 170 177 176 201 229 227 229 242 279 280 217 芝加哥 96 99 139 128 150 168 168 220 224 223 183 哥伦比亚 144 144 166 176 167 185 194 237 262 279 208 霍普金斯 166 179 198 174 220 210 246 290 292 295 251 帝国理工 104 99 124 119 155 158 195 189 195 220 201 普林斯顿 95 80 115 89 114 108 107 130 120 115 108 密执根 164 170 188 188 213 204 218 223 234 246 232 多伦多 136 142 162 168 198 224 258 312 274 331 261 华盛顿 177 207 206 207 233 215 261 240 319 276 249 耶鲁 94 113 141 152 153 159 177 192 229 180 179 圣迭戈 124 122 145 141 156 189 192 232 248 226 181 PENN 114 143 157 160 194 216 207 232 244 265 235 杜克 115 130 159 157 184 175 208 201 238 221 168 北大 18 34 38 41 57 63 71 87 106 147 131 清华 19 40 46 38 50 62 71 87 107 122 129 4 、高被引论文占比 年 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 3.88% 3.68% 4.25% 3.95% 4.30% 4.27% 4.58% 4.33% 4.73% 4.40% 3.59% MIT 4.53% 4.85% 4.75% 4.55% 5.12% 4.61% 5.46% 5.62% 6.01% 5.53% 4.67% 伯克利 3.61% 3.23% 3.82% 3.40% 4.15% 3.99% 4.52% 4.64% 4.08% 4.29% 3.81% 斯坦福 3.90% 3.81% 3.46% 3.97% 4.15% 3.75% 4.48% 4.60% 4.13% 4.08% 3.85% 牛津 2.51% 2.75% 2.30% 2.49% 2.91% 3.10% 3.20% 3.24% 3.45% 3.34% 3.46% 剑桥 2.13% 2.63% 2.34% 2.78% 2.82% 2.57% 3.10% 3.20% 3.49% 3.33% 2.92% 加州理工 3.74% 4.04% 4.15% 4.05% 3.56% 3.58% 4.52% 4.75% 4.96% 5.05% 4.55% UCLA 3.11% 2.92% 2.77% 3.07% 3.32% 3.12% 3.06% 3.19% 3.61% 3.60% 3.11% 芝加哥 2.53% 2.37% 3.22% 2.74% 3.23% 3.41% 3.22% 4.02% 3.90% 3.73% 3.53% 哥伦比亚 3.18% 3.00% 3.16% 3.19% 2.89% 3.01% 3.13% 3.49% 3.67% 3.75% 3.14% 霍普金斯 3.04% 3.06% 3.16% 2.68% 3.15% 3.06% 3.27% 3.57% 3.43% 3.36% 3.06% 帝国理工 2.16% 2.02% 2.44% 2.33% 2.85% 2.80% 3.20% 2.91% 2.99% 3.17% 3.20% 普林斯顿 4.25% 3.37% 4.69% 3.52% 4.42% 3.96% 3.86% 4.29% 3.83% 3.54% 3.96% 密执根 2.96% 2.90% 2.93% 2.82% 2.97% 2.56% 2.74% 2.65% 2.67% 2.69% 2.82% 多伦多 2.19% 2.00% 2.10% 2.09% 2.24% 2.40% 2.55% 2.94% 2.52% 2.92% 2.55% 华盛顿 3.30% 3.59% 3.42% 3.34% 3.56% 3.22% 3.72% 3.20% 4.06% 3.42% 3.35% 耶鲁 2.46% 2.73% 3.22% 3.39% 3.19% 3.11% 3.41% 3.28% 3.73% 2.88% 3.13% 圣迭戈 3.11% 2.77% 3.09% 2.85% 3.06% 3.47% 3.29% 3.83% 3.97% 3.45% 3.15% PENN 2.20% 2.54% 2.71% 2.74% 3.10% 3.29% 3.04% 3.07% 3.23% 3.38% 3.27% 杜克 3.18% 3.32% 3.72% 3.48% 3.82% 3.48% 3.89% 3.45% 3.93% 3.62% 3.01% 北大 0.71% 1.21% 1.28% 1.26% 1.56% 1.47% 1.54% 1.73% 1.83% 2.20% 2.08% 清华 0.63% 1.09% 1.22% 1.04% 1.29% 1.44% 1.59% 1.72% 1.92% 1.84% 1.99% 相关阅读: 1 、数据看北大清华同世界一流大学的差距(1) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922382 2 、数据看北大清华同世界一流大学的差距(2) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922533 3 、数据看北大清华同世界一流大学的差距(3) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922756 4 、数据看北大清华同世界一流大学的差距(4) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923258 5 、数据看北大清华同世界一流大学的差距(5) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923588 (转载请注明出处,电子邮件: st69786@tom.com )
10939 次阅读|9 个评论
数据看北大清华同世界一流大学的差距(5)
st69786 2015-9-26 14:52
数据看北大清华同世界一流大学的差距(5) 贺飞 北京大学 近年来,文献计量学和引文分析方法越来越多的被应用于科研绩效评价中。一般来说,没有任何一个单一的文献计量学指标能全面的评价科研绩效。通常会选取一组一组恰当的文献计量学指标,更加全面,视野更为开阔地多角度深入挖掘数据内涵。本博主从今天开始,将选取一组特定的文献计量指标(预计10来个指标),将美国新闻与世界报道2014年世界大学排名前20名的大学同北京大学(39)和清华大学(67)两所学校进行比较。相关文献计量学指标和数据来自汤森路透新一代研究分析平台incites。数据检索时间为2015年6月10日。 【前情提要】 (1)、 《数据看北大清华同世界一流大学的差距(1) 》中介绍了3个指标: 论文总数、总引用数、篇均引用数 。 (2)、 《数据看北大清华同世界一流大学的差距(2) 》中介绍了1个指标: 学科规范化引文影响力(Category Normalized Citation Impact)。 (3)、《 数据看北大清华同世界一流大学的差距(3)》 中介绍了2个指标: 国际合作论文数以及国际合作论文占比 。 (4) 、《 数据看北大清华同世界一流大学的差距(4)》 中介绍了2个指标: 平均百分位、论文被引百分比。 今天这篇博文介绍2个指标: 被引次数排名前1%的论文百分比,以及被引次数排名前10%的论文百分比。 1 指标简介 被引次数排名前1%的论文百分比 指标是在某一指定学科领域、某一年、某种文献类型下,被引频次排名前1%的文献数除以该组文献的总数的值,以百分数的形式展现。该指标数值越大,表明该组文献表现越好。 如果某组论文该指标值等1%,说明该组论文中有1%的论文位于全球同类论文(同一学科、出版年和文献类型)被引次数排名的前1%,也说明这组论文的水平与全球平均水平相当。一个高于1%的值,代表该组论文中超过1%的论文位于全球同类论文排名的前1%,同样的,一个低于1%的值代表该组论文中不足1%的论文位于全球同类论文排名的前1%。 被引次数排名前1%的论文百分比指标通常被认为是反映高水平科研的指标,因为只有那些高被引论文才能在相应的学科领域、出版年与文献类型中排名前1%。这组指标可以与其他指标一起使用,以提供更为全面的科研绩效蓝图。被引次数排名前1%的论文百分比指标可以被应用于任何层级的论文集(作者、机构、国家/国际、学科领域)。 当然,尽管排名前1%可以衡量高水平科研,但是从本质来讲,它通常只代表了一组论文集中很少一部分,因此小样本量的统计学相关性成为该指标的一个重要问题。 因此,被引次数排名前1%的论文百分比最好与大样本量数据集一起使用, 例如某机构、国家或地区在若干年内累积的论文。 被引次数排名前10%的论文百分比 与被引次数排名前1%的论文百分比十分类似,只是将阈值从1%变为10%。此时,评估的基准是10%,高于10%将被认为高于平均绩效水平。这两个指标互相补充,提供了更为宽泛的优秀科研(10%)与杰出科研(1%)的全景图。 从上一个指标的分析可以看出,当数据集较小的时候,使用被引次数排名前10%的论文百分比,比使用被引次数排名前1%的论文百分比更为合适。当然,对于大中型数据集该指标同样适用。但是,在用来分析小型数据集,如个人研究产出时应该谨慎使用。 相关参考指标: l 学科规范化的引文影响力(Category Normalized Citation Impact) l 期刊规范化的引文影响力(Journal Normalized Citation Impact) l 平均百分位(Average Percentile) 2 被引频次排名前1%的论文百分比 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 4.39% 4.94% 4.48% 4.90% 4.79% 5.18% 4.74% 5.05% 4.44% 2.99% MIT 5.87% 5.62% 5.65% 6.29% 5.37% 6.85% 6.25% 6.53% 6.09% 3.90% 伯克利 3.80% 4.27% 3.59% 3.97% 4.26% 4.99% 4.96% 4.20% 4.08% 3.01% 斯坦福 4.26% 4.53% 4.56% 4.93% 4.48% 5.23% 5.12% 4.69% 4.17% 3.20% 牛津 3.09% 2.95% 2.73% 3.33% 3.26% 3.76% 3.68% 3.72% 3.48% 2.89% 剑桥 3.10% 2.71% 2.99% 3.21% 3.54% 3.53% 3.40% 3.79% 3.24% 2.40% 加州理工 4.43% 4.58% 4.19% 4.00% 3.95% 5.28% 5.37% 4.87% 4.80% 3.88% UCLA 3.40% 3.63% 3.38% 3.95% 3.42% 3.57% 3.63% 3.83% 3.66% 2.72% 芝加哥 2.76% 3.83% 3.42% 4.09% 3.47% 3.95% 4.30% 3.85% 3.61% 2.90% 哥伦比亚 3.40% 3.94% 3.87% 3.58% 3.58% 3.80% 3.91% 4.14% 3.85% 2.52% 霍普金斯 3.28% 3.75% 3.18% 3.27% 3.80% 3.79% 3.87% 3.61% 3.37% 2.57% 帝国理工 2.22% 2.85% 2.64% 2.97% 3.24% 3.69% 3.01% 3.44% 3.04% 2.64% 普林斯顿 4.34% 5.30% 4.28% 5.04% 4.87% 4.59% 4.79% 4.02% 3.85% 3.11% 密执根 3.31% 3.68% 3.35% 3.34% 3.23% 3.38% 3.23% 2.96% 2.88% 2.48% 多伦多 2.34% 2.29% 2.50% 2.75% 2.52% 3.06% 3.23% 2.77% 2.91% 2.19% 华盛顿 4.15% 3.91% 3.95% 3.88% 3.80% 4.51% 3.73% 4.37% 3.58% 3.07% 耶鲁 3.29% 3.67% 3.68% 3.61% 3.54% 4.41% 3.91% 4.43% 3.02% 2.83% 圣迭戈 3.26% 3.49% 3.30% 3.88% 4.15% 3.83% 4.18% 4.45% 3.63% 2.72% PENN 3.36% 3.35% 3.51% 3.69% 4.18% 3.91% 4.11% 3.98% 3.85% 2.97% 杜克 3.17% 4.14% 3.48% 3.89% 3.72% 4.47% 3.88% 4.08% 3.39% 2.65% 北大 1.54% 1.38% 1.23% 1.64% 1.72% 1.86% 1.71% 1.64% 2.35% 1.57% 清华 1.28% 1.40% 1.26% 1.24% 1.39% 1.73% 1.98% 1.96% 2.03% 1.67% 3 、被引频次排名前10%的论文百分比 年 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 哈佛 26.95% 26.76% 26.31% 26.12% 26.20% 26.74% 25.57% 25.59% 22.56% 14.92% MIT 29.47% 29.62% 29.77% 30.08% 29.54% 31.69% 29.96% 29.38% 26.29% 15.54% 伯克利 24.31% 25.35% 24.60% 24.34% 25.19% 25.55% 25.62% 24.49% 21.37% 15.21% 斯坦福 26.53% 24.98% 25.42% 27.09% 25.66% 26.42% 26.20% 25.17% 22.34% 14.99% 牛津 20.03% 20.04% 20.72% 21.49% 21.94% 22.63% 22.39% 21.91% 19.08% 13.49% 剑桥 20.89% 19.02% 20.63% 20.91% 21.42% 22.59% 22.93% 21.80% 18.57% 13.55% 加州理工 27.36% 28.11% 25.55% 23.86% 24.45% 28.11% 28.16% 25.70% 24.74% 17.26% UCLA 22.96% 22.42% 22.59% 22.50% 22.63% 23.24% 23.00% 21.47% 19.81% 13.31% 芝加哥 20.58% 23.03% 22.06% 23.69% 23.22% 23.83% 23.49% 22.69% 19.49% 14.56% 哥伦比亚 22.84% 23.38% 23.78% 22.59% 22.56% 23.08% 22.78% 22.06% 20.26% 13.04% 霍普金斯 21.75% 21.84% 21.38% 21.62% 23.89% 21.97% 22.12% 20.70% 18.53% 14.10% 帝国理工 18.06% 19.12% 19.80% 20.36% 20.37% 21.90% 21.15% 20.54% 19.05% 12.69% 普林斯顿 27.10% 27.27% 26.06% 26.18% 27.56% 26.80% 27.06% 24.67% 21.53% 14.73% 密执根 21.74% 21.45% 21.96% 21.50% 21.87% 21.42% 21.45% 19.23% 18.28% 12.50% 多伦多 18.15% 18.47% 18.14% 17.72% 18.13% 18.99% 18.43% 17.79% 16.89% 11.92% 华盛顿 22.53% 22.86% 23.87% 23.55% 22.38% 24.51% 22.29% 22.59% 19.44% 14.34% 耶鲁 22.50% 22.56% 22.83% 23.80% 22.91% 24.52% 23.06% 23.65% 19.69% 14.38% 圣迭戈 22.28% 21.63% 22.39% 24.21% 24.47% 23.68% 23.95% 24.23% 20.16% 13.65% PENN 21.76% 22.66% 22.55% 22.39% 24.42% 23.33% 22.15% 22.04% 20.35% 13.91% 杜克 22.51% 23.32% 22.48% 22.54% 22.81% 22.85% 22.72% 22.75% 18.49% 13.32% 北大 11.61% 10.65% 12.84% 13.74% 13.88% 13.92% 14.14% 14.35% 13.93% 9.10% 清华 8.60% 11.42% 11.62% 12.83% 12.48% 13.34% 14.07% 14.55% 13.21% 8.85% 相关阅读: 1 、数据看北大清华同世界一流大学的差距(1) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922382 2 、数据看北大清华同世界一流大学的差距(2) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922533 3 、数据看北大清华同世界一流大学的差距(3) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=922756 4 、数据看北大清华同世界一流大学的差距(4) http://blog.sciencenet.cn/home.php?mod=spaceuid=1015do=blogid=923258 (转载请注明出处,电子邮件: st69786@tom.com )
个人分类: 文献计量学|4575 次阅读|0 个评论
公开信:敬请中国计算机学会取消对会议和期刊的歧视性分区并公布
热度 3 wengjuyang 2015-9-9 08:47
尊敬的杜子德老师: 您是领导和参与《中国计算机学会推荐国际学术会议和期刊目录》的主要人员之一。以下 简 称 《目录》。此《目录》显然不是仅仅是 推荐性质,而是对国际学术会议和期刊进行了歧视性的分区,而把很多其它开创性的学术会议和期刊排除在计算机科学的“ 10 个领域”之外,甚至在第10个“前沿、交叉与综合 ”领域之外,连一些 IEEE Transactions 都排除在外 。 中国计算机学会的 关于目录页称:“ 学术工委查询了所有会议的录取率、引用情况,以及刊物的 SCI 因子、引用等客观数据 。” 是“ 所有会议 ”还是仅仅是 目录 列出了的会议?有数据证明是 “ 所有会议 ”吗?《 目录》称:“ 终审委员会以讨论方式一致通过了刊物和 B 类、 C 类会议的目录。 ” “ 讨论方式 ”是 怎么“ 一致 ”的?“ 讨论方式 ”怎 么能“通过”?《中国计算机学会章程》没有对会议程序做规定 , 譬如遵守《罗伯特议事规则》。 我明白 科研评价 问题不是一个浅显的问题,所以向您郑重提出以求在中国的《科学网》上有一个广泛自由的讨论。 这不仅 关系到 研究选题问题,还关系到中国那么大量得纳税人的钱是不是值得花,和中国人还愿意跟在洋人后面多久。 我附上了“ R.Cagan, (2013). San Francisco Declaration on Research Assessment ( 旧金山研究评价宣言) Disease Models Mechanisms. http://dmm.biologists.org/content/early/2013/05/16/dmm.012955.full.pdf 我 还 附上了 Bruce Alberts ,《科学》杂志的主编的社论文章,“ ImpactFactor Distortions ” (影响因子的歪曲), Science, 340, 2013 年 5 月 7 日。 http://www.sciencemag.org/content/340/6134/787.full 请允许我引用他在这篇科学杂志社论中的文字: 任何仅仅出版物的数量会增加分数的评价系统会大大抑制从事高风险的工作和潜在是开创性的工作,因为需要数年才能在新的实验环境中创造一种新方法。在此期间,不能预计有任何论文发表。这样的评价系统还会阻止创新,因为他们鼓动科学家去搞很多人已经在搞的科学领域,因为只有在这些领域才有希望有很多科学家来引用他的工作,不论这工作是不是优秀。” “Anyevaluation system in which the mere number of a researcher’s publicationsincreases his or her score creates a strong disincentive to pursue riskyand potentiallygroundbreakingwork, because it takes years to create a new approach in a new experimentalcontext, during which no publications should be expected. Such metrics furtherblock innovation because they encourage scientists to work in areas of sciencethat are already highly populated, as it is only in these fields that largenumbers of scientists can be expected to reference one’s work, no matter howoutstanding.“ 您可以说,虽然中国计算机学会 2010 年 8 月刚开始公布的国际学术会议和期刊分区表是在中国计算机学会网上指明是为科研评价用的,现在只是“推荐”而已呀! 我在科学网博文《我在复旦大学的十年遭遇:为推动改革“钱学森之问”的科研环境》中提到的一系列问题。譬如,我 和合作者及学生合作发表 的脑启发的人工智能的论文都是中国计算机学会“不算的”会议和期刊上的。我写道:“中国计算机学会的受人敬仰的权威们是出于好意,但在`钱学森之问’的环境中他们不明白计算机学科之大和变化发展之快。”在这样的大环境和小环境中,我和复旦大学的合作不能生存了。大概由于我公开提出了这些问题吧,复旦大学计算机科学和技术学院的领导已经于 2014 年 决定不和我续访问教授的合约了。但按国际惯例,复旦大学的学院还要求我继续带和复旦合作者合带的研究生,直到他们毕业。 以下是复旦大学计算机科学和技术学院教务办公室的要求。我引用了电子邮件的来回通信,以提供好像“执法者”不公开“法”的情况。 2015-07-06 9:35 PM, xxx 写道 : 翁老师,您好! 2015 年下半年的申请程序还没有下达,一般在 9 月初下达。您可以先参考往年的: http://www.gs.fudan.edu.cn/2803/list.htm 以下是申请博士学位的要求: 为了进一步提高计算机科学技术学院的博士研究生培养水平,结合我院 当前的研究水平,现对博士毕业生的获得博士学位的论文要求进行调整,博士研究生获得博士学位的发表论文总得分需超过 1 分,具体的计分方法如下: 1 、在列 入 rank1 的国际学术会议上发表论文 1 篇得 2 分。 2 、在列 入 rank2 的国际学术会议上发表论文 1 篇得 1 分。 3 、在列 入 ESI 的国际学术期刊上发表论文的得分按照其影响因子计。 4 、国内 权威期刊上发 表一篇论文得 0.3 分。 上述规定从 2010 级开始实行,对 2010 级以前的博士毕业生,学术委员会将根据论文发表情况对得分不足 1 分的学生进行投票,选出后 10% 的学生延期毕业。 祝好! xxx 2015-07-06, 翁巨扬写道 : xxx 老师: 谢谢。请给我发个现行的国际学术会议分区表。 翁巨扬 2015-07-07, xxx 写道 : 翁老师,您好! 这个不是我们教务办公室负责的,我也没有。 祝好! xxx 2015-07-08, 翁巨扬写道 : xxx 老师 , 那么,我怎么指导学生投哪个会议呢? 我的学生又怎么知道投哪个会议才能毕业呢?请问一下,是哪个办公室负责的。请帮这个忙。 翁巨扬 2015-7-9, xxx 写道 : 翁老师,您好! 列入 CCF 的 A 类和 B 类会议论文是符合申请博士学位的基本要求的,见: http://www.ccf.org.cn/sites/ccf/paiming.jsp xxx 据 复旦大学计算机科学和技术学院的一个领导对我讲,这不仅是复旦大学的问题,是从中国计算机学会来的。 据 复旦大学 信息 学院的另一个同事对我讲,可能是因为电子工程领域覆盖面广,电子工程没有分区表 。 在当今各行各业都离不开计算机的时代,难道计算机科学和技术覆盖面窄? 李志文在《 漫谈二流大学(清华北大浙大只是三流大学)》中 引用了浙大前校长杨卫的话“以美国大学为例,它们是三流学校数论文篇数,二流学校数论文的影响因子,一流学校不对论文发表提要求,而顶尖的大学非常强调教学。”“一流大学不要求教师发表很多文章,也不要求他们在顶尖杂志上发表,只是给更宽松的环境做研究,由教师在好奇心驱动下自由发展。”这个按大学分流有点绝对,因为美国没有一个学校的所有院系都是一流的。但没有一个美国大学是象复旦大学 计算机科学和技术学院 那样,要求每篇学位论文必须预先发表了的,还必须在少数指定的会议上发表。 这样,按 杨卫的推论, 三流有吗? 在列入 rank1 的国际学术会议 上发篇文章是不难的,难的是被那些 列入 rank 1 的国际学术会议都拒了: 超前于时代。 我知道您的原始出发点是好意的。但科学研究有好意是很不够的。我在科学网博文《和张维为教授商榷:美国的“三流总统”》主张:“一个科学新发现对不对是不能靠国家科学基金委的评委投票的”,因为它超前于时代,一定超出国家科学基金委的评委们能理解的范围,也一定超出 那些 列入 rank 1 的国际学术会议的 评委们能理解的范围。 难道您愿意用您的《目录》迫使每个中国的研究者都跟在洋人后面?中国不该有超前于时代的思想,实践和结果?是逼着每个中国研究者去挤那些挤烂了的独木桥更明智呢,还是让中国有少数超前于时代成果所需要的科研环境更明智?您以为发达国家的研究者会尊敬那些挤独木桥的中国研究者吗?读读我提到的最先两篇文章就明白了。 敬请考虑取消推荐国际学术会议和期刊目录并公布。是不是您能让这么广泛的计算机科学和技术的研究者们多一点学术自由的空气?在中国计算机学会网上公布了取消可以使大家知道中国计算机学会的新进步和新姿态。 谢谢考虑。 翁巨扬
7713 次阅读|6 个评论
[转载]关于科研指标的莱顿宣言:中文全文翻译
adully2010 2015-7-17 15:56
关于科研指标的莱顿宣言 Diana Hicks 、Paul Wouters 及其同事督促用十项原则来规范科研评估 出处:Diana Hicks, Paul Wouters, Ludo Waltman, Sarah de Rijcke Ismael Rafols. The Leiden Manifesto for research metrics. Nature , Apr 23, 2015 翻译:王健,比利时鲁汶大学研发监测中心(ECOOM )博士后 科学治理日益依赖于数据。建立在量化指标基础上科研评估已经取代曾经的同行评议成为主流 。随之而来的问题是,今日的评估已由数据而非判断主导。量化指标日益流行:通常是精心设计的,但并非总是被透彻理解,而且经常被错误地使用。主持科研评估的机构往往缺乏对于这些量化指标的透彻理解,因此这些指标虽然意在促进科学研究却经常适得其反。 2000 年之前,美国科学信息研究所(ISI )的科学引文索引(SCI )已为专家们所使用。2002 年,汤森路透公司(Thomson Reuters )整合其网络平台,使其Web of Science 数据库更加普及。竞争者也随之而来,包括爱思唯尔(Elsevier )的Scopus (2004 年发布)和Google 学术搜索(GoogleScholar ,beta 版2004 年发布)。相关分析工具也如雨后春笋,使比较学术机构以及个人的研究产出和影响更为容易,例如基于Web of Science 的InCites 、基于Scopus 的SciVal 、以及基于Google Scholar 的Publish or Perish 软件(2007 年发布)。 2005 年,美国加州大学圣地亚哥分校的物理学家Jorge Hirsch 提出了h 指数,使得被引次数更为广泛地被用于考量学者的科研。自1995 年起,期刊影响因子也日益盛行。最近,关于社会使用和在线评论的量化指标日渐成势,比如F1000Prime (2000 )、Mendeley (2008 )和Altmetric.com (2011 ,由麦克米伦集团支持,而《自然》所属的自然出版集团亦为麦克米伦旗下公司)。 作为文献计量学者,社会科学家,以及科研管理者,我们目睹了在科研评估中量化指标被愈发广泛和严重地滥用,以下仅举数例。各国的大学日益执迷于其在各大高校排名中的位置(如上海交通的世界大学学术排名和泰晤士高等教育世界大学排名),尽管很多排名在我们看来是建立在并不精确的数据和非常武断的指标的基础之上。 一些招聘者使用h 指数来考察候选人。一些大学依靠h 指数以及发表在高影响因子期刊上的论文的数量来决定科研人员的晋升与否。学者们,尤其在生物医药领域,在简历中夸耀他们的h 指数或者影响因子。教授们要求博士生在高影响因子的期刊上发表论文和申请科研经费,尽管他们还没有准备好。 在北欧和中国,一些大学根据学者个人的影响指数来分配科研经费,或者为发表在高于15 的影响因子的期刊上的论文提供资金奖励 。 虽然在很多情况下研究和评估人员还是会做出相对平衡的评议,但科研指标的滥用已经到了不容忽视的地步。 因此,我们提出莱顿宣言,源于在荷兰莱顿举行的一次国际会议(参见http://sti2014.cwts.nl )。我们所提出的十大原则对于文献计量学者而言并非前所未闻,尽管我们当中没有人可以完整地罗列出这些原则,因为我们至今没有一个系统的成文阐述。我们这一领域的启蒙者,比如ISI 的创立者EugeneGarfield ,曾提到过这十大原则中的某些 ,但他们并未为科研评估和管理人员所知晓。同时,被评估的科学家们试图寻找相关的文献来驳斥某些评估结果,而这对于他们而言犹如大海捞针。 我们在此提出十大原则,凝练了基于指标的科研评估的规范。借此被评估者可以问责评估者,而评估者可以规范使用量化指标。 十大原则 1 :量化的评估应当支持而非取代质化的专家评审。 量化指标可以降低同行评议中的偏见并促进更为深入的审议。量化指标可以提高同行评议的质量,因为在没有充足信息的情况下评价别人是非常困难的。但是评估者的判断不应让位于数字。量化指标不应取代建立在充分信息基础之上的判断。评估者仍应对其评估负责。 2 :科研绩效的考量应基于机构、团队、以及个人的科研使命。 应当首先明确评估的目标,而所采用的指标也应切合这些目标。同时,指标的选择和应用的方式应该考虑更为广泛的社会、经济、文化环境。科学家有着各色各样的科研使命,着眼于探索未知的尖端基础研究和立足于解决社会问题的应用研究有着截然不同的任务。在某些情况下,评估者应该考虑研究的社会和经济价值而非其科学价值。世上没有一个评估方法适用于所有的情况。 3 :保护卓越的本地化研究。 在很多地方,研究的卓越等同于在国际期刊上发表英文论文。比如,西班牙法律明文鼓励发表于高影响力的英文期刊的论文。然而期刊影响因子所依赖的 Web of Science 数据库主要是以美国和英文期刊为主。这一数据库覆盖期刊的偏差对于社会和人文学科造成了尤为严重的后果,而在这些领域很多研究是关于本国或者当地的课题。在很多其他的领域也有偏重于本地化的题目,比如撒哈拉以南非洲的HIV 流行病学。这些本地化的课题往往并不为高影响因子的英文期刊所青睐。那些在 Web of Science 数据库中取得较高引用率的西班牙社会学家往往从事于抽象模型或者分析美国数据。西班牙语期刊的论文则通常关注更为相关的本地课题:本地劳动法,老年人家庭医疗,以及外来劳工等等 。只有基于高质量本地语言期刊的指标才能正确评价和推动卓越的本地化研究。 4 :数据采集和分析过程应公开、透明、简单。 数据库的建立应该遵循明确的规则,而这些规则应在评估之前就清晰阐述。这是以往数十年来相关学术单位和商业机构的惯例。而他们的数据处理的流程也发表在同行评议的文献中。这样透明的流程保证了复查的可能性。比如 2010 年荷兰莱顿大学科学技术研究中心(CWTS )所创建的一项指标引发了一场学术争论,而这一指标随后被修改 。这一领域的新进机构也应遵守此标准。我们不能接受评估中的暗箱操作。 对于指标而言,简单就是美,因为简单增强透明性。但简单化的指标也可能会导致偏颇的结论(参见原则 7 )。因此评估者应竭力保持平衡,采用的指标应足够简单明了但又不会曲解复杂的问题。 5 :允许被评估者检验相关数据和分析。 为保证数据质量,所有的被评估者应当有机会查证评估所用的数据是否准确全面地包括了他们的相关研究产出。评估者则应通过自行验证或者第三方审查来确保数据的准确性。大学可以在他们的科研信息系统中执行这一原则,并以此作为一项重要标准来选择信息系统提供商。精确和高质量的数据耗费时间和经费去搜集和处理,因此需要足够的预算。 6 :考虑发表和引用的学科差异。 最好能提供一套指标让不同的领域各取所需。几年前,一组欧洲的历史学家在全国的评审中得到了较差的结果,因为他们出版书籍而不是在被Web of Science 索引的期刊中发表论文,另外他们不幸被划在了心理学系。历史学家和社会科学家往往要求学术评审考虑书籍和本国语言的论文,而计算机科学家则往往要求加入会议论文。 不同领域的引用率也有差别:数学期刊的最高的影响因子大概是 3 ,细胞生物学却高达 30 。因而相关指标需要根据学科来标准化,最可靠的学科标准化方法是通过百分位数:每一篇论文的得分取决于其在整个学科的被引次数分布中的位置(比如说最高的 1% ,10% ,或者 20% )。在使用百分位数方法时,个别极其高被引的论文将略微地提高其大学的排名,但在使用被引次数均值时却可能会将其大学的排名从中等拔到顶级 。 7 :对于学者个人的评估应基于对其整个作品辑的质化的评判。 年龄越大,H 指数越高,即使是在没有新论文发表的情况下。h 指数在不同的领域也有所不同:生命科学家可高达200 ,物理学家最高 100 ,而社会学家最多只有 20 到 30 。这同时也取决于数据库:有些计算机科学家在 Web of Science 中的h 指数只有10 ,但在 Google Scholar 中却有 20 到30 。研读和评判一位学者的论文要远比仅仅依靠一个数字合适。即使在比较很多学者时,能够综合考虑多方面的信息更为适宜,比如个人专长、经验、活动、影响等等。 8 :避免不当的具体性和虚假的精确性。 科技指标不可避免会在概念上有些模糊和不确定,并且建立在一些很强但并不普适的假设的基础之上。比如说,对于被引次数到底代表了什么这一问题就存在很大的争议。因此最好能使用多个指标来提供一个更为可靠和多元的呈现。如果不确定性和潜在错误可以被量化,那么应该在发表指标结果的同时提供置信区。如若潜在错误率不可量化,那么研究人员至少不应盲目追求精确度。比如,官方发表的期刊影响因子精确到小数点后三位数,这样可以避免期刊之间打成平手。但考虑到被引次数所存在的概念上的模糊性和随机误差,实在没有必要在相差不大的期刊之间分个伯仲。在此情形下,避免虚假的精确度意味着精确到小数点后一位就已经足够了。 9 :认清科技指标对科研系统的影响。 科技指标改变研究人员的动机进而改变整个科研系统,对这样的结果我们应有充分的预期。这意味着一套指标总胜于单个指标,因为单个指标更易于被操纵,也更容易取代真正的目标成为驱动研究的指挥棒。举例来说,在 90 年代,澳大利亚政府根据各高校的论文数量来分配经费,而大学可以估算出一篇论文的经济价值:在 2000 年一篇论文大约可以换来900 澳元(折合 450 美元)的经费。可以预料的是澳大利亚的高校发表论文数据显著增加,但多发表于低被引的期刊,意味着论文质量的下降 。 10 :定期审查指标并更新。 研究的使命和评估的目标会随着时间而改变,科研体系也不停在变化演进。曾经有用的指标可能会变得不那么合适,而新的指标也会不停出现。指标体系也应随之调整。意识到不良后果后,澳大利亚政府在 2010 年推出了更为复杂的科研评估体系,而这一体系更为重视科研质量。 以后的路 遵循这十项原则,科研评估将在推动科学发展和社会进步方面发挥更为重要作用。科研指标可以提供非常有价值的信息,但我们应谨记指标只是工具,不是目标。 为作出最好的决定,我们同时需要可靠的统计数据和对研究对象的深入了解。量化和质化的证据二者不可或缺,并且这二者都是客观的。科学决策必须建立在高质量的评估过程和充分并可靠的数据的基础之上。 作者:Diana Hicks 是佐治亚理工公共政策学院教授。Paul Wouters 是荷兰莱顿大学科学技术研究中心(CWTS )的教授兼主任,LudoWaltman 是该中心的研究员,Sarahde Rijcke 是该中心的助理教授。IsmaelRafols 是西班牙国家研究委员会和瓦伦西亚理工大学的科学政策研究员。 翻译:王健,比利时鲁汶大学研发监测中心(ECOOM )博士后。(Translator:Jian Wang, postdoctoral fellow at the Center for RD Monitoring (ECOOM) atthe University of Leuven. ) 参考文献: 1. Wouters, P. in Beyond Bibliometrics:Harnessing Multidimensional Indicators of Scholarly Impact (eds Cronin, B. Sugimoto, C.) 47–66 (MIT Press, 2014). 2. Shao, J. Shen, H. LearnedPublishing 24, 95–97 (2011). 3. Seglen, P. O. Br. Med. J. 314, 498–502(1997). 4. Garfield, E. J. Am. Med. Assoc. 295,90–93 (2006). 5. López Piñeiro, C. Hicks, D. Res.Eval. 24, 78–89 (2015). 6. van Raan, A. F. J., van Leeuwen, T. N.,Visser, M. S., van Eck, N. J. Waltman, L. J. Informetrics 4, 431–435(2010). 7. Waltman, L. et al. J. Am. Soc. Inf. Sci.Technol. 63, 2419–2432 (2012). 8. H irsch, J. E. Proc. Natl Acad. Sci. USA102, 16569–16572 (2005). 9. B ar-Ilan, J. Scientometrics 74, 257–271(2007). 10. Butler, L. Res. Policy 32, 143–155(2003). 下载地址: http://www.leidenmanifesto.org/uploads/4/1/6/0/41603901/leiden_manifesto_chinese_150423.pdf
个人分类: 科学计量学|5332 次阅读|0 个评论
影响因子的前世今生
热度 10 st69786 2015-7-9 10:12
影响因子的前世今生 贺飞 北京大学 伴随着科研竞争的日益激烈,如果你正在获取 tenure 职位、获得基金、评上国家奖或是当选院士的道路上,那么你的一篇最新得意之作发表在哪家期刊比较好呢?论文发表后能得到较大的认同度和曝光率呢?如果你面临着科研选题,哪些期刊的研究情报才是最值得信赖的研究动态呢? 一个可供你参考的答案那就是“期刊引证报告( Journal Citation Reports ,简称 JCR )”,这是对学术期刊影响力评估的各项指标的概要 , 其中的一个核心指标就是期刊影响因子。 世界上的期刊成千上万,五花八门,要收录世界所有的期刊显然是不可能的,汤森路透期刊遴选目标是收录相对较为重要的期刊。因此,确保 JCR 和期刊影响因子有效性是遴选和维护所收录期刊的必要环节。 JCR 候选期刊除了需要被 Web of Science 数据库平台及其所包含的其他数据库所收录外,还需要通过一系列包括出版及时性、内容新颖程度、国际多元化、以及其他标准的评估。 根据汤森路透的初衷,期刊影响因子( Journal Impact Factor ,简称 JIF )作为 JCR 的一个重要指标,通常被认为代表着期刊的重要性。汤森路透认为,期刊影响因子所具有的优势是直接反映了科学家和学者自己对于最值得关注和有帮助的科学研究的判断。 影响因子在一定程度上虽说是一本杂志质量高低的标准之一,但它还能带来期刊甚至科学以外太多的东西,如教职、基金、奖励、学术影响力等。那么什么是期刊影响因子呢? 根据汤森路透的定义,期刊影响因子即某期刊前两年发表的论文在第三年中平均被引次数。例如,某期刊在 2014 年影响因子为 4.25 ,说明这本期刊 2012 年和 2013 年发表的论文在 2014 年平均被引用了 4.25 次。 在汤森路透的一份如何正确使用期刊影响因子的声明中,他们认为: 汤森路透一直强调,作为衡量期刊影响力的常用指标,期刊影响因子应予以恰当的应用,而不是作为评估作者或机构的替代品。 期刊影响因子仅仅是单一数据点,必须严谨地并且联系实际情况加以考虑,因为很多因素都会影响论文在不同学科中的引用情况。 让期刊影响因子作为评估论文本身或者作者的代替品并不合理。 当前,尽管很多人批评学术界对其滥用,但当前取消它,或者马上改革并不是一件一蹴而就的事。今年 6 月 18 日 ,汤森路透公布了年度期刊引证报告 JCR 。今年的 JCR 报告涵盖了来自 82 个国家的 237 个大类的 11149 本期刊, 其中自然科学领域收录了 8618 份 SCI 杂志。今年 有 272 本杂志第一次被收录,与去年相比, 53% 的杂志影响因子增加。 Ca-Cancer J Clin 、 NEJM 以及 CHEM REV 再次包揽了榜单的前三甲,影响因子分别为 115.84 、 55.873 、 46.568 。 在今年的 JCR 报告中 , 综合性期刊总共只有 56 个,其中 Nature 和 Science 分别位列第 1 和第 2 。值得注意的是 Nature Communications 已经超过了 PNAS , 而 美国《国家科学院院刊》( PNAS ) 仅以 9.674 的影响因子排名第 198 位。 另外今年的排名新加了一个特征因子( Eigenfactor score ) 。这个数字是衡量一个期刊在其学科中的总体贡献,而一个学科的全部贡献值是 100 。比如下面的 Nature, Science, 和 PNAS 的 Eigenfactor score 分别是 1.5, 1.2 和 1.4 。总体来说影响因子和这个系数是高度相关的 (r2 = 0.83) 。 6 月 30 日 出版的 PNAS 发表了其主编 Inder M. Verma 的一篇吐槽文章“影响力而非影响因子”,显然是针对不久前的 6 月 18 日 汤森路透公布 2014 年度的期刊引证报告 JCR 而有感而发。 Inder M. Verma 是一位 来自美国加州圣地亚哥索尔克生物科学研究所的分子生物学家,于 2011 年 11 月出任 PNAS 主编,其职责是确保 PNAS 的水准得以维持,而大部分的论文审查和出版工作则仍将由 PNAS 的职员和编委会进行。他还在索尔克研究所自己的实验室里继续从事基因疗法、肿瘤遗传学和炎症的研究。他在文章中说: 当英国哲学家赫伯特·斯宾塞 1864 年引入“适者生存”这个短语时,他万万没有想到可用来概括当前年轻科学家所处的困境 。随着教师职位和研究经费竞争的持续白热化,今天的科研人员面临在高影响因子科学期刊上发表论文的巨大压力。但仅在几十年前的 1970 年代,当我作为一个病毒学家开始我的科学生涯时,我所在的领域普遍认同的是病毒学专业杂志。而只有跨学科的工作才会发表在那些迎合更多读者的期刊上。大多数研究人员阅读和发表论文时很少考虑传说中的所谓期刊自身的影响。教师任命、晋升以及科研项目的获取常常主要基于工作本身的未来可察觉的影响力,而不是依据其研究工作发表在所谓的“高影响力”期刊上。 不幸的是自那以后变化大潮势不可挡。美国科技情报所( ISI )(后来并入汤森路透)的创始人 Eugene Garfield 引入了期刊影响因子( JIF )这一概念。其最初的想法是帮助指导图书馆员决定订购那种期刊,自那以后这一指标长期被用于科技期刊的排名。按照 Garfield 的说法,“一份期刊的影响因子基于两个元素:分子是前两年发表的论文在计算年度被引用总数,分母是前两年发表的论文总数(论文和综述)” 。这一计算方法即便是用来测度期刊的科学影响力时也存在固有的不足。由两年的时间窗口的引用数来决定影响力可能会造成仅少数论文就会对期刊的总体影响力影响巨大尤其是在那些多产且快速变化的研究领域,占了绝大多数引用。 ( 例如,最近在干细胞生物学和基因编辑领域的爆发性增长 ) 。 反思这一缺陷,《自然》杂志在其 2005 年的一篇社论中认为其当时的期刊影响因子 32.2 的 89% 可归因于有关时段发表的 25% 论文的贡献。正如 Garfield 自己所观察到的,从 1900 到 2005 年的 3800 万篇文献中仅有 0.5% 的论文被引超过 200 次,有一半论文没有被引用,并且四分之一并非原创性研究论文。此外,基于细微差别(有时精确到小数点后三位)的影响因子对期刊进行排序,以增加标的外观精度和识别力。 . 诚然,那种认为选择何种期刊发表论文不重要的想法也是不切实际的,那些激动人心的重要论文常常发表在影响因子高的期刊上。但这种事实并不意味着科学界认为影响因子很有用处,特别是将发表在高影响因子期刊上作为评价某篇论文质量的一个指标。例如,任职于任命 / 晋升 / 评估委员会的研究人员如何将申请人的研究论文归入特定的类别:属于低引用的大多数还是高被引的少数? 当提及如何判断研究工作本身的质量和重要性时,没有更好的质量评价替代指标。只好反复使用影响因子,但它既不是一个论文层面的指标,也不是一个比较研究者学术贡献的指标。然而,许多机构的绩效评估非常看重这一数字,目前其对学者的科学生涯进步有着巨大的影响。以至于一些大学的工作申请根本不考虑那些没有一篇作为第一作者的高影响因子期刊上论文的申请人。另外有的机构在给予 tenure 时考核申请人所发表论文的累积期刊影响因子是否达到一个阈值,如果达不到将会影响其职业进步。有的机构甚至提供巨额的奖励给那些在该影响因子期刊上所发的论文 ( 传说有的按比例缩减 !) 。 诚然,科学界承担过多的责任,包括书写和评审项目申请和论文,教学,还要阅读成百上千的助理教授申请、 tenure 以及晋升。因此很容易的将高影响力工作等同于发表在高影响因子的期刊上。但并不是所有高影响力论文发表或能够发表在这种期刊上。需要记住的是什么因素决定一个特定工作最终对科学发展起作用是同等重要的。就 PNAS 来说,我们要求作者提交 120 字的工作重要性声明,来指出其在领域的影响力。其他机构和经费部门开始要求候选人陈述其重要论文的重要性,这些都将对评审有帮助。 作为论文重要性和业绩的仲裁者,科学家不能专门依赖于期刊的影响因子,可接受的指标应基于许多考虑,包括趋势分析和按学科领域分析。令人高兴的是科学界已注意到影响因子的负面影响,开始着手认真解决这一问题。“科研评价的旧金山宣言” - 这份 2012 年美国细胞生物学会提出的一系列指南,瞄准研究人员、出版商、经费组织以及其他相关人员 - 提倡对科研产出的合理评价。在这次会议上,有关不合理使用影响因子的对话已引起科学界注意这一问题。 2015 年 4 月在华盛顿举办的 152 届美国科学院年会上,由 eLife 主编 Randy Schekman 组织了一个研讨会,更加深了上面提到的忧虑。持续的努力能帮助阻止对期刊影响因子的滥用,并减少科学界对其过分依赖。对正在庆祝诞生 100 年的 PNAS 来说,我们始终关注的影响力,而不是影响因子。 2013 年 5 月 17 日 , 《科学》杂志还以“影响因子曲解( Impact Factor Distortions ) ” 为题发表了社论。《科学》 社论同《科研评价的旧金山宣言( DORA )》的观点一致,这一宣言是一些有识科学家于 2012 年美国细胞生物学年会之际开会的产物。为扭转科研评价中的曲解, DORA 认为科学界应停止使用“期刊影响因子”来评价科学家个人的工作。宣言认为“ 影响因子不能作为替代物用于评价个人研究论文的质量,也不能用于评估科学家的贡献,以及用于招聘、晋升和项目资助等评审 ” 。 DORA 还提出了以系列改进科研论文评价方式的行动,供基金资助机构、科研机构、出版商、研究人员以及评价机构借鉴。这些建议得到超过 150 多位知名科学家和 包括美国科学促进会( AAAS )(《科学》出版商)在内的 75 家科学机构签署支持。社论认为 这样做的理由如下: 影响因子是基于某一期刊的论文平均被引次数而计算的数字,从未被规定为可用于评价科学家个人。它仅是一个评价期刊质量的指标。但它正日益被滥用于评价科学家个人,人们常常根据论文所发期刊的影响因子对科学家进行排名。基于这一原因,在许多简历中,科学家都要标注其每篇论文所发期刊的影响因子,并且一般会按照 3 位小数 ( 例如, 11.345) 的降序排列。并且在一些国家,发表在影响因子低于 5.0 期刊上论文被官方认为是零价值。正如许多知名科学家多次指出,这种影响因子躁狂症没有意义。 影响因子的滥用具有巨大的破坏性,它鼓励期刊的指标赌博,(影响期刊出版政策),造成一些期刊不愿发表某些领域的重要论文 ( 如社会科学和生态学 ) ,仅仅因为这些领域的引用较其他领域(如生物医学)要少。并且浪费科学家大量时间,他们不顾一切地为从评估人处获得高分,而滥投高被引期刊(如《科学》)。 但任何“对研究者的质量自动打分”方式的最具破坏性的结果可能是鼓励“跟踪模仿” (me-too science) 。任何评价体系如果是研究人员论文数量增加就带来某种纯粹数字或分数的增长,一般会成为从事高风险和潜在开创性突破的工作的极大的负面激励。因为建立新实验和新方法一般需要多年的努力,而这期间将不会有论文发表。这一指标进一步会阻碍创新,因为它鼓励科学家工作在已经高度热门的领域,因为只有这些领域才会有大量科学家引用别人的工作,而不管工作是否杰出。造成仅有那些十分勇敢的年轻科学家才会冒险从事一些冷门研究领域,除非取消对个人的自动数字评估。 DORA 的建议对维护科学健康发展十分关键。作为一个底线,科学家领导人必须承担仔细周到分析其他研究人员科学贡献的完全责任。为了做好这个,需要实际阅读每一研究者少量精选论文,而这一任务不能交由期刊编辑去完成。 这里列出 《旧金山宣言》中的具体评价建议全文,以供参考: 总体建议 1 .不使用影响因子等评价期刊的指标作为评价单篇研究论文质量的代替指标,也不用来评价某位科学家的贡献,也不用于决定是否聘用、提职或经费资助的指标。 对资助机构 2 . 明确用于评价资助申请人科研生产力的标准,明确强调一篇文章的科学内容比刊载该篇论文的期刊的计量指标和知名度更重要,特别是对起步阶段的研究人员。 3 .科研评价的目的, 除了发表的论文外,还应考虑其他所有研究产出的价值和影响(包括数据集和软件等),此外,还应考虑采用包括研究影响力的定量指标在内的更广泛的影响力测度指标,如测度其对政策和实践的影响等。 对研究机构 4 . 明确用于决定聘用、 tenure 和提职的标准,明确强调一篇文章的科学内容比刊载该篇论文的期刊的计量指标和知名度更重要,特别是对起步阶段的研究人员。 5 . 科研评价的目的, 除了发表的论文外,还应考虑其他所有研究产出的价值和影响(包括数据集和软件等),此外,还应考虑采用包括研究影响力的定量指标在内的更广泛的影响力测度指标,如测度其对政策和实践的影响等。 对出版商 6 .应大大减少强调期刊影响因子作为促销工具,最好不推销影响因子,或只给出一些基于期刊评价的指标(例如, 5 年影响因子、特征因子, SCImago ,出版频次等,以便全面了解期刊的绩效。 7 .提供一系列的论文层面的指标,鼓励转向到基于论文科学内容的评价,而非发表论文的期刊的出版指标。 8 .鼓励负责任的作者署名,能提供每一作者特定贡献的信息。 9 .无论期刊是开放获取还是订阅模式,应去除所有对论文参考文献列表的再利用限制,使其能按照“公共领域贡献知识共享”( the Creative Commons Public Domain Dedication ) 原则得以获取利用。 10 . 去除或减少对论文的参考文献数量的限制,合适情况下,应强制要求引用原创性论文而不是综述论文,以便让首次报道某一发现的作者(们)能得到认可。 对指标提供机构 11 .使用来计算所有指标的数据和方法公开透明。 12 .允许所提供的数能够不受限制地被再利用,并提供数据的计算步骤。 13 .明确声明不能容忍对指标的不当操控行为;明确哪些属于不当操控,以及将采用的打击操控措施。 14 .在使用、总计或比较指标时,应考虑文献类别(如综述 vs. 研究论文)和不同学科领域的差异。 对研究人员 15. 当参加一个委员会来决策经费资助、聘用、 tenure 或晋升时,应基于论文的科学内容而非所发表的期刊指标来做出评价。 16 .任何时候最适当论文引用方式应是引用首次报道观察结果的原创文献而非综述,让原创作者实至名归。 17 .采用一系列论文计量指标和个人指标 / 支持声明,作为某人所发论文和其它科研产出影响力的证据。 18 .挑战不恰当地依靠期刊影响因子进行科研评价的行为,提倡关注特定研究产出的价值和影响的最佳实践。 影响因子在中国流行也是有它存在的土壤和原因的。由于科研竞争的日益激烈,各种评价也日益增多,面对种种科研不端行为,人们需要找到一种相对客观而又简单并且人为因素干预最少的办法。毋庸讳言,从这个意义上来说,影响因子在科研评价中还是发挥了一定的作用。 期刊影响因子虽然不能作为研究水平的绝对和唯一的评价指标,在不同学科之间也是无法比较的。但它在同一学科内作为一般性评价指标还是有价值和意义的,一般来说同一学科内影响因子高的刊物的论文发表要求相对较高,文章的总体质量和平均水平也是相对较高的。虽然影响因子并不能完全反映一个科研工作者的水平,但从统计学的意义上讲,同一领域内,发在高影响因子杂志上文章的水平还是要普遍高于低影响因子杂志上的文章。在同行评议还不能做到完全客观和全面时,影响因子总体上还是能反映一些问题的。因此, 影响因子 评价虽然是有违科研精神的,但目前阶段还是一种较为公平的评价,大家在同一个游戏规则下也是平等的。 然而,影响因子 只代表研究热点,不能直接代表研究水平(哪怕是同一个领域的) , 因此, 影响因子只能作为某种参考,不能唯影响因子是论,更不能赋予其太多的利益和好处。因为,在 一些传统学科的老牌刊物,因为其综合性强,加之学科本身并不是十分热门,因而其影响因子并不太高,而一些新的学科其所推出的新期刊反而期刊影响因子很高,他们所发表的论文水平是不能放在一起比较的 , 更何况在同一高水平期刊中的论文还有好坏之分,有的甚至还会撤稿。 值得注意的是,就在近期,汤森路透又推出了一些最新的期刊评价指标。包括期刊规范化引文影响力、期刊期望引文数等新指标。 期刊规范化的引文影响力( JNCI ) 与学科规范化的引文影响力类似 (关于这一指标,将在后续的文章中介绍) ,其区别在于 JNCI 没有对研究领域进行规范化,却对文献发表在特定期刊上的被引次数进行了规范化。每篇出版物的 JNCI 为该出版物的实际被引频次与该发表期刊同出版年、同文献类型论文的平均被引频次的比值。一组出版物的 JNCI 值为每篇出版物 JNCI 值的平均值。 JNCI 指标能够提供某单一出版物(或某组出版物)与其他科研工作者发表在同一期刊(或同一组期刊)上成果的比较信息。这个指标能够回答,诸如“我的论文在所发表期刊上表现如何?”之类的问题。如果 JNCI 的值超过 1 ,说明该科研主体影响力高于平均值,如果 JNCI 的值低于 1 ,说明其影响力低于平均值。 JNCI 对于出版社评价论文发表后的影响力水平亦是十分有用的指标,它揭示出那些超过平均水平并提高了期刊被引频次的研究工作。 表:作者层面的 CNCI 与 JNCI 指标示例 总出版物数 总引文数 引文影响力 h 指数 CNCI JNCI 科研工作者 D 66 290 4.39 9 1.32 1.86 科研工作者 E 62 289 4.66 9 0.45 0.72 表格列举了一个在作者层面应用 CNCI 和 JNCI 的例子。科研工作者 D 和科研工作者 E 的出版物数量与引文数均十分接近。他们的引文影响力也十分接近, h 指数也是相同的。如果只从上表中的前四个指标,则不能区分两个科研工作者的科研绩效。实际上,两位科研工作者可能在两个不同的科研领域进行研究,其论文发表的历史也可能完全不同(老论文与新论文)。使用 CNCI 和 JNCI 指标,能够让我们更好的了解两位科研工作者与同领域、同文献类型、同出版年的同行的对比情况。从规范化的指标中,我们可以很快发现科研工作者 D 的 CNCI ( 1.32 )与 JNCI ( 1.86 )的值都超过了平均值(大于 1 )。发现科研工作者 E 的 CNCI ( 0.45 )与 JNCI ( 0.72 )的值均低于平均值(小于 1 )。应该注意到 JNCI 是一个相对的科研绩效评估指标。尽管在很多情况下, CNCI 与 JNCI 可能正相关,但这并不是对所有情况都成立。例如,如果一个科研工作者的 CNCI 指标高于平均值, JNCI 指标低于平均值,这可能意味着该科研工作者在其论文发表的科研领域获得了比平均水平更多的引用,但是这位科研工作者发表的期刊具有非常高的被引频次(例如《科学》或《自然》),因此他 / 她的论文被引频次低于这本期刊上论文的平均被引频次。 期刊期望引文数( Journal Expected citations ) 是同一期刊、同出版年、同文献类型的论文的平均引文数。可以通过计算实际 / 期望引用值的比值,也就是用一篇论文的实际引文数除以该期刊论文的平均引文数,来评估论文的表现。如果该比值大于 1 ,说明论文的引文数高于平均值。例如, 2004 年, Circulation 期刊的篇论文平均引文数为 55.34 ,则期刊期望引文数即为 55.34 。如果某一 2004 年发表于 Circulation 期刊上的论文有 30 篇引文,则其实际引文数与期望引文数的比值为 0.54 ,说明该论文表现低于平均值。事实上,在很多分析中,期刊实际 / 期望引文数的比值是一个累积的比值,也就是说,分母(期望引文数)是一组论文集发表的所有期刊期望被引频次的总和,而分子(实际引文数)则为该组论文集引文数的总和。 【补充之一】 无独有偶,就在今天 ( 7 月 9 日 )本文发出后 ,《自然》杂志也以“ 数字游戏 ”为题提出科研机构必须对学术界使用的计量指标保持平常心。文章说, 科学家喜欢抱怨同行评议系统用来判断研究质量,但常常也会反对用学术产出的计量指标来替代同行评议。本周英国出版的一份有关利用这类计量指标的报告认为,计量指标虽然并未达到能取代同行评议,来判断研究论文、项目申请书的质量以及研究人员的个人水平,但这一指标的诱惑力日益增加。在英国,许多高校开发各种系统来记录其学术人员的科研产出,收集其详细的经费数据和各种类型的产出 ,包括专利,论文,引用以及科研项目等,并将其同竞争大学进行比较以分析机构的优势。有的已经建设了其自有的内部科研信息系统,也有的依赖经费资助机构收集的研究人员产出的在线数据库。有的是公布信息的非营利系统,也有的是文献计量引用的商业系统。还有许多的商业对标服务也能够分析这类信息。这类分析服务正日益高端化。他们采用各种特色方式来分组引用指标,涵盖了个人、系、机构或期刊等的论文集,并同类似组别进行对标分析。因此,科学家不应对这一状况视而不见,要承认现实,积极参与了解和改进这些指标。 参考文献:略。 ( 后记:本文是一份阅读笔记,将不断补充完善,也欢迎网友补充,也来一个众筹写文章。 2015 年 7 月 8 日晚 )
个人分类: 文献计量学|21717 次阅读|15 个评论
关于自然指数的讨论
热度 9 st69786 2015-6-25 10:17
关于自然指数的讨论 北京大学 贺飞 自然出版集团 2014 年 11 月首次发布了自然指数,其目的是提供一个关于全球高质量研究产出模式的指标,用于追踪作者或机构在 68 种全球一流期刊的论文发表情况,这些期刊由在职的全球 68 名活跃科学家组成的独立小组, 投票选择出其最喜欢的10种且愿意发表其最好科学工作的期刊 而独立选出。随后将 这一投票结果通过邮件发给全球10万名生命、物理和医学领域的科学家投票确认。这个庞大的科学家群体地理分布很广,但其中仅有2,800 (2.8 %)回应了调查。作为自然指数一部分的68种期刊,占汤森路透WOS数据库中的总期刊数量少于1%,但占了自然科学引用的30%。 自然指数提供了三个指标:原始论文数(AC),分数论文数(FC)以及加权分数论文数(WFC)。这里AC是机构或国家的论文总数,FC考虑了作者数及其贡献(来自其他国家或机构),WFC进一步引入了权重: 因为天文学和天体物理学期刊较其他学科发表了过多的论文(大约多5倍),天文学和天体物理学期刊的FC被赋予一个0.2的权重计算WFC。当前的自然指数(时间段为2014年5月1日-2015年4月31日)可在网址 http:// www. natureindex. com 查询。 这一最新的评价指标发布后,立即引起科学界的强烈反响,来自德国马普所的两位科学家Robin Haunschild和Lutz Bornmann2014年12月23日在《科学计量学》期刊刊发了他们对这一指标的4点批评意见,并指出这一指数的主要问题似乎是用绝对数而没有归一化以及再次引入基于期刊的声誉来测度质量,而不是根据单篇论文的质量(影响力),由此开启了对这一评价指标的讨论。 这两位科学家的4点批评意见如下: l 第一,自然指数的指标依赖于国家和机构论文产出的绝对数量,而不是这些论文的质量或影响力。根据自然指数使用绝对数量,哈佛大学根据AC、FC和WFC的排名均低于中国科学院。如果替代以归一化指数(例如相对同一时段的总论文数),结果会改写。根据这种相对AC, 哈佛大学的排名将要高于中国科学院。 l 第二,为什么要由68名科学家提议自然指数的68种期刊的原因不充分。换句话说,自然指数也可以由150名科学家提出100种期刊。此外,在选择期刊时如何考虑不同学科的差别也不明确。 l 第三,68种期刊试图通过10万名科学家邮件投票确认,但仅有2.8%的回复。如此低的回复率可能也反映了大多数科学家认为自然指数似乎并不重要(我们假定科学家知晓投票的原因)。此外这10万科学家样本究竟是什么尚不清楚,是随机抽样吗? l 第四,自然指数根据期刊的声誉来测度机构和国家的绩效。这种测度遵循传统的期刊影响因子(JIF)方法。而许多人批评使用期刊影响因子评价科研的做法(参见旧金山关于科研评价的宣言 http:// am. ascb. org/ dora/ ),应寻求更好的指标来测度科研绩效。绩效测度应根据单篇论文本身的质量而不是根据期刊的质量。 对以上四点批评意见,来自自然出版集团的Nick Campbell和Michelle Grayson一一给予了答复。 他们认为自然指数在机构和国家层面提供高质量论文生产力的绝对统计,是一个关于全球高质量科研产出的指标,表示欢迎科学界对自然指数的评论,并表示自然出版集团将积极采纳来自科学界的建设性意见,并根据这些意见改进和提高自然指数这一评价指标。 他们在答复中指出,自然出版集团并没有打算让自然指数成为一种排名,也从未在任何地方提及这一功能,根据源自自然指数的数据比较国家或机构需考虑这一背景。自然指数也不用割裂其他相关信息的定量和定性来源而用作科研评价工具。数据仅限于总科研论文中的相对小的一部分,仅涵盖自然科学,并且结果没有规范化。 与此同时,自然出版集团相信,记录高质量科研产出的绝对数据趋势很有价值,如同检测一国的GDP一样有用。追踪机构、国家、甚至特定的合作或项目的相对贡献使得高质量科研产出的绝对测度十分有用,尤其是了解国家和机构的战略方向对全球科研事业发展十分重要。当然,归一化论文分析模式也很有用。自然出版集团鼓励用户结合自由获取的自然指数数据和其他来源的信息来做个性化的进一步分析。 关于马普所的两位科学家所质疑68种自然指数的样本规模和10万科学家在线调查确认所选期刊的过程,自然集团认为,通过活跃科学家专门小组来选择期刊最初的目的是为了选出少于100种期刊—足够涵盖所有学科,但充分选择以确保这些期刊真正反映同行判断的顶层科研成果。在学科考虑上,小组主席在选择小组成员时是从自然科学的主要学科中选出的。这一多样性考虑也应用于选择调查对象中。调查还充分考虑了不同地区的代表性,确保北美、欧洲和亚洲等地区的多样性大致相当。这一过程不是随机的。对于这么大规模的科学家调查来说,调查反馈率2.8%并不少见。通过排除最近两年内没有发表论文的回应者,最后得到总计2,848个调查反馈结果。 基于单个小组成员偏好和调查数据得出的最喜爱期刊结果非常高度地一致。当然,在两者所选的排在后面的期刊部分不可避免地有少量重叠。关于如何得出期刊的最终名单,是小组主席根据两种判断方法的结果一致性做出最终决定。当然,自然出版集团也承认“ 过程是注重实效的集体判断,下端的切断点完全是主观的。 ” 换句话说,小组的目的是得到一份自然科学首选期刊的名单,这份名单是务实合理的并不断演化的,是得到大多数科学家认同的高质量研究产出的指标。自然指数2014全球增刊提供了自然指数期刊选择过程的详细细节,未来计划扩大范围涵盖临床医学。 自然出版集团同意两位科学家有关科研评估应使用论文和期刊层面相对指标的说法。但同时也指出,自然指数专门小组在挑选期刊时并没有特地考虑期刊影响因子。选择过程仅反映科学家对期刊质量的定性感觉。实际上,这种选择期刊方法的一个好处是不受已有的学科特有变化引用模式的影响,例如,如果在选择时考虑引用数将会更倾向于遗传和材料科学而不是地球科学。将自然指数视为高质量科研的指标,是基于同行评议高选择性期刊的优秀编辑评定的论文。这些期刊被科学家认为是首选的,科学界认为这些期刊能很好地吸引、选择和发表相当比例的所涵盖领域的最优秀论文。 作者认为,论文引用是其学术影响力的一个好的代理,但同时也有局限。如大家公认有关方法的论文常较诺奖成果获得的引用要高。此外,引用数随时间累积,有许多论文在其发表后引用数很少,但最终显示出非常高的影响。论文层面的替代计量学日益重要,来自 altmetric. com 数据也包括在自然指数特色论文的每一部分。然而,同其他指标一样,这种替代计量学也有自身的不足。没有一个指标能单独提供科研绩效、影响力或影响的权威评估。 作者最后认为,自然指数同其他指标一道使用是对文献计量学工具包的一个有用补充。并再次重申欢迎科研人员和决策者共同参与,来不断提高这一评价指标的质量,使之满足各方需求。 参考文献: 1. Haunschild, R., Bornmann, L. (2014). Discussion about the new Nature Index. Scientometrics,. doi: 10. 1007/ s11192-014-1505-2 . 2. Campbell , N., Grayson, M. (2014a), Scientometrics ,10.1007/s11192-014-1516-z 3. Campbell , N., Grayson, M. (2014b). Index 2014 Global. Nature, 515(7526), S49. 4. Campbell , N., Grayson, M. (2014c). Introducing the index. Nature, 515(7526), S52–S53.
个人分类: 文献计量学|18490 次阅读|9 个评论
科研评价决定论文发表模式
热度 7 outcrop 2015-4-1 17:18
论文在纸张作为知识载体的时代,承载的使命很明确和单纯:学术交流。但随着学术科研评价体系中对论文这个参数的引入,论文本身变得越来越偏离交流的本质。 这一点在国内表现的尤为明显。按说中国人做的科研成果,总该造福下中国人自己,比如学校研究出了前沿的成果,产业界能通过论文或者其他形式及时了解、学习或购买,利用起来产生社会价值。但现实情况却变得很滑稽:中国科研人员相对来说比较好的研究成果,清一色的发表英文论文,首先在语言上抛弃中国大部分人——这还不算,要看这些论文,还得花大价钱买回来;进一步降低了中国科研回馈社会的可能性。 这种看似荒诞但成为主流的科研论文发表模式,其产生根源显然在于科研评价体系。当年引入SCI等索引来评价中国自己的科研成果,本来也有其正面的意义;比如能和世界同行站在一起交流。但随着时间的推移,各类索引的论文数量,成了量化评价科研成果最重要的指标;这样一来,原本作为交流手段的论文,就这么一步步变成“科研成果”。这类情况也许不仅仅中国。 如何让论文回归交流的本质,更合理的评价科研成果,也许才是走出这类窘境的可靠出路;需要国家的支持以及学者们的共同努力,转变也需要时间。单纯的抵制或者暴力的一刀切,也许不是好的出路。 =============================== 广而告之 =============================== 科学网博友交流QQ群(非官方):115359850,欢迎加入!
个人分类: 科学网大学|4183 次阅读|15 个评论
在国际主流期刊发表论文到底有多难
热度 20 dawndream 2015-2-11 18:09
在学术界,对科研成果的评价,成果质量的好坏,学术水平的高低,基本上必定会落实到论文上。一个人即使成为工程院院士,如果论文表现不行,也依然是一个短板,免不了授人以话柄。反过来,一个人如果论文数量多,平均档次高,不论其论文含有多少实际价值,也无人敢藐视他。 这是因为唯有论文是一项硬指标,需要真功夫,可谓学者本分也。好比古代的学人,兴趣各异,有长于诗赋的,有长于古文的,有的治史,有的治经。但到了科场上较量高下,就论唯一的基本功:八股文。 能发表什么档次的论文,也是一个学者基本功的体现。能在较高端的杂志上发论文,作者必须具备作为一个研究人员起码的综合素养:包括对学科基础的理解、对前沿方向的了解和对学术话语的驾驭。文章的的水准档次跟这些素养是正相关的。所以,在国际主流期刊发表过论文作为博士生毕业的通行标准是有道理的。 肯定有人不服气,认为论文往往是空谈,真正做大事的人不浪费时间去空谈。然而,社会评价必定总要依靠一些简单的标准来进行。你说“干大事,干实事”,总要拿出有说服力的证据来,还得落实到某项指标上。论文以外,其他的指标更忽悠,更扯,更不靠谱。 在《围城》时代,能在“外国有名杂志”发表论文,那算是一件了不得的事情。现在看来,好像其实并没有那么难。翻开顶级杂志看看,每期都有不少文章也就那么回事。我在博士期间完成了三篇论文,两篇长文,一篇短文。现在回过头去看,当时作为新手在写法上都比较稚嫩。可是都发在了JCR一区和二区的杂志上,平均影响因子超过2.0。而且在准备充分的情况下,都是一次通过,没有经历退稿。而我所在的学科SCI杂志很少,主流期刊全年能够留给纯理论文章的版面加在一起可能也不足2000篇吧。尽管如此,中国人发文还是十分踊跃,我估计如今主流杂志至少60%以上的论文都是内地学者发的。有些人的论文数量到了令人惊讶的程度。我有个朋友,他的博士生基本人均发文三到五篇一年,稍好的硕士生在学期间也有SCI论文发表。我的体会是,一篇论文能不能发表,关键取决于写作水平,而不在于实质的创新度究竟有多高。这些年以来,只要是我认真写过的论文,最终都能在国际主流杂志刊登。 关于这个问题,我心中的疑惑在于,为什么很多其他学科的从业人士,都说论文难发?比如,经济学、管理学、语言学等等,搞这些学科的人能发篇中文核心都算很不错了。这些学科的国际主流期刊数量可都是远远多于我从事的自动化专业,比如JCR收录的经济学期刊数量肯定上百。我知道某大学的管理学院就缺高级别论文,只要在SSCI上发表一篇论文,就奖励20万。某大学的外语学院拥有一级学科博士点,可是SSCI论文历史累计也不足十篇。据一个搞文科的朋友说,是因为中国人学文科都是靠死记硬背出身的,科研方法陈旧,观念落后,所以跟国际主流圈子接不上轨。果真如此吗?
13755 次阅读|38 个评论
美国大学是怎么成功的?
wengjuyang 2015-2-2 07:40
这个题目太复杂了,以致在这个短文中不可能充分讨论。但是,其成功的科学道理和美国和其它发达国家成功 发达 的道理是相同的。 以下我提供一些规章文件。它们是大学,学院,和系的法律和规章。请注意:没有任何文件指定哪个主义必须要坚持的和哪个政党必须是领导党。 让我只举一个例子。第一个是美国大学教授协会( AAUP)的向美国各大学推荐的关于学术自由和终身教职的规定。这些规定好像会造成一批不努力工作的教授们。但是,这个政策给了每个终生教授必要的环境,使他敢于尝试高风险的可能使他的大学和学院知名的、有高影响力的研究主题。 中国大学现在时兴一类短视的、不科学的科研评价标准。这类标准用了歧视 性的 期刊和会议的分区表、发表文章的数量、得到的科研经费数目等。这样的环境逼着教授们去搞能快出文章的题目以达到文章数的指标、和联系干活的合同以给大学带来更多的钱。那些想干有高影响力的研究的人会因为需时较长而无法生存。譬如,请读 “ 我在复旦大学的十年遭遇:为推动改革`钱学森之问’的科研环境 ” http://blog.sciencenet.cn/blog-395089-834977.html . 总之,在美国和其它发达国家里的大学成功的原因和美国和其它发达国家发达的原因是一样的:对每个国家的政府的权力的有效制约和平衡的大环境加上对每个大学的行政权力的有效制约和平衡的小环境。我并不是说以下的规章制度是完美无缺的 (看我以下的评论)。虽然中国现在有了更多的科研的钱和更多的从事科研的人,中国大陆必须尽快地改进这两个环境。 How American Universities Became Successful? By Juyang Weng This subject is too complex to be fully discussed in this short article. However, the scientific reason of the success is the same as the developmental success of the UnitedStates of America, and other developed countries. I provide in the following some documented real regulations whose full and thorough execution are critical for the success for any university and college. They are bylaws of universities, colleges, and departments. Note that none of the document states which ism is the ism that must be stick to and what party is the leading party. Let me just give an example. The first document on Academic Freedom andtenure of AAUP looks like it will produce a faculty who does not work hard. However, this policy gives each tenured faculty the necessary environment for him to dare to work on a risky research subject that has a potential to make his university and college well known -- high impact. Chinese universities currently use shortsighted and unscientific research evaluation criteria that are based on table s for journal zones and conference zones of discriminative nature , the number of papers, and the amount of researchmoney. Such an environment forces the faculty to work on quick papers so as to fit the number of papers required, and look for labor-work contracts that pay university more money. Those who work on high impact research will take too long to survive. See, e.g., “My Ten Years of Suffering at Fudan University: Pushing to Reform the Research Environment Questioned by Qian Xuesheng” (in Chinese) http://blog.sciencenet.cn/blog-395089-834977.html . In summary, the reasons behind the success of university in the United States of American and in other developed countries are the same as the reasons why the U.S. and other developed countries are developed: Effective checks-and-balances of government powers in each country as a global environment plus the checks-and-balances of the administrative powers in each university as a local environment. I do not mean that the regulations that I provided below are perfect (e.g., see my comments below). Although China has more research money and more people working on research, the main land China must improve the both environments as quickly as possible. 1. Recommended Institutional Regulations on Academic Freedom and Tenure of AAUP http://www.aaup.org/file/RIR%202014.pdf 2. Bylaws of University of Michigan http://www.regents.umich.edu/bylaws/ 3. Faculty Governance at the University of Michigan http://facultysenate.umich.edu/resources/faculty-governance.pdf 4. Faculty Handbook of University of Michigan http://www.provost.umich.edu/faculty/handbook/handbook.pdf 5. Grievance Procedure of University of Michigan (I do not recommend that of MSU because of a major flaw: How MSU Lacks Due Process: A Bylaw Perspective , http://www.brain-mind-magazine.org/read.php?file=BMM-V2-N2-a5-Masfis-a.pdf ) http://facultysenate.umich.edu/resources/grievance.pdf 6. CSE Graduate Handbook of Michigan State University http://www.cse.msu.edu/Students/Current_Grad/GradHandbook.php 7. Graduate Program of EECS of University of Michigan http://www.eecs.umich.edu/eecs/graduate/ee/eeprogram_new.pdf
3318 次阅读|0 个评论
[转载]上海高校科研评价将不再只依靠论文量一刀切
redtree 2014-10-13 20:50
上海高校科研评价将不再只依靠论文量一刀切 作者:杨育才 来源:新闻晨报 发布时间:2014/10/13 16:10:49 □记者 杨育才 晨报讯 今后上海高校的科研能力评价,将不再仅依据发表论文的数量来一刀切,而是要建立对科研成果的多元化评价体系,根据创新质量和实际贡献进行评价。近日,上海市教委发布《关于推进上海高等学校科学研究分类评价的指导意见》,指出了大学科研评价体系改革的方向。 有高校专家表示,此举将改变高校在评聘、收入分配中过分依赖和不合理使用论文、专利、项目等科研指标的做法。 一刀切带来大量垃圾论文 “今天的中国高校,科学研究被抬高到空前的、过度重要的位置。不只是研究型大学,即便教学型乃至职业型学校,都将科研成绩当作学校是否优秀、教师是否能升等、研究生是否可以毕业的指标。老师的教学可以马虎,学生的毕业论文可以勉强通过,但只要有相当量的论文发表,就能一俊遮百丑。”华东师范大学历史系教授许纪霖对此批评说,高校对教师的年度考核和晋升,过分依赖论文发表数量,实质是大学领导的政绩工程。“千军万马写论文、拼数量,而质量倒成其次了。” “仅仅依靠发表论文这‘一把尺子’ 来衡量高校科研的能力,带来很多负面的结果。”昨天下午,沪上一所高校科研处负责人告诉记者,比如人文学科,全国的权威、核心期刊版面是有限的,但每年硕士、博士研究生毕业都有论文发表的要求,再加上教师晋升也要发论文,学术期刊不再是学术争鸣地,反倒成为毕业、晋升的敲门砖。“并不是所有研究生和高校教师都有很强的科研能力,但逼着他们写论文,会造成大量的垃圾论文。” 高校五类科研将分别评价 根据上海市教委发布的《意见》,上海将逐步建立对科研成果的多元化评价体系。 “科学研究活动是多样性的,有搞基础研究、应用研究、技术转移、成果转化的,有搞决策咨询、科学普及的,甚至还有文学艺术创作的等等;科研的成果也可以是多样性的,可以是学术论文、专著、译著、学术工具书,也可以是艺术作品、创意设计、发明专利等等。”上述高校科研处负责人表示,科研是多样性的,对科研的评价也必须是多元化的。 根据《意见》,上海的高校将建立科研人员的分类考核体系。对基础研究人员、应用研究人员、从事技术转移、科研支撑和服务人员、软科学研究人员、艺术创作的研究人员的评价,将采取多元的评价体系。 在高校科研能力评价方面,上海还将积极推进“同行评议”、“第三方评价”和“国际评价”等评价方法,探索开放的、多方参与的科研评价措施,建立与国外接轨的评价制度。(原标题:高校科研评价将不再依论文量一刀切 将建立对科研成果多元化评价体系,根据创新质量和实际贡献进行评价)
个人分类: 科研管理与制度|1065 次阅读|0 个评论
中国科研环境分析:2010年我给教育部、复旦大学和计算机学院的信
热度 10 wengjuyang 2014-10-12 09:56
尊敬的各位领导、教授: 与建国之初的 30年(1949-1979年)相比,中国在刚刚过去的30年中取得了更为长足的进步。但是,中国的发展不够健康,且远远落后于应有的速度。 本函所探讨的一系列根本问题,均源自我在中国、复旦大学和新成立的计算机科学技术学院(CSE)的亲身经历。 我的研究兴趣包括自主心智发育 (AMD)领域的综合性课题。 AMD研究单一心智和多种心智(如在一个社会或国家中)的发育。2003年11月起,我即作为特聘讲座教授在复旦大学工作,于2008年3月起任长江讲座教授。 许多中国的海外学者对中国只有溢美之辞,但其中有些人并不了解发育科学,或未有披露真理之决心。请恕我言辞激烈。 根据我在个人研究领域的体会,主要问题有: 1.在中国,发育科学被忽视、忽略、误解和低估的现象非常普遍。受中国人口众多这一固有观念的严重影响,人们普遍不把发育视作为一门适用于不同背景和文化下所有人类群体的科学。事实上,发育科学并不意味着中国必须对世界作出文化方面的贡献。我认为,恰恰相反。 2.用几个粗浅的标准取代更为复杂的发育整体评价系统,这种错误做法十分普遍。举例来说,许多官员为了几个表面的所谓亮点耗费大量资源,此举有损健康的发育模式。 3.人们想当然地以为,通过政府更严厉的集中控制,中国就能够赶超发达国家。例如,很多官员认为中国人旧习难改,必须严管。他们认识不到,任何群体所需之先进发育程序必须兼具分散性和综合性,在很多方面类似于人脑发育程序(如人类基因组)。“分散”是指尽可能地将权利分散到最低级别;“综合”则意味着全面、动态地制约和平衡所有权力——方方面面。与许多官员的直觉相反,分散化的发育程序如果能够实现综合性,就不会引起混乱。美国当前的发育程序虽已十分先进,但其分散性和综合性仍尚显薄弱,因此仍需全面改进。 4. 所有领域均严重缺乏成熟的发育程序(如宪法、法律和规定)。请注意,全面的发育程序还应包括确保其有效执行的机制。 在上述不利形势下,尽管 70年代末以来,从低层次起步的中国经济取得了世界瞩目的增长,但仍将继续落后于发达国家,并且进而导致一系列众所周知的问题,如腐败、社会动荡、效率低下和众多领域(包括教育、科学、技术、经济、生活水平、环保)的总体低水平发展。 下面,我举几个具体实例,并讨论一下可资利用的改进方式: A. 人治 很大程度上,复旦大学和 CSE学院不是通过民主规章制度进行管理,而仍由个人进行监管。 既不存在复旦大学学术管理规章制度,也没有CSE学院规章制度,而这些都应是大学与学院的发育程序。 查看大学学术管理规章制度实例,请参阅https://www.msu.edu/unit/acadgov/bvlaws/。 查看学院规章制度实例,请参阅http://www.cgr.msu.edu/files_egr/content/ CollegeBylawsJunel-2009.pdf。 这些规章制度与美国各院校的类似。 请注意,这些规章制度应全面,方能奏效。 例如,密歇根州立大学工程学院规章制度要求“有资格就院级活动表决的人员应包括学院的所有正式教员。”教员相当于中国的教授、副教授和讲师。 复旦大学 CSE学院规章制度的缺失已造成了系统性的、公然的学术歧视,有违管理层的初衷:学院学术委员会通过了《复旦大学计算机科学技术学院教师队伍高级职务岗位聘任“申请资格”必备最低条件》(下称“文件A”),及其附件一《计算机学科领域高质量国际学术会议分区表》和附件二《计算机学科领域高质量期刊分类表》。 学术委员会为院级委员会。 委员会可制定供学院教师会议讨论用的文件草案,但无权将草案作为院级规章制度予以通过。但这些文件均未经院教师会议批准即行生效。 CSE学院有多少教授、副教授和讲师被剥夺了对这些文件表决的权利? 正当的程序何在? B.“亮点” 教育部、复旦大学和 CSE学院的一些官员以“亮点”为第一要务。 他们认为,目前学术成绩上的主要问题是由低层管理者和教师、而不是现行管理方式造成的。 我所认识的CSE学院的每位教师都极为勤奋敬业。 每位管理者也都恪尽职守。 大家的唯一选择就是顺应现行管理方式。 例如,中国政府希望拥有学术大师、原创研究,但教育部官员应允许每所院校出台规章制度,为每个国家“培育”学术大师和原创研究提供必要的“土壤”。 例如,文件 A仅在极窄的范围内确定了一份很短的会议与期刊名录,作为有关人员申请晋升正教授的最低标准。 对于CSE这样一个正处在发展阶段的多学科领域来说,这份名录不仅过短、不完整,而且将较新的研究领域排除在外。 举例来说,在人工智能领域,该名录就漏掉了《IEEETransactions on Neural Networks》、《IEEE Transactions onEvolutionary Computation》、《Neural Computation》、《IEEE Transactions on Autonomous Mental Development》(IEEE T-AMD)、《Neurocomputing》、 《Computer Vision and Image Understanding》、神经网络国际联合会议(InternationalJoint Conference on Neural Networks)、发展与学术国际会议 美国全国卫生基金会IIS部门经理向我建议,“您应当像神经网络学会那样创办一个新的研究学会。”此后,共举办过八届ICDL,第九届ICDL(2010年)亦将在密歇根州安娜堡举办。2009年开始出版新的IEEE T-AMD。许多美国研究人员充分认识到,研究的目的不在于论文数量的多寡,而在于研究的影响力。 如此全面的目标只能根据具体情况逐一进行评估,任何简单粗浅的指标都无法对其做出公正的衡量。 C. 集权 所有管理级别的高度集中监管是主因。直到 30年前,中国才引入了一部分市场经济,与1949年至30年前严重制约中国经济发展的计划经济一样,中国的高等教育与研究仍处在严格计划之下。 使用固定僵化、思路狭隘、肤浅简略、漏洞百出的“标准”(如院士数量、杰青人数、在极少数期刊或会议上发表的论文数量)来衡量一所院校的成就。这些标准在本质上无异于大跃进时期的大炼钢铁。 分析此类表面化标准之危害的文献连篇累牍。 例如,文件A中的区的规定就十分可笑,发表1区论文1篇 = 发表2区论文2篇。很多2区论文的质量远高于1区中的许多论文。教育部、复旦大学和CSE学院的官员们在要求所有教师迅速成为屈指可数的几个期刊和会议上的高效“论文机器”。实际上,中国最近“成功地”成为研究论文产量第二大国。 那么,从真正的研究意义上来说,我们的祖国是否赶上了发达国家? 中国的教育、研究领域及其他行业,仍在普遍重复着计划经济的错误。中国教育部制定了许多僵化的条条框框,比如招生数量、招生标准和硕士与博士课程的就读时间。 每个系都对自己近期毕业生的就业情况了如指掌,将其视作确定招生数量的最佳标准——这似乎也是决定其学科领域和就业范围内招生标准的最佳标准。每个系的教授都和教育部的官员一样关心学生的质量。 分散权利(如招生委员会对每次特别招生进行投票表决)以杜绝后门现象。 许多研究课题需要的时间长短不一。 相反,美国的大学均依照自身具有综合性的分散式规章制度行事,不受政府的任何此类制约。 D. 改进途径 如果人脑的工作是由中央控制器决定的,就不会出现人类,因为人脑无法具备足以演变为人类的能力。同样,发达国家的大学之所以能力卓著,是因为它们是由分散而综合的大学规章制度来管理的,而它们所在的国家也是由分散而综合的宪法与法律来管辖的。 举例来说,复旦大学副校长金力博士就曾建议,决定晋升标准的是教授,但我们的各级官员和教授需要掌握发育科学。他们应协力从发达国家全面引入久经考验的法律与规章制度。 CSE学院应正式、公开地摒弃文件A及其附件一和二之类的歧视性文件,并停止把SCI索引或其他索引的内容用作评价发表方质量标准的错误做法,因为这些内容与质量毫无干系(只代表着搜集统计数据的范围),而且未将较新的领域纳入其中。论文的引用数量对新领域亦无太大意义,因为从事新领域研究工作的人数寥寥无几。 规章制度应载明所有正教授以匿名方式为每一正教授晋升事项投票表决。 所有相关数据均应纳入晋升考虑范畴。了解关于相关信息的实例,请参见大学论坛 http://www.egr.msu.edu/about/administration/policies/form-D学院附录 http://www.egr.msu.edu/filesegr/u4/P%26TCollegeAddendum2009.pdf 根据 AMD原理,如果综合又分散的宪法、法律和规章制度十分健全,且能够切实有效地执行,生活质量、生活水平、经济发展、环境、教育和研究等领域均将迅速而健康地自我发育。比如,从事热门课题往往更容易出成果。 一些教师会自动转向工程领域和多学科领域,因为美国的许多研究人员正在没有任何政府规划的情况下明智地做出这一选择。 实际上,美国根本就没有教育部。我想,由于历史原因,设立教育部对中国无伤大雅,但教育部仅应充当服务之职,就像美国的全国卫生基金会和分散化的州教育部。 综合的学院规章制度无疑是必要的,而且将产生积极的影响。但如果大学级、部级和国家级发育程序不够完善,学院规章制度的效力就极为有限。 例如,许多大规模政府基金的现有流程有一部分似已作废。 为了确保对政府研究基金的正当竞争,中国政府应在所有政府基金部门内制定一系列针对利益冲突的规定,类似于美国的有关规定,并通过所有相关流程予以实施。现行的行为准则显得过于含糊其辞(例如:似乎不错?)。 针对政府官员明确的行为准则应阐明任何人或机构均不得在任何正式或私人场合中,为任何政府官员支付超过 10元人民币(一杯饮料)的费用。 这样,政府官员就不得让任何主办机构或个人为其午餐或晚餐付费。 每个正常人都具有分辨能力。 当官员或管理者犯有严重错误或发生腐败行为时,我们是否应首先检查一下现行的发育程序?如何才能有效监督他的权利,如何才能通过现行发育程序降低犯错机率? 正是现行发育程序所创造的环境才会允许其犯错。 毛主席所犯的错误主要归因于当时发育程序的失败。作为一个讲求人道主义的社会,中国应当将目前教育和惩罚的重点转向全面预防。 我不相信过于简单化的革命,因为它不能保证用更为科学和全面的发育程序取代现有发育程序。但是,我们应逐步改进现有的各级发育程序。 在这一长期过程中,国家之间的竞争实际上就是其发育程序的竞争,而并非取决于人民是否努力工作、国家拥有多少资源、经济发展水平和教育程度如何,以及各国、个人、生活稳定性和质量方面的科技是否先进。鉴于发育程序是培育这些要素的“基因组”,因此,后几项要素实则为各国发育程序的必然结果。 中国不应在这一和平友好的竞争中错失良机。当祖国拥有更成熟的发育程序时,中国必将成为世界大家庭中更加发达、更受尊重、更受欢迎的成员。 让我们携起手来,共同努力,使中国步入更健康、更快速的发展轨道,造福中国人民,造福全世界。 致以最诚挚的祝愿, 翁巨扬 (Juyang Weng) 2010年1月25日
3133 次阅读|11 个评论
科研评价体系,别忘了实验员们的发展空间
热度 4 sunyu367 2014-8-16 13:44
科研评价体系,别忘了实验员们的发展空间 人们习惯于科学技术人员的二元化,一部分是科研系统,助理研究员-副研究员-研究员,另一部分是教学系统,助教-讲师-副教授-教授。也有混合在一起的教学科研岗位,而且本着“东方不亮西方亮”的安全原则,这种混合岗位或混合定位日益受到青睐,号称“文武双全”的人才。 在科学技术评价体系改革的趋势下,教书匠和论文作家展开了各种对话,好不热闹。两者都是有话语权的人群,有权为自己争取权益。 在实际的科研工作中,其实还有一部分科研人员,他们并不严格属于这两个体系,其职称体系,大概是“实验员-实验师-工程师-高级工程师”(大概是这样 不是很清楚),高级工程师相当于副研究员或副教授。他们是科研实践的体力劳动者、有经验、有技术、长期在科研一线进行现场工作,直接创造价值,多数人炼成了有目共睹的真功夫,值得尊敬和爱待。 但是,在科研评价体系改革中,他们似乎没有太多的精力参与讨论,因为他们太忙,忙着脚踏实地的劳作,忙着修炼他们的真功夫。他们通常没有博士学位、少有论文发表、也不直接参与项目管理,工作量也通常是由他人计算。但是,实际的科研工作中,没有他们是不行的。 读书多年,书本里除了科学技术,还有人文关怀和科学精神,只有更广泛的考虑科研工作者的群体,才能更全面、协调、可持续的实现科技体制改革,这符合科学发展观的要求。科学技术是第一生产力,科学技术生产中形成的人与人(法人与法人)之间的关系就应该是第一生产关系。 为此略尽绵力,匹夫有责。所以,这里,写一点儿东西,为这些奉献者说两句话。
3142 次阅读|10 个评论
喻海良、科研评价与七七事变
热度 30 lbjman 2014-7-8 11:20
喻海良、科研评价与七七事变 向来认为数论文数量和数论文点数的科研评价是有关部门懒政和无能的结果,但是看到喻海良博主的博文《7月7日中日SCI论文7方面PK,全面占优》,终于进一步认清和确认了某些人的嘴脸,这就是:数论文数量和数论文点数是某些无知、无良学者文人助纣为虐的结果,进一步加剧科研体系的非正常发展。 1937年7月7日,日本依靠精良的先进武器和精确的情报资料,悍然发动卢沟桥事变促进局部侵占向全面侵占发展。当时日本精良的先进武器和精确的情报资料,并不是日本科研队伍发表大量牛刊论文获得的,而是构建合理科技发展层次体系特别是科技应用研究,使得科技应用能力得到充分发展的综合结果。 清朝科举制度的八股文,是某些奴性儒生鸡犬升天的捷径,也导致中国在民国期间的科技能力几乎为零。而今朝科研评价制度,SCI等期刊论文成为土鳖奴才、海龟奴才和出海未归奴才等“登上奴才位子”或“坐稳奴才位子”的捷径。今朝作为旅居澳洲的中国学者,喻海良不应发表鼓吹SCI论文数量的博文。 “ 发表牛刊论文= 科技应用能力”的逻辑思维,以及 鼓吹SCI论文数量压倒日本的精神胜利法,是当代学者的悲哀与耻辱!七七事变至今,国人仍未清醒。
2764 次阅读|44 个评论
监督缺位的科研评价必然催生腐败
热度 34 张显峰 2014-5-26 15:09
国家自然科学基金委员会主任、中科院院士杨卫在中国科协年会上说,自1996年以来,中国的研究能力和学术产出发展迅速,但出现了两个问题:一是在学术成果大幅提高的同时,学术诚信却越来越遭到质疑;二是尽管学术产出数量增幅大,但质量仍低于世界平均水平。媒体在报道时,将之概括为“‘过度评价’触发科研不端行为”。(5月26日《中国青年报》) 其实,“度”的界限是很微妙的,何为“适度”何为“过度”恐怕很难用一把尺子量出来。中国科研评价的“过度”,不是要求太高,而是评价太多监督太弱,监督缺位的科研评价必然催生浮躁、不端,甚至腐败。 常言道:萝卜快了不洗泥。不光科学研究,任何行当都难免这样的悖论。但中国科学界的境况近些年格外抢眼,甚至批评这个圈子里的问题都成了一件“政治正确”的事,这就不正常了——当然不是批评者不正常。 谁的问题?科学家一肚子委屈。因为单位和“上面”评价他们,往往看一年发表了多少论文、承担了多少项目、拿到了多少科研经费、获得了多少奖励,是不是项目负责人、是不是论文第一作者……所以他们不得不“急于发文章、急于出著作、急于评职称、急于拿奖项、急于当导师”,“十年磨一剑”的执着变成了“一年磨几把小刀”的功利。“上面”似乎也一肚子无奈。在其眼里科学家好像是一群靠不住的人,有这么多的硬性要求他们都敢糊弄,若不要求,恐怕连这一点收成都没有了,国家的投入岂不打了水漂。 对科学家的研究工作进行客观评价是国际通行规则。但科学研究有自身的规律,有的可能很快就出成果,有的可能真得十年才能磨成一把屠龙剑。只求快出“成果”的评价方式,难免产生“恶果”,它不仅仅是杨卫院士所说的“两个悖论”,而且也会让那些追求真知和科学精神的科学家心中的信仰崩塌。 我们的科研管理者一方面拿科学家的浮躁和不端说事,要他们“提成果来见”,一方面却对一些学术浮躁、不端乃至腐败行为视而不见甚至包庇纵容,导致科研评价往往成了熟人圈子的互相捧场,甚至在某种程度上沦为权力评价的附庸——因为对科研管理者来说,那些快速飙升的漂亮数字往往才是政绩。 行政权力不让位,科学共同体不归位,学术监督不到位,科研评价就必然沦为学术不端的“催化剂”,而非科学研究的“裁量器”。
个人分类: 显峰冷言|8532 次阅读|43 个评论
年轻时,论文被抄袭,感觉是一种荣耀
热度 2 formthin 2014-3-10 21:33
《国际眼科杂志》上的抄袭事件,因为科学网博主的暴料,引起了大家激烈讨论,作为医学博士头衔,做出低级的错误的确是不应该,至少要聪明一点,让非专业人士看不出来。 吴博士是临床大夫,晋升也要求学术论文,而不是专业技能,铤而走险弄论文,的确是评价体系的问题,不知道国外的 MD 是如何评价和晋升的,需要过多的研究论文吗? 科学论文是让同行了解您的科学研究工作的媒介,如果写的论文没人看,肯定不是好的研究论文,如果论文被抄袭,更说明你的论文有质量,对被抄袭者没有任何影响。抄袭者如果没有人揭发,就蒙混过关,该有的待遇和职称都到手。年轻时,博主的一篇论文也被抄袭过。我在 1994 年发表了一篇论文,题目是:《谈如何研制高质量中成药》,19 95 年在另外一份专业杂志上看到一篇文章,有一个单元内容基本上就是我这篇文章的内容,是自己写的文字,一看就知道。我第一的感觉就是属于抄袭,因为涉嫌抄袭的作者没有引用我的文章。但我的感觉并不气恼,倒是有一种荣誉感,说明你写的东西被同行认同。 文章被抄袭不可怕,因为发表有先后次序,一目了然,如果基金申报书被抄袭,就不可挽回。博主曾经有好的 Idea ,申报了 3 年,没有中,后来发现,别的单位做同样的内容,获得资助,一气之下,不再申报课题,职称到此为止,反正工资也够用,想想有时间就在科学网发发博文,也就不寂寞。 科学界为了获得快的晋升,最后都要数论文数,事实上抄袭者晋升快,原创毕竟很艰难。抄袭事件的出现,还是要从我国科技体制方面思考,建立好的合理的科研评价体制,才能够杜绝这些现象的出现。这不是我们普通科研工作者能够作为的,只能是提供一些政策方面的建议,给决策者参考。 参见博文:适用于中国人的科研体制 http://blog.sciencenet.cn/blog-1041239-773716.html
4813 次阅读|3 个评论
适用于中国人的科研体制
热度 35 formthin 2014-3-6 23:34
适用于中国人的科研体制 黄洪林 正值全国两会召开,加上自然基金申报时期,科学网讨论最多的还是我国的科研体制。作为大学教师,也是我国科学工作者中的一员,深切感受到我国科研体制的弊端,自然对其政策进行了长久的思考,得出了自己的初步方案,在去年 8 月份在科学网开博,展示了这一方案的要点。 原博文的题目是: 科研基金的顶层设计 2013-08-28 http://blog.sciencenet.cn/blog-1041239-720305.html 原期望该文能够得到一定的反响,后来发现博文也就是一过性的,阅读到的人并不多,这次再写博文,把要点提出来炒一炒,再添加一些新的思考,希望得到更多的关注。 原博文要点: 1 、科学工作者获得科研经费不是通过写标书直接获得,而是向国家基金委申请贷款获得。申请贷款时,不需要太详细了解其研究内容,只要看申请者是否是一个合格的研究者,是很强的研究者还是很平庸科研工作者,决定了给予其贷款的额度。对于刚毕业的博士来讲,可能给予 10 ~ 20 万就很好了。优秀的科学家,每年贷款 100 万到 1000 万也不算多。给予贷款的机构建立一个好的我国科学工作者评估机制就行。 2 、国家自然基金委的科研经费最终拨给的单位是发表科学论文的相关科学杂志,一个杂志的影响因子应该是对杂志的评价,而不是一篇文章的评价,把杂志办成有影响力的杂志是杂志编辑的任务,如果杂志办的好,来年的经费再增加,杂志社相互竞争。 (新增注解:所有的中国的科学杂志都由国家基金委承办,聘请院士或该领域最优秀的已经功成名就的科学家担任主编,相当于科学成果的购买商) 3 、国家基金委建立一个网站平台,每位科学工作者在完成科学研究,写成基础研究论文后,在自己的空间发布,由杂志社选购,在没有出售之前,产权属于个人,可以给一个价格,然后杂志社可以和作者讨价还价。成交后,产权归杂志社,相当于国家收购你的成果。每次出售成果后,可以获得积分的增加,下次申请的贷款额度可以进一步增加。对于大项目,科学工作者可以自己组成团队,共同完成。 (新增方案:每个学科至少办两本以上的科学杂志,形成相互竞争的态势,杂志的负责人为该学科的国家级权威人物,也就是院士级别,本人认为,院士可以改为院仕,也就是学术官员,代表国家收购学术成果。也就是由运动员变为裁判员,也可以兼任教练员,写一写学科综述,拿年薪,但是,不再具体做科研,不拿科研经费。这些人应该属于年轻时已经做出了一定的成果,有很高的科研积分,也可以是活到等拿诺贝尔奖的科学家,他们的工作重点就是做伯乐,为国家制定科学长远计划和发现科学人才。) 4 、发表论文的署名都要在名字旁著名权重率,如果有三位作者,可以第一作者, 0.3 第二作者, 0.2 最后一位 通讯作者 权重 0.5 当然这个不是固定的,而是,发表时共同署名的作者没有异议。科研积分的分配都是按照这个权重来给。一般来讲,我国的博士生,毕业后,都有论文发表,在老师哪里就可以得到一定的科研积分,如果毕业后,只要有依托单位,都可用申请到一定的科研贷款。 5 、政策的实施后,我国优秀的研究论文肯定在国内杂志发表,国内杂志的影响因子可以逐步提高,另外,这些杂志有国家经费支持,不需要收版面费,而且是免费查阅,每篇文章下面留有空间供大家评论。科研工作者希望有国际的知名度,只要论文提供两个版本就行。英文版和中文版。我想,没有作者敢于造假,编数据,造假者到那时不是身败名裂,而是,信誉度差到没有机构愿意给他贷款做研究,杂志社可用追回投资,让造假科研者彻底离开科学研究这个圈子。 (新增思路:建议我国自己办属于自己的顶级科学杂志,与 Nature 和 Science 竞争,利用国家的实力,改变科学杂志的商业性质为公益性质,对国内好的科研成果高价收购,对国外投稿,也给予象征性奖励,不愁好文章不来,增加我国的科学软实力和话语权。) 6 、改拨款制度为贷款制度,只需要进行一次评价就完成了现在的申报,检查等评价过程。国家基金委应该类似工商局,每个科研工作者开始从事科研工作都进行注册,然后赚取积分,根据积分多少来判断给予多少贷款,如果科研工作完成后,其成果不能够得到杂志社收购,说明其研究不被认同,不能完成,就不能返还当初的贷款,也许没有那么糟糕,贷款 30 万,只收回 20 万,证明你经营不好,你的这个公司就要萎缩或者倒闭,老板也就再一次沦为打工者,或者逐步退出,优秀者就逐渐显露出来,不会出现所谓的劣币驱逐良币的逆淘汰现象。
10590 次阅读|32 个评论
2013年12月高教关键词:海外办学;高考改革;UAS报告;本科评估
热度 3 lgmxxl 2014-1-2 09:11
—— 海外办学;高考改革; UAS 报告;本科评估;科研评价 12 月,一系列的政策与制度出台,给2013年高等教育打上“深化改革”的印记。同时,本月也是年终反思阶段,这个月的重要工作是对一年的工作进行反思。在本月, 那人 应该属于新科院士施一公。清华生科院院长施一公教授是世界著名的结构生物学家,曾是美国普林斯顿大学分子生物学系建系以来最年轻的终身教授和讲席教授。2008年他放弃普林斯顿教职,全职回国,受聘清华,在中美两国都引起轰动,被认为是海外华人归国效力的榜样。2011年,他和同样是“高端海归”的饶毅教授双双落选中科院院士增选,引起广泛争议。 那事 可归于:“自主招生”。这一方面因为2014年度自主招生的三大集团(北约、华约、卓越)开始出台新政策,另一方面也因为人民大学自主招生丑闻给自主招生蒙上阴影。但教育部决心已定,自主招生的路线不变,只是为此教育部下发了更为严格的“自主招生通知”。 那大学 则非厦门大学莫属。厦门大学成为第一个在海外建立分校的大学,同时,它建立孔子学院院长学院,孔子学院院长学院建成后将每年培训3600名中外方院长和骨干教师,并为汉学家来华研究提供服务,成为各国孔子学院在中国的家,成为中外文化荟萃及人文交流的重要基地。 本月重要政策: 教育部 中国工程院印发《卓越工程师教育培养计划通用标准》。教育部《关于深化高等学校科技评价改革的意见》发布。教育部《关于开展普通高等学校本科教学工作审核评估》的通知。 其它的要闻摘录如下: 教育部及中央领导新策: 中央经济工作会议:明年重点抓高校毕业生就业。中共中央办公厅印发《关于培育和践行社会主义核心价值观的意见》。2012年国家财政性教育经费支出占GDP比例为4.28%。教育部新闻办公室官方微信微言教育正式开通。中国高校正在探索将“慕课”引入正规教育教学。教育部:2014年起高校须发布就业质量年度报告。教育部要求做好硕士生招考执法监察,未经公示的考生一律不得录取 。教育部中科院联手推进“科教结合协同育人行动计划”,为世界培养一流的科学家。教育部关于做好《行政事业单位内部控制规范(试行)》实施工作。教育部中国工程院印发《卓越工程师教育培养计划通用标准》。教育部《关于深化高等学校科技评价改革的意见》发布。教育部《关于开展普通高等学校本科教学工作审核评估》的通知。考试招生改革总体方案制定完成,建立分类考试、综合评价、多元录取的高考制度。教育部:五年内将选派500名高校辅导员服务基层。2014年高校毕业生规模为727万人,比2013年增加28万,创下新的纪录。教育部:严禁用财政性经费举办校庆等庆典活动。21世纪中国高等教育展日前在塞尔维亚首都贝尔格莱德的梅加特伦德大学举行。教育部要求各高校完善制度,落实责任,大力推进高校招生信息公开工作。教育部公布《关于进一步加强高校自主选拔录取改革试点管理工作的通知》。教育部召开创新高校人才培养机制座谈会。人力资源和社会保障部:明年就业目标初定1000万人。中国人才科学研究院成立。教育部、农业部和国家林业局出台高等农林教育改革意见,将建500个农科教合作人才培养基地。教育部与中国联通共同加快推进教育信息化发展。新版《教育部工作规则》发布。非营利性民办高校联盟成立。中国工程院、中科院公布院士增选和外籍院士选举结果。加强高校网络建设和管理工作,全国高校校园网站联盟成立。中国教育报、中国教育电视台联合评出2013年全国教育十大新闻。第二十二次全国高校党建工作会议闭幕。中医药传承引入“博士后制度”。高考改革方案预计2014年上半年发布。统计数据:我国高校基金会净资产总量达158亿元。2013年《大学生蓝皮书》发布。 省教育厅新闻: 青岛8000万元助推高校重点学科专业。浙江:到2014年年底前将建成1000个微课资源。 教育万像: 重庆多地教师招聘拒非985、211高校毕业生。社科院报告:普通高校农村本科毕业生失业率达30.5%,城市家庭出身的毕业生的就业率(87.7%)与农村家庭出身的毕业生就业率(69.5%)相差18.2个百分点,而重点本科院校和高职院校毕业生就业率的城乡差异则分别为5.2个和6.5个百分点。30高校晒“三公” 浙大最高1100万,广东体育学院为零。管敏鑫质疑:以国际规则招聘 用国内规则解聘。中国大学生就业调查:高职毕业生超过普通本科。 大学动态: 复旦“腾飞计划”将招收至少300名农村学生。山东聊城大学美术学院启用“手机休息室”。中国大学第一所海外分校将建,厦门大学马来西亚分校建设协议签订。厦门大学获准建立孔子学院院长学院。上海科技大学明年首招500名本科生。上海交大2014年招生首推“致远计划”。北大千万重奖教师学生,学生奖学金人均近万元。福建一高校聘家长,当教学质量监督员。人大自主招生明年暂停一年,,“华约”7校联盟随之缩减为6校。世界多所高校开设“死亡课”:抗争和妥协。复旦大学2015年起将率先在上海市自主招生中引入学业水平考试。 名家言论: 哈佛大学明星教授、“公正”通识教育课老师迈克尔•桑德尔强调:教育需培养学生的思辨能力,让学生成为学习的主导者。别敦荣:大学城资源共享亟须突破“玻璃门”。陶西平:学校教育需要微创新。顾明远:全社会都来推进教育综合改革。人民日报:莫让教育腐败噬咬未来。杜玉波:进一步深化拔尖创新人才培养机制改革。 继续教育、职业教育: 宁波终身学习网(www.nblll.cn)上线。国家中职教育改革发展示范学校建设现场交流会召开。 国际高教要闻 斯坦福大学研究:中国农村贫困生中仅3%能上大学。美国逾七成大学生申请助学贷款。英国《泰晤士报高等教育》“金砖国家”和新兴经济体大学排名中,中国大陆有23所大学进入前100名,中国台湾有21所大学上榜。英国将于2015年取消大学招生数上限 盼更多年轻人进大学。英国:力推工科教育助力经济发展。《欧洲应用技术大学(UAS)国别研究报告》近日发布。日本发布英语教育改革实施计划。 河南高教新闻 河南省与中南大学开展产学研对接,中小企业高校携手合作。河南省职业技术教育学会第三次会员代表大会召开。河南省首个高职院校院士工作站落户开封大学。河南省2014年高校毕业生就业率将引进“第三方评价”。河南省财政教育投入获全国最高等级奖励,补助2.5亿元。河南省首批确定10所高校试点心理健康教育。河南省社区教育服务指导中心成立。河南省信阳师范学院等7所高校变更校名。河南省教育厅《关于2014年部分高等职业院校开展单独招生改革试点工作的通知》发布。 但综合讲来,本月以下四个词汇作为十一月高等教育关键词 :海外办学;高考改革;UAS报告;本科评估;科研评价。 海外办学: 中国大学第一所海外分校建设协议签订 据中国教育报:厦门大学马来西亚分校建设协议签订,这是我国大学第一个在海外建设独立校园的分校。厦门大学校长朱崇实透露,厦大马来西亚分校建设正在稳步推进中,目前已向马来西亚方面报批有关建设手续,争取今年底或明年初开工。厦大马来西亚分校位于马来西亚首都吉隆坡,靠近机场,建筑风格沿袭嘉庚建筑风格。分校占地150英亩,总建筑面积计划为30万平方米,在校生总规模为1万人。包括本科、硕士、博士3个教育层次,生源以马来西亚和东南亚国家为主,教师则采用全球招聘的方式,生师比保持在15∶1,实行全面学分制。厦大马来西亚分校将分期建设,第一期建筑面积约20万平方米,学生规模为5000人。计划2015年招第一批学生,第一年招生500名。到2020年,学生规模达到5000名左右。第一期设立中国语言与文化学院、海洋与环境学院、商学院、医学院和计算机学院等5所学院。学校将根据第一期的办学情况择机开展第二期建设。第二期设立化学工程与能源学院、电子工程学院、生物工程学院、材料科学与技术学院、动漫与文化创意学院等5所学院。厦大马来西亚分校将严格遵守马来西亚的法律法规,管理模式将实行董事会领导下的校长负责制。 推荐理由: 厦大马来西亚分校是一所由厦门大学独自拥有、自主办学的“中国海外大学”,代表着中国高等教育的形象和水平。是中国高等教育水平得到世界认可的一个信号,也是建立中国高等教育强国的一个重要事件。它将改变中国只引入外国高等教育资源的历史,为中国大学走出去创造经验,作为引领与示范。 高考改革:考试招生改革总体方案制定完成,建立分类考试、综合评价、多元录取的高考制度。 据中国教育报和教育部发言人续梅介绍,中国考试改革方案将于2014年上半年发布。其指导思想是:全面贯彻党的教育方针,突出四个“强调”:一是强调两个基本出发点,即适应国家人才需求,适应立德树人的根本任务要求;二是强调三个有利的原则,即有利于促进学生健康成长、有利于科学选拔人才、有利于维护社会公平的原则要求;三是强调了改革的系统性、综合性;四是强调指导改革的教育理念,即促进有教无类、因材施教、终身学习、人人成才。改革总体目标是:到2020年,基本建立中国特色现代教育考试招生制度。包括三个重要组成部分:形成分类考试、综合评价、多元录取的基本模式;健全考试与招生相对分离,学生考试可多次选择、学校依法自主招生、专业机构组织实施、政府宏观管理、社会参与监督的运行机制;构建衔接沟通各级各类教育、认可多种学习成果的人才成长“立交桥”。 改革的主要举措包括七个方面:一是建立健全义务教育免试就近入学的制度。这是义务教育体现公益性、公平性的法定要求,要多措并举,探索义务教育阶段免试就近入学的多种实现形式,包括小学初中对口直升;合理划分学区,学生在学区内直接进入初中;有条件的地区新建校实行九年一贯制办学,等等,综合有效治理一些大城市择校过热问题。二是推进高中阶段招生考试制度改革。适应推进素质教育、促进学生全面发展的需要,建立健全初中学业水平考试和综合素质评价制度,鼓励各地积极探索以初中学业水平考试成绩和综合素质评价情况为依据的招生方式。完善优质高中招生名额合理分配到区域内初中的办法,引导义务教育均衡发展。中等职业学校以初中学业水平考试成绩为依据,实行注册入学。三是建立健全高中学业水平考试和综合素质评价制度。四是建立健全适合高等职业教育特点的“文化素质+职业技能”考试招生制度。五是改革统一高考,建立普通本科综合评价、多元录取机制。 六是建立有利于创新型人才和高层次应用型人才选拔的研究生考试招生制度。主要举措包括:探索专业学位与学术学位研究生分类考试。对学术型硕士研究生重点考查专业素养和创新潜质;对职业型专业硕士研究生重点考查职业素养和职业能力。扩大培养单位和导师团队的招生自主权。建立博士研究生“申请—考核”录取制度,使选拔更加重视专业素养、研究能力、创新潜质。七是扩大社会成员接受多样化教育的机会。重点举措包括:拓宽社会成员接受各级各类教育的渠道。为各行各业在工作岗位上取得优异业绩的在职人员提供接受高等教育的机会。建立多种学习成果转换认定制度。在高考改革方面,方案提出对考试评价制度和招生录取制度进行系统设计,推进综合改革,目标是建立起分类考试、综合评价、多元录取,具有中国特色的现代考试招生制度。在改革考试评价制度方面,重点包括两个方面:一是推行高中学业水平考试和综合素质评价,引导学生学好每门课程,并选择适合自己兴趣的课程,充分发展个性潜能和学科特长,同时引导学生参加公益服务和社会实践等。二是全面实施高中学业水平考试制度,探索“减少考试科目”,“不分文理科”,“外语科目实行社会化一年多考”等改革,外语不再在统一高考时举行,由学生自主选择考试时间和次数,增加学生的选择权,并使外语考试、成绩表达和使用更加趋于科学、合理。在改革招生录取制度方面,重点内容包括两个方面:一是普通高校逐步推行基于统一高考和高中学业水平考试成绩的综合评价、多元录取机制。二是加快推行职业院校分类招考和注册入学,体现职业教育的特色。一些报考高职院校的学生可不参加高考,学校依据其高中学业水平考试成绩和职业倾向性测试成绩录取。 推荐理由: 考试制度特别高考制度改革牵一发而动全身,它直接影响中国教育的进程和发展方向。从目前改革的方向来看,贯彻教育公平、分类录取的原则是没有问题,关键还是制度执行的公开性和阳光性,要让考试制度改革放在全民的视野中来进行。 UAS 报告: 《欧洲应用技术大学( UAS )国别研究报告》近日发布 为借鉴欧洲应用技术大学( UAS )发展经验,探索中国特色应用技术大学发展之路,中国教育科学研究院教育规划与战略研究中心孙诚研究员牵头的课题组开展了欧洲应用技术大学国别研究。报告共 5 万余字,从产业升级和实体经济发展的角度,对欧洲应用技术大学进行了全景式的扫描和分析,深入研究了德国、瑞士、奥地利、英国、芬兰和荷兰等欧洲国家应用技术大学兴起的过程及其快速发展的必然性,总结提炼了欧洲应用技术大学这一类型大学办学的特点。近日,课题组正式发布了《欧洲应用技术大学( UAS )国别研究报告》。报告在分析了应用技术大学发展的历程基础上,得出了应用技术大学是与经济社会发展相伴而生的时代产物、尤其是与区域经济发展密切相关这一结论。欧洲各国应用技术大学的创建时间不一,但总体而言兴起于 20 世纪六七十年代,当时欧洲的经济社会发展到一定水平,对技术技能人才提出了更高要求。一是城镇化率加快。 20 世纪 70 年代,欧洲几国的城镇化率均已经达到 50% ,其中德国已经达到了 72.3% 。城镇化率的不断提高表现为产业结构的优化升级和生产生活方式的变革,这势必要求人才培养结构随之发生变革。二是人均 GDP 水平快速提高。上世纪 70 年代,这几个国家的人均 GDP 都在 2300 美元至 6500 美元,北欧国家瑞士和荷兰人均 GDP 达到了 4000 美元,其中瑞士达到了 6467 美元,与我国目前的经济发展水平相仿。三是产业结构的调整和优化。 20 世纪 70 年代以来,欧洲几国的农业、工业比重持续下降,服务业比重上升。到 1990 年时,农业比重已下降到 10% ,到 2008 年以后下降到 3% ,服务业已成为这些国家国民经济的支柱产业。在这样的时代背景下,欧洲应用技术大学这一新型大学类型应运而生,适应了欧洲国家产业发展对高层次技术技能人才的需求。 报告运用丰富的数据进行了量化研究,深入研究了欧洲应用技术大学与经济社会发展的关系。经过 50 多年的发展,应用技术大学为欧洲各国经济增长、社会繁荣和科技进步做出了巨大贡献,使这些国家始终保持了强劲的竞争力。特别是面对金融危机的冲击,瑞士、德国等实体经济发达的国家都保持了强有力的国际竞争力,这其中,欧洲各国完善的职业教育体系特别是应用技术大学起了决定性作用。报告分析了欧洲应用技术大学的发展历程,分析了其在高等教育体系中的独特作用。欧洲应用技术大学从学校设置上看,有新建和改造升格两种路径。如德国 1970 年建立应用技术大学,将其作为传统大学之外的、定位于应用性人才培养的新型高等教育机构。 1991 年,芬兰合并了 214 所职业高中和职业学院,组建了 27 所多科技术学院; 1993 年,奥地利通过《应用技术大学法案》,合并了职业院校,在 9 个省建立了以科学为基础、以实践为导向的应用技术大学;荷兰应用技术大学原被视为中等教育的一部分, 19 世纪时荷兰商务经济交流发展迅猛,兴建了多所商业学校,至 1986 年《高等职业教育法案》确立了它们与大学教育同等的法律地位。如今,应用技术大学已经占据了欧洲高等教育很大的一块市场,引领着职业教育的改革发展。从 1993 年到 2012 年,德国应用技术大学的数量从 125 所增加到 214 所,远远高于其他类型高校的增长幅度。 2013 年,德国应用技术大学注册在校生共 82.8 万人,约占德国高校在校生总数的 1/3 。 2011 年,荷兰的应用技术大学已经拥有 42.3 万名在校生,约占高等教育总在校生数的 63.4% 。在教育内部,应用技术大学是与普通大学相并行、相补充的,它是以专业教育为主导,强调实践性和应用性的一种教育类型,是高等教育体系的必要组成部分,也是职业教育体系的关键环节,肩负着培养高层次应用型人才、开展应用研发创新、服务就业和区域发展及终身学习等多重使命。  研究报告总结提炼了欧洲应用技术大学这一新型大学办学的特点,系统梳理和分析了欧洲应用技术大学办学的成功经验及其对社会经济发展的贡献、在构建现代职业教育体系和高等教育结构调整中的作用。报告总结了六条经验,认为可能会给我国地方院校的转型发展带来启发和借鉴:第一,办学定位于为区域经济服务。第二,学制灵活满足学习者的需求。第三,招生上注重学生来源多样化。第四,人才培养理论与实践相结合。第五,办学经费多来源于政府机构。第六,研究侧重于应用性研发创新。 推荐理由: 应用技术大学在中国是一类另人不肖的大学,这和国外形成鲜明对比。实际上,中国大学,特别是 211 工程以外的本科类大学、专科类大学都应该属于应用技术大学,走应用技术大学之路。它们应该学习欧洲应用技术大学办学经验,接地气,找特色,服务地方、服务行业,而不是一味模仿 211 工程大学。 本科评估: 教育部《关于开展普通高等学校本科教学工作审核评估》的通知 据中国教育报:普通高校本科教学审核评估明年起开展。本次评估时间:2014年至2018年;评估重点:重点考察办学定位和人才培养目标与国家和区域经济社会发展需求的适应度、教师和教学资源条件的保障度、教学和质量保障体系运行的有效度、学生和社会用人单位的满意度;评估方式:实行中央和省级政府分级负责;中央部委属高校审核评估由教育部负责;要充分发挥第三方评估的作用,先行试点,逐步推开。 推荐理由: 评估是大学办学的指南针。本次下发的文件,有进步。一是进行了放权;二是审核评估,不作等级分类。这样就避免了为评优而劳民伤财的现象;三是政府评估与社会评估相结合,有限度引入社会评估数据。只是希望今后这种评估由高校自身和社会机构来完成 科研评价:教育部《关于深化高等学校科技评价改革的意见》发布 据中国教育报:为加快落实《中共中央国务院关于深化科技体制改革加快国家创新体系建设的意见》和教育规划纲要,教育部今天下发意见,要求各地各高校深化高校科技评价改革。意见提出,高校科技评价将实行分类评价,对主要从事创新性研究的科技活动人员实行以代表性成果为重点的评价,对应用研究人员的评价以具有自主知识产权和重大技术突破为重点。 意见明确,深化高校科技评价改革的指导原则是:鼓励创新,服务需求,科教结合,特色发展。注重科技创新质量和实际贡献,重点突出围绕科学前沿和现实需求催生重大成果产出的导向,建立产学研协同创新机制加快创新驱动发展的导向,推进科教结合提升人才培养质量的导向,鼓励科技人员在不同领域、不同岗位做出特色,追求卓越。深化科技评价改革的目标是,根据不同类型科技活动特点,建立导向明确、激励约束并重的分类评价标准和开放评价方法,营造潜心治学、追求真理的创新文化氛围。着力提升基础研究和前沿技术研究的原始创新能力,关键共性技术的有效供给能力,支撑高质量创新人才培养的能力,服务国家和区域经济社会发展战略需求的能力。意见提出,高校科技评价改革要实施科学的分类评价。针对科技活动人员、创新团队、平台基地、科研项目等不同对象,按照基础研究、应用研究、技术转移、成果转化等不同工作的特点,分别建立涵盖科研诚信和学风、创新质量与贡献、科教结合支撑人才培养、科学传播与普及、机制创新与开放共享等内容,科学合理、各有侧重的评价标准。对主要从事创新性研究的科技活动人员实行代表性成果为重点的评价。对基础研究人员的评价以有利于潜心研究、长期积累,催生重大原创性成果为重点。对应用研究人员的评价以聚焦需求,具有自主知识产权和重大技术突破为重点。对主要从事技术转移、科技服务和科学普及的科技活动人员实行经济社会效益和实际贡献为重点的评价。对从事技术支撑和服务的科技活动人员实行以服务质量与实际效果为重点的评价。对高校创新团队实行以解决重大科技问题能力与合作机制为重点的整体性评价。对高校创新平台(机构、基地)实行以综合绩效和开放共享为重点的评价。意见提出,要建立开放的高校科技评价机制。基础研究以同行评价为主,大力加强国际同行评价。应用研究和产业化开发应建立主要由市场决定技术创新项目和经费分配、评价成果的机制,由用户、市场和专家等相关第三方参与评价。加强开放、多元的国内外专家数据库建设和共享。同时,高校要建立长效评价机制,避免频繁评价。科技活动人员的评价周期原则上不少于3年,对青年科技人员实施聘期评价,创新团队和平台基地的评价周期原则上不少于5年。加强评价结果共享,避免重复评价。 推荐理由: 科研评价是中国科研健康发展、又好又快发展的一个重要诱制因素。长期以来,重数量、轻质量的科研评价方式,催生了中国期刊,催生了科研腐败,形成了科研中追求GDP现象。本次“意见”明确了分类评估的原则;重视科研的活动规律;用户、市场和专家等相关第三方参与评价,具有一定的先进性。只是希望这种精神能够在实践中不变样,不走形。
个人分类: 高教史料|5897 次阅读|9 个评论
味道
热度 34 weijia2009 2013-11-11 08:46
味道 贾伟 我们的高校和科研单位一直在设法用各种指标准确地评价一个人的科研能力和水平。其实放眼看出去,各行各业都在做着同一件事,都想要用靠谱的指标体系来评价业绩、控制质量。 上世纪八十年代,美国可口可乐公司曾受到过一次“强烈的刺激”,管理层对企业前景一度产生恐慌,因为当时竞争对手– 百事可乐咄咄逼人,其市场占有率从七十年代的4%逐步攀升到11%,而相比之下营销投入大得多的可口可乐同期从14%的占有率跌到12%。 让可口可乐公司管理层大伤脑筋的是,百事可乐并不打算就此收手,而要跟它刺刀见红。百事在电视节目上公开地请爱喝软饮料的顾客品尝标了Q和M的两杯可乐,请他们打分,结果每次测试都是一个结果:多数人爱喝M饮料,而这个M就是百事可乐!这种评价非常严谨,相当于我们今天的新药临床试验,采用的随机、对照、盲法进行比较,令人无可挑剔。可口可乐公司看在眼里急在心头。他们嘴上表示不屑这种玩法,私底下悄悄地请来顾客也搞了个(两种可乐的)盲法评价,结果发现,爱喝自家牌子的人有43%,而爱喝百事的却占57%。面对这样的结果他们不甘心,又着手搞了一系列的市场调研,但得到的结果都很不乐观!这下他们头发竖起来了,知道大事不妙了! 长话短说,可口可乐管理层经过反复讨论和酝酿,最终一咬牙一跺脚,决定改造自己沿用了99年的老产品。技术人员将口味变淡、变得更甜,然后拿出去试验,评价结果跟百事可乐持平!在此基础上他们不断改造,产生出了终极版的改良配方。这个新配方被拿出去广为测试,公司花了数百万美元,开展了十几万人次的品尝实验,参加者是来自全国各地区各年龄组的消费者。所有的盲法显示,新配方比百事平均胜出6到8个百分点,味道好极了! 这下公司领导们一扫数年来心头的郁闷,在新闻发布会上 隆重 宣布新品上市!他们认为这是(公司有史以来)最靠谱的一个举措 - “the surest move the company’s ever made”! 正当公司上下踌躇满志,期待着一举击败竞争对手时,市场传来噩耗,人们对这种新口味根本不买账,新可口可乐没人买!与此同时,全国各地的消费者每天往公司打超过5000个投诉电话,抗议改换口味这种“脑子进水”的决定!公司情急之下把老(配方的)可乐重新推向市场,而把几乎无人问津的新产品撤出货架,经过这么“过山车”般的一番折腾,才算稳住局面。但另一个让可口可乐销售人员跌破眼镜的发现是,他们的老对手百事可乐并没有像(无数市场调研和评价报告中)预期的那样胜出 - 不论多努力,销售业绩就是上不来。而可口可乐这一个在无数的人群试验和严格的评价指标下败得一塌糊涂的老配方,这么多年来“一哥”的位子始终坐得稳稳当当的! 这个故事告诉我们,评价饮料的味道这么一件再简单不过的事其实很不简单,即便是业内顶级企业和顶级专家都没能找出合理的方法和指标。其实,百事可乐推出的“口味测试”方法设计是严谨的,但结果是不靠谱的。一个人当着众人的面喝上一小口饮料,给出的感受与坐在家里的沙发上悠闲地喝上一罐饮料的感受是非常不同的,前者给出的是“瞬间”感受,甜度高的饮料(像百事可乐)多半会胜出。瞬间尝试的话,百事可乐的柠檬味的口感也略微胜过可口可乐的香草-葡萄味的口感。但 越往下喝, 这种瞬间口感上的优势就越少,也就是说可口可乐的口感是后发制人的,它的胜出机制走的是“长线”。事实上很多老品牌的酒、烟、甚至饭店里的菜肴之所以深受人们喜爱,道理是一样的,不是“一见钟情”式地赢在第一口感,而是“日久生情”、历久弥香。 教育和科研的评价之不容易,跟品尝饮料的味道是一个道理,用各种指标算出来的排名和水平,跟实际一定是有距离的,社会也不一定买账。你说中国的高校已经接近世界一流了,为什么老百姓还要把自己的孩子送国外去读书呢?反过来,我们一些科研人员也不必惊艳于那些所谓的名校来的、能发高档期刊论文的大牛同行,在他们面前无地自容。科研上的东西真不好说,幸福也许离我们并不那么遥远,某一天你会发现,自己手里那一杯淡淡的菊花茶在味道上比星巴克的一杯香甜的热巧克力更好! 味道
11387 次阅读|100 个评论
除了影响因子还有什么?
热度 5 book 2013-9-10 22:35
我之前的博文《 影响因子的终结? 》中提到:“二十多年以来,主要是 1990 年代初引用数据开始能够电子化以后,影响因子越来越被广泛的使用,并且完成了其角色三级跳:期刊的评价指标——单篇论文的评价指标——研究者的评价指标。其实你可以发现这是多么武断的一种等价替代。”仅用期刊影响因子来评价科学家是不恰当的恐怕在科学群体中已经开始达成共识。其实量化评价和质量评价一直存在很多争论,比如如何量化才能更客观,该不该量化及如何做好质量评价?有个需要了解的问题是:除了影响因子之外,还有哪些可以用于评价科学家? 首先要提到的是近两年比较热闹的“ Altmetrics ”,这个词应该缩写自 “ alternative metrics ”,我觉得可以理解为“替代指标”或“其他指标”的意思。光 Nature 杂志最近就有好几篇文章讲这个,比如 “ Altmetrics: Value all research products ” 、“ Scholarship: Beyond the paper ”、“ Research impact: Altmetrics make their mark ”等。 Altmetrics 的倡议者们认为现在的科学家更多的依赖于在线文献管理工具和网络交流的环境(下图 ),这些行为提供了新的衡量科学影响的数据,比如某篇文章被 Twitter 和 Facebook 用户提到和分享的次数、被博客文章评论的次数等。 但也有科学家认为 Altmetrics 用于评价科学家还为时尚早。比如 Nature 发表的一篇 Correspondence 文章( Altmetrics: Too soon for use in assessment )认为这些指标有很多不可靠性。比如,文章下载次数、被社交媒体提到和分享的次数等指标缺乏权威性和可靠性,有的人甚至可以多注册几个账户来重复推荐和分享。 在 Nature 发表的另一篇有意思的 Correspondence 文章( Research impact: We need negative metrics too )中,北德克萨斯大学的 Holbrook 等人认为科学家们应该主动地去收集自己工作的影响数据,而不是被其他人来决定(“ We think that researchers can generate a more complete account of their impact by including seemingly negative indicators — such as confrontations with important people or legal action — as well as those that seem positive. ”)。除去论文数量、发表期刊、引用数、经费额度等常规的量化指标,他们列出了其他的或许可以用于评价工作影响的指标(下图 )。 大家对于 Altmetrics 有什么看法,欢迎讨论。(最近打算写一个有关的评论,对 Altmetrics 有所思考的同志可以联系我。) --- 相关博文: 《科学》社论和《旧金山宣言》:停止使用影响因子评价科学家 一份期刊影响因子的巨变说明什么? h 指数评价科研人员的不靠谱性 不要误读 SCI 影响因子
个人分类: 科学那些事儿|13261 次阅读|6 个评论
《科学》社论和《旧金山宣言》:停止使用影响因子评价科学家
热度 91 book 2013-5-17 08:33
早上到办公室,打开邮箱,看到今天Science杂志的社论“ Impact Factor Distortions ”。主编Bruce在社论中说:包括美国科学促进会(AAAS)在内的75家机构和150多位知名科学家在2012年12月举行的美国细胞生物学学会会议上支持签署了《 关于研究评价的旧金山宣言(San Francisco declaration on research Assessment,DORA) 》,宣言认为科学界应该停止使用影响因子评价科学家个人的工作;影响因子不能作为替代物用于评估科学家的贡献,以及招聘、晋升和项目资助等的评审。 Science社论提到这样做的理由(虽然很多理由大家早就知道): 1)影响因子是评价期刊的工具,不是评价科学家个人的工具。很多重大突破本来就可能需要长时间的积累。 2)影响因子的不恰当使用非常有破坏性,影响期刊的发表政策(比如选择发表可能高引用的文章),给知名期刊带来沉重的投稿压力(滥投)。 3)最重要的危害可能是妨碍创新。影响因子会鼓励“模仿或跟风”,使得本来就已经很热的领域(刊物影响因子高)更加人满为患。更多人关注的是发高影响因子的文章,而不是科研创新。 Science社论认为,为了客观的评价研究者的科研贡献,需要知名科学家作为评价者,认真的评阅某个研究者的代表作。《旧金山宣言》中给出了一些具体的评价建议: General Recommendation 1. Do not use journal-based metrics, such as journal impact factors, as a surrogate measure of the quality of individual research articles, to assess an individual scientist’s contributions, or in hiring, promotion or funding decisions. For funding agencies 2. Be explicit about the criteria used in evaluating the scientific productivity of grant applicants and clearly highlight, especially for early-stage investigators, that the scientific content of a paper is much more important than publication metrics or the identity of the journal in which it was published. 3. For the purposes of research assessment, consider the value and impact of all research outputs (including datasets and software) in addition to research publications, and consider a broad range of impact measures including qualitative indicators of research impact, such as influence on policy and practice. For institutions 4. Be explicit about the criteria used to reach hiring, tenure, and promotion decisions, clearly highlighting, especially for early-stage investigators, that the scientific content of a paper is much more important than publication metrics or the identity of the journal in which it was published. 5. For the purposes of research assessment, consider the value and impact of all research outputs (including datasets and software) in addition to research publications, and consider a broad range of impact measures including qualitative indicators of research impact, such as influence on policy and practice. For publishers 6. Greatly reduce emphasis on the journal impact factor as a promotional tool, ideally by ceasing to promote the impact factor or by presenting the metric in the context of a variety of journal-based metrics (eg. 5-year impact factor, EigenFactor , SCImago , editorial and publication times, etc) that provide a richer view of journal performance. 7. Make available a range of article-level metrics to encourage a shift toward assessment based on the scientific content of an article rather than publication metrics of the journal in which it was published. 8. Encourage responsible authorship practices and the provision of information about the specific contributions of each author. 9. Whether a journal is open-access or subscription-based, remove all reuse limitations on reference lists in research articles and make them available under the Creative Commons Public Domain Dedication. (See reference 8.) 10. Remove or reduce the constraints on the number of references in research articles, and, where appropriate, mandate the citation of primary literature in favor of reviews in order to give credit to the group(s) who first reported a finding. For organizations that supply metrics 11. Be open and transparent by providing data and methods used to calculate all metrics. 12. Provide the data under a licence that allows unrestricted reuse, and provide computational access to data. 13. Be clear that inappropriate manipulation of metrics will not be tolerated; be explicit about what constitutes inappropriate manipulation and what measures will be taken to combat this. 14. Account for the variation in article types (e.g., reviews versus research articles), and in different subject areas when metrics are used, aggregated, or compared For researchers 15. When involved in committees making decisions about funding, hiring, tenure, or promotion, make assessments based on scientific content rather than publication metrics. 16. Wherever appropriate, cite primary literature in which observations are first reported rather than reviews in order to give credit where credit is due. 17. Use a range of article metrics and indicators on personal/supporting statements, as evidence of the impact of individual published articles and other research outputs . 18. Challenge research assessment practices that rely inappropriately on Journal Impact Factors and promote best practice that focuses on the value and influence of specific research outputs.
个人分类: 科学那些事儿|35491 次阅读|192 个评论
科学计量学视角下的石墨烯发现之争
热度 7 tengli1970 2013-1-9 10:21
科学计量学视角下的石墨烯发现之争
这篇论文已被《自然辩证法研究》录用。希望和做科研评价的同行交流探讨。 科学计量学视角下的石墨烯发现之争 陈悦 1 ,邢黎黎 1 ,滕立 1,2 1. 大连理工大学WISE实验室,辽宁,大连,116024 2. 郑州航空工业管理学院,河南,郑州,450006 摘 要:本文通过科学计量学的方法,考察了石墨烯发现前后文献链条上的关键节点文献,对有关2010年诺贝尔物理学奖的争议进行了回答。研究结果表明,海姆、诺沃肖洛夫2004年发现石墨烯的文献以及发现石墨烯中的电子是具有无质量的狄拉克费米子两个成果既然很高的被引频次,也有很高的网络中介中心度值。他们获得诺贝尔奖是理所应当。另一方面,赫尔只有一篇2006年发表的文献处于链条之上,表明他在石墨烯发现之后对其性质的研究做出了实质性的贡献。凯姆则有两篇文献位于石墨烯发现前后的链条上,尤其是对石墨烯中存在肉眼可见的量子霍尔效应这一独特性质的发现,引发了大量相关研究。因此,海姆认为他也应当共同获奖是有相当理由的。 关键词:科学计量;共被引分析;科学文献;石墨烯; Controversy of Graphene Discovery: A Scientometrics Perspective 1. Chen yue 1 , 2. Xin lili 1 , 3. Teng li 1,2 1. WISE Laboratory of Dalian University of Technology, Liaoning,Dalian, 116024 2. Management Colleges of Aircraft Industry of Zhengzhou, Henan, Zhengzhou 450006 Abstract : The paper tried to deal with the debate on graphene discovery from constructing key literature chain which reflected the process of graphene discovery by scientometrics method. The results have shown that two works made by Geim and Novoselov, one was discovery of graphene and the other was find of Two-dimensional gas of massless Dirac fermions in graphene, both had high cited frequence and network betweenness centrality. On the other hand, only one paper written by Heer in 2006, which made important work for nature of graphene, was situated on the chain. Two works of Kim, one was about single-walled carbon nanotubes and the other was about quantum Hall effect and Berry's phase in graphene, were lain on the chain indicating Kim played important role before and after discovery graphene, especially after discovery graphene. Based on these results, the paper pointed out that there were enough reasons for Geim and Novoselov to win Nobel Prize and Kim also met the requirement for Nobel Prize. Keywords : Scientometrics; Co-citation analysis; Scientific literature; Graphene 引言 石墨烯( Graphene )是一种由碳原子以 sp 2 杂化轨道组成六角型呈蜂巢晶格的平面薄膜,只有一个碳原子厚度的二维材料。石墨烯在被发现前一直被科学家认为是假设性的结构,无法在自然条件下单独稳定存在。 2004 年,英国曼彻斯特大学物理学家安德鲁•海姆( Andre Geim )与康斯坦丁•诺沃肖洛夫( Konstantin Novoselov ),成功地在实验中从石墨中分离出石墨烯,从而证实它可以单独存在,并具有独特的物理化学性质。两人也因“在二维石墨烯材料的开创性实验”为由,共同获得 2010 年诺贝尔物理学奖。获奖后,英国《自然( Nature )》杂志网站的一篇文章《 Nobel prize committee under fire 》及新闻《 Nobel document triggers debate 》,披露了美国乔治亚理工学院物理系的赫尔 (Walt de Heer) 关于石墨烯向诺贝尔奖委员会提出的质疑(见 Letter from Walt de Heer , http://www.gatech.edu/graphene/) 。面对质疑,海姆似少点谦谦君子的风度,进行了嘲讽式的回击,但同时认为另一位学者,哥伦比亚大学的凯姆 (Kim P) ,应该共享今年的诺贝尔物理学奖。 虽然诺贝尔奖委员会经过讨论最终维持了原来的评选结果,但是,赫尔的质疑是否成立?凯姆的学术贡献是否达到获奖水平而没有被授予相应的荣誉?这些问题在学术界仍有相当争议。对此,本文利用科学计量学的方法,通过考察争议人物的学术论文及其在共被引网络中的地位,试图对此问题从文献角度做出回答。 1. 相关理论与概念 对科学家的学术评价,最重要的依据就是科学家做出的科研成果的重要性。这种重要性体现在两个方面: 1. 该科学成果对科学自身发展的影响; 2. 该成果对社会进步的促进作用。就基础性研究而言,对科学发展的影响是评价科学成果的最主要因素。 在科学共同体中,科学家做出的任何发现,都只有正式发表,才有可能获得学术同行的承认与评价。这里面有两层含义: 1. 科学论文是科学研究成果的载体; 2. 对科学家研究成果的评价可以通过考察其发表论文的重要性来进行。这种重要性通常表现为科学家发表论文论文的被引用频次。一篇论文被引用的次数越多,其重要性越大。但是,由于科学家在引证文献时,存在着复杂的动机 ,这导致单单使用文献的被引用频次来评价其地位是不完善的,有时甚至失真度很大。 论文的引用与被引用,构成了普赖斯( Price JD ) 所说的“科学论文的网络”。科学家在进行文献引证时,往往既引用重要的、经典的文献,也同时会引用其他一些相对普通的文献。这些文献构成了斯莫尔 (Small H) 所称的文献共被引关系与共被引网络。陈超美 (Chen CM) 的研究表明,代表重大科学发现的文献在共被引网络中,除了具有高被引的特征外,还具有另一个重要的特征:这些文献往往处于网络中的结构洞 位置,即具有较高的中介中心度。这些科学计量学上的成就,为我们提供了从网络的视角来评价科学论文重要性的理论与方法。 中介中心度 (betweenness centrality) 为 1979 年弗里曼 (Freeman LC) 在社会网络分析的研究中提出的测量网络节点位置特征的指标。该指标的含义是在一个网络中,任一节点占有网络中最短路径的能力。其计算公式如下: 其中 d(i,j,k) 表示在网络G中任意两点 i 和 j 间的最短路径经过K点点的数量; d(i,j) 表示网络 G 中用意两点 i 和 j 间的最短路径数。网络中高中介中心性的节点常常扮演边界员的角色,它们在相互远离的区块间起到“桥梁”的作用。在文献共被引网络中,网络中的节点也会随着时间而形成不同的“区块”,构成相应的研究领域。高中介中心度的节点则在这些“区块”中起到联通的功能,扮演着沟通各“区块”间知识上的联系的角色。一但去掉这些节点,则各“区块”之间就无法形成联系,整个网络呈现出碎片化的趋势。在一个随时间演化的文献共被引网络中,高中介中心度的节点往往既是以前知识的汇聚点,也是新知识或新研究领域的发动点。结合文献的被引频次,我们可以认为网络中具有高中介中心度的节点文献在科学展的过程中具有重要的地位。 因此,在有关石墨烯的争议中,我们只须考察海姆和诺沃肖洛夫、凯姆、赫尔在石墨烯发现前后的共被引网络中的地位与作用,争议就迎刃而解。 2. 数据检索与处理 本文选择了 Web of Science 数据库中的 SCI (科学引文索引)做为数据来源。该数据库提供 1900 年以来 6000 多期刊的题录、文摘、参考文献信息,涉及自然科学和工程技术的所有领域。 SCI 数据库是世界六大数据库之一,其收录数据的全面性与权威性在学界得到公认。 2.1 数据检索策略 利用科学文献分析一个领域的发展变迁,首要问题是尽可能得到这个领域的完整数据。在本章中,与石墨烯研究相关的文献由三部分构成: 首先,用主题词检索方式检索有关石墨烯研究的相关文献。主题检索方式得到的文献在标题、摘要或关键词位置含有相应的检索词,一定程度上表明了文献内容与检索词所涉领域之间的相关性。在本章检索中使用的主题词为“ graphene ”。 其次,还需要检索与科学家所发表的经典文献相关的文献。这些文献同样反映了石墨烯的相关研究。确定这些相关文献,可以使用文献耦合 的方法。所谓文献耦合,是指文献集合中两篇文献至少拥有一篇相同的参考文献。相同的参考文献越多,文献间的耦合相关度就越大。海姆与诺沃肖洛夫二人有关制备出石墨烯的文献最早发表在《科学》(《 Science 》, 2004 年第 306 期)杂志上,题目为《单原子厚度碳薄膜的电场效应》(《 Electric field effect in atomically thin carbon films 》)。这篇文献共有参考文献 16 篇,文献标题见表 1 。在 2004 年以前与其有耦合关系的文献则表征了石墨烯发现前相关的研究。 表 1 《单原子厚度碳薄膜的电场效应》中的参考文献 序号 标 题 1 Organic thin-film transistors: A review of recent advances 2 Carbon nanotubes – the route toward applications 3 Possibility of a metallic field-effect transistor 4 Hall constant in quantum-sized semimetal Bi films: Electric field effect influence 5 Intercalation compounds of graphite 6 Electronic transport-properties of graphite, carbons, and related materials 7 Carbon nanostructures 8 Graphitic cones and the nucleation of curved carbon surfaces 9 Fabrication of mesoscopic devices from graphite microdisks 10 Cleavage of graphite to graphene 11 Experimental evidence of a single nano-graphene 12 Novel electronic wave interference patterns in nanographene sheets 续前表 13 STM investigation of single layer graphite structures produced on pt(111) by hydrocarbon decomposition 14 Nanotube molecular wires as chemical sensors 15 Sensitivity of single multiwalled carbon nanotubes to the environment 16 Molecular electronics: From devices and interconnect to circuits and architecture 第三部分为引用经典文献的文献。文献间的引用关系表明了文献间知识上的相关性。海姆与诺沃肖洛夫二人 2004 年后发表的文献中,有五篇在 SCI 中的被引次数超过 1000 次。这五篇文献的标题见表 2 : 表 2 海姆与诺沃肖洛夫被引频次最高的五篇文献 序号 文 献 标 题 被引频次 1 Electric field effect in atomically thin carbon films 5371 2 The rise of graphene 3781 3 Two-dimensional gas of massless Dirac fermions in graphene 3548 4 Raman spectrum of graphene and graphene layers 1184 5 Two-dimensional atomic crystals 1107 表 2 中第一篇文献是海姆与诺沃肖洛夫发现石墨烯的经典文献,其余四篇文献在标题中都含有主题词“ graphene ”(石墨烯)。引用这些文献的文献则可以视为与石墨烯有研究相关。以上述三种方式在 web of science 中进行检索,合并去重后得到的数据可以认为基本覆盖了石墨烯的相关研究。 2.2 检索结果与数据处理 按前述检索策略,在 web of science 中检索,结果见下表 3 ,这些文献的年度分布见图 1 。 表 3.3 石墨烯数据检索结果 步骤 检 索 方 式 检索结果 1 主题检索,检索词为 “graphene” ; 检索式为 TS= “graphen*” ; 时间范围: 1945 年至 2011 年 10 月 18 号;文献类型:论文( article ) 12947 2 文献耦合;时间范围: 2004 年以前(含 2004 年); 文献类型:论文( article ) 1083 3 被引参考文献检索 ;文献类型:论文( article ) 7937 合并去重总计: 14531 图 1 石墨烯研究文献年度分布 图 1 表明文献在年度间的分布极不均衡。为了便于统计分析,本文采用如下原则对文献进行分组: 1 )由于石墨烯的发现是在 2004 年,故以 2004 年为界, 2004 年(含 2004 年)的文献为一组。 2 ) 2005 年后的文献以组内文献数量差异最小且同一年度内的文献不得分割为原则进行分组。分组结果见表 4 。 表 4 石墨烯研究文献分组结果表 组别 时间段 时间标记 所含文献数量 1 1956 年 —2004 年 2004 年 2023 2 2005 年 —2008 年 2006 年 2753 3 2009 年 2009 年 2163 4 2010 年 2010 年 3609 5 2011 年 2011 年 3985 3. 结果与讨论 利用 CitespaceII 软件对处理后的数据进行共被引分析。时间范围设置为 2004 年至 2011 年;时间间隔为 1 年;三阶段阈值( c 、 cc 、 ccv )分别设置为( 45 、 45 、 0.16 )、( 60 、 60 、 0.16 )、( 60 、 60 、 0.16 )。各时间段数据处理结果见下表 5 。 表 5 石墨烯研究文献各阶段处理结果 时间段 时间标记 阈值 参考文献数 节点数 边数 1956 年 —2004 年 2004 年 45 、 45 、 0.16 28587 51 264 2005 年 —2008 年 2006 年 52 、 52 、 0.16 33377 122 845 2009 年 2009 年 60 、 60 、 0.16 27973 82 571 2010 年 2010 年 60 、 60 、 0.16 46893 148 958 2011 年 2011 年 60 、 60 、 0.16 61121 149 817 去重后合计 283 2337 在表 5 中,阈值一栏中的数值表示 CitespaceII 软件根据插值算法分配给各时间段的阈值。如 2009 年时间段的阈值为( 60 、 60 、 0.16 ),表示在这一时间段只分析出现次数达到 60 次或以上,并与其他参考文献共现值达到 60 次或以上的参考文献。 0.16 表示只统计达到上述阈值的节点间按余弦指数计算的共现强度达到或超过 0.16 的连接边。参考文献数为该时间段文献中所含的全部参考文献。节点数表示达到阈值的参考文献数量。边数为这些节点间达到共现强度阈值的连接边数。最后的合计表示合并重复的参考文献后得到的各时间段节点数与边数的总和。通过 CitespaceII 的可视化功能,生成上述分析结果的共被引知识图谱。见图 2 。 图 2 石墨烯共被引知识图谱 在图 2 中,各个时间段节点间的连线用冷色调至暧色调的变迁加以表示。如左下方的深蓝色连线表示其生成的时间为 1956 年— 2004 年,淡蓝色的部分为 2005 年至 2008 年的数据形成的连线,绿色连线代表 2009 年,黄色代表 2010 年,橙黄色代表 2011 年。连线的粗细取决于两个节点的共现强度。节点的大小与其在达到阈值的数据集中被引频次成正比,点越大表明被引次数越高。外圈为紫红色的节点表示其在共被引网络中具有较高的中介中心度值(≥ 0.1 ),它们在整个共被引网络中起着知识转折和桥梁的作用。图 2 中黑色字体标示出了部分高中介中心度节点的基本信息。表 6 列出了中介中心度值大于等于 0.05 的节点文献信息,包括标题、作者、被引频次和中介中心度值。文献按发表时间升序排列。 表 6 中介中心度值大于等于 0.05 的节点文献指标统计 序号 作 者 时 间 频次 中心性 文 献 标 题 1 Hummers WS 1958 1092 0.1 Preparation of graphite oxide( 石墨烯氧化物制备 ) 2 Iijima S 1991 1119 0.13 Helical microtubules of graphitic carbon ( 石墨碳螺旋微管 ) 3 Nakada K 1996 798 0.57 Edge state in graphene ribbons: Nanometer size effect and edge shape dependence( 石墨烯纳米带 的边缘态:纳米尺度效应与边缘形状依赖 ) 续前表 4 Dresselhaus MS 1996 240 0.28 Science of Fullerenes and Carbon Nanotubes ( 关于富勒烯与碳纳米管的科学 ) 5 Perdew JP 1996 789 0.07 Generalized Gradient Approximation Made Simple ( 广义梯度近似简化 ) 6 Saito R 1998 463 0.54 Physical properties of Carbon Nanotubes ( 碳纳米管的物理特征 ) 7 Wildoer JWG 1998 189 0.13 Electronic structure of atomically resolved carbon nanotubes( 原子层面下决定碳纳米管 的电子结构 ) 8 Odom TW 1998 202 0.11 Atomic structure and electronic properties of single-walled carbon nanotubes( 单壁碳纳米管的 原子结构与电子特征 ) 9 Kong J 2000 467 0.2 Nanotube Molecular Wires as Chemical Sensors ( 做为化学传感器的纳米管分子线 ) 10 Novoselov KS 2004 4976 0.53 Electric Field Effect in Atomically Thin Carbon Films ( 原子级碳薄膜中的电场效应 ) 11 Novoselov KS 2005 3337 0.21 Two-dimensional gas of massless Dirac fermions in graphene( 石墨烯中无质量狄拉克费米子二维气体 ) 12 Zhang YB 2005 2859 0.14 Experimental observation of the quantum Hall effect and Berry's phase in graphene( 对石墨烯中量子霍 尔效应与贝里相位的实验观察 ) 13 Berger C 2006 1364 0.11 Electronic Confinement and Coherence in Patterned Epitaxial Graphene( 石墨烯磊晶中的电子监禁与相干性 ) 14 Stankovich S 2006 1207 0.06 Graphene-based composite materials. ( 石墨烯复合材料 ) 15 Ferrari AC 2006 1119 0.05 Raman spectroscopy of graphene and graphite: Disorder, electron–phonon coupling, doping and nonadiabatic effects( 石墨与石墨烯的拉曼光谱: 失序、电声子耦合、杂质与非隔热效应 ) 16 Son YW 2006 776 0.05 Energy Gaps in Graphene Nanoribbons ( 石墨烯纳米带的能隙 ) 17 Geim AK 2007 3489 0.24 The rise of graphene( 石墨烯的兴起 ) 18 Stankovich S 2007 837 0.05 Synthesis of graphene-based nanosheets via chemical reduction of exfoliated graphite oxide( 通过对氧化外延型石墨的化学还原合成石墨烯基纳米片 ) 19 Li XL 2008 847 0.07 Chemically Derived, Ultrasmooth Graphene Nanoribbon Semiconductors ( 用化学方法制备超平滑石墨烯纳米带半导体 ) 20 Li D 2008 790 0.06 Graphene-Based Materials( 石墨烯材料 ) 21 Park S 2009 508 0.05 Colloidal suspensions of highly reduced graphene oxide in a wide variety of organic solvents( 在各类有机溶剂中高还原石墨烯氧化物的胶态悬浮 ) 这些文献构成了石墨烯发现前后的知识链条。在这个链条中,凯姆是两篇关键节点文献的通讯作者: 1 ) Atomic structure and electronic properties of single-walled carbon nanotubes( 单壁碳纳米管的原子结构与电子特征 ) ; 2 ) Experimental observation of the quantum Hall effect and Berry's phase in graphene( 对石墨烯中量子霍尔效应与贝里相位的实验观察 ) 。这两篇文献在石墨烯发现前后的链条中都具有较高的中介中心度值,其中后一篇有关石墨烯重要性质的文献(量子霍尔效应与无质量狄拉克费米子)的被引频次达到 2859 次。前一篇发表于 1998 年,后一篇发表于 2005 年,表明凯姆在石墨烯发现前后都起到了重要的作用。尤其是 2005 年的文献,直接引发研究石墨烯的链式效应与热潮,并使人们看到石墨烯在电子工业领域的广泛应用及其前景。另一方面,希尔只有一篇文献在链条中处于关键位置:发表于 2006 年的 Electronic Confinement and Coherence in Patterned Epitaxial Graphene( 石墨烯磊晶中的电子监禁与相干性,希尔是通讯作者 ) 。这表明希尔在石墨烯了现后做出了比较重要的贡献,但在石墨烯发现前所做的研究相对普通,并不象他在质疑信中所言对石墨烯的发现起到关键作用。虽然希尔较早在基底上生长出石墨烯,但是他并没有进一步对石墨烯的各项性质展开相应的研究,说明其并未意识到石墨烯发现所具有的重要意义。石墨烯发现前后的文献链条,既表明海姆等人获奖的合理性,也佐证了海姆关于凯姆应当共享诺贝尔奖的观点。 参考文献 Wenstock M. Citation indexes . Philadelphia: Institute for Scientific Information, 1972. Price D . Networks of scientific papers . Science, 1965, 149(3683): 510-515. Small H . Cocitation in scientific literature: new measure of relationship between 2 documents . Journal of the American Society For Information Science, 1973, 24(4): 265-269. Chen C, Chen Y, Horowitz M, et al . Towards an explanatory and computational theory of scientific discovery . Journal of Informetrics, 2009, 3(3): 191-209. Burt R S . Structural holes . Boston: Harvard University Press, 1992: 311. Freeman L C . Centrality in social networks conceptual clarification . Social networks, 1979, 1(3): 215-239. Kessler M M . Bibliographic coupling between scientific papers . American documentation, 1963, 14(1): 10-25. Kessler M M . An experiment in playmaking through a creative approach with high school seniors . IEEE Transactions on Information Theory IT-9, 1963: 49-51. Chen C . Citespace ii: detecting and visualizing emerging trends and transient patterns in scientific literature . Journal of the American Society for Information Science and Technology, 2006, 57(3): 359-377. 陈 悦 (1975-) ,女,大连理工大学 WISE 实验室副教授,博士生导师,研究方向为科学计量,科研评价,情报分析。 邢黎黎 () ,女,大连理工大学 WISE 实验室硕士生,研究方向为科学计量,区域经济。 滕 立 (1970-) ,男,大连理工大学 WISE 实验室博士生,现为郑州航空工业管理学院讲师,研究方向为科学计量,科研评价,情报分析。
7768 次阅读|21 个评论
论文大PK:到底谁重要?
热度 25 book 2012-11-8 21:08
研究论文( Original article )、综述文章( Review )、观点或评论文章( Letter 、 Comment )等,到底谁更重要?按说这不该是一个什么问题,但在量化评价体系下,倒也成了一个众人关注的问题。看 Nature 十月份一篇 Correspondence 提到评价的事儿,于是想说说这个话题。 国内很多大学统计绩效的时候有一项是填写论文字数,可能觉得论文字数多了才是好论文(如果您单位统计字数,请给说说字数怎么用于评价)?我觉得这实在不靠谱,没法评价论文的重要性。首先,不同期刊对论文字数要求本就不同。有的刊物对研究论文字数没有严格要求,你可以写 7 、 8000 字甚至更多;而有的刊物明确限制不能超过某个字数,比如 2500-3000 字。甚至有时候越好的刊物越限制字数,也是对表达能力的要求。那么,你单位怎么评价啊, 3000 字以下的就会比 3000 字以上的文章差?当年发现 DNA 双螺旋的文章,也就才一页纸,你能说它字数太少不重要?另外,一篇论文所提供的信息的价值,跟字数并没有正相关性。 很多人说肯定研究论文最重要嘛,没有研究论文的累积综述从哪儿来。也有人说综述重要,毕竟是对某个领域或问题的系统梳理。还有人说 Letter 、 Comment 等才一页纸,不算什么。不过,要客观评价,还真得略详细点看。 1. 研究论文 PK 综述文章 研究论文的功能是积累新的科学证据。如果你的研究论文发现了别人没发现的、解释了别人没解释的,提供了对领域发展有用的证据,那肯定重要。但每年发表的研究论文何其之多,很多论文提供的一点结果可能无关紧要。这还不怕,毕竟提供了新证据。还有很多研究论文,其实是重复建设,丝毫没有提供任何新证据。这时候怎么好意思说研究论文重要? 综述论文的功能是提升理解。把散落的已有证据综合起来,提出对某个领域或科学问题新的看法,就是有价值的综述,一篇研究论文恐怕少有这个功能。有的综述,能够 引用 2469 篇参考文献 ( BMC Medical Genomics 2009, 2:2 ;见文后信息),实在叹为观止。不知道有没有比这个更厉害的?现在越来越多的综述论文属于文献堆砌,并没有作者新的观点,这就属于不成功的综述。有没有提出新的理解,是评价综述文章价值的标准。 我向来认为,综述文章比大多数研究论文重要。 2. 其他论文不重要吗? 我觉得按文章所提供的信息,或者说功能性划分,可以大体分为两类:一类是研究论文,主要功能是积累新的科学证据;另一类包括综述文章、观点和评论文章等,主要功能是表达观点。如果其他论文很好地实现了自己的功能,当然重要。 有的人觉得观点和评论文章不重要,其理由是这类文章可能没有同行评审过程,但这个观点需要更新。同行评审与否跟期刊政策和文章具体内容有关。有的期刊此类文章发表与否由编辑决定(其实这也是一种同行评审),主要面向评论该期刊所发表论文的文章。但其实,很多好的刊物发表原创观点文章时,有严格的要求,虽然短,也需要文章自成体系,也需要同行评审(并不是有人认为的没有同行评审)。客观地说,观点也是建立在对领域理解的基础上,只是不需要实验的堆砌,不需要那么多文字罢了。 3. 到底谁重要? 评价一篇文章或一个工作重要与否的唯一标准,是有没有提供有价值的信息。对于研究论文来说,提供了重要的新科学证据,它就重要;对于综述、观点和评论文章,表达了有价值的观点,它就重要。研究论文写了 8000 字,如果只是重复前人的工作,没有新的发现,也不能算有价值。一篇观点文章哪怕短,但表达了影响领域进展的观点,也是好文章。 所以我没法理解只凭字数和文章类型评价文章价值的做法,如果你连文章的内容都没看过,凭什么说谁更重要? 引用 2469 篇参考文献: Kell DB. 2009. Iron behaving badly: inappropriate iron chelation as a major contributor to the aetiology of vascular and other progressive inflammatory and degenerative diseases. BMC Medical Genomics , 2:2 . 集合现有证据,提升理解: Lander AD. 2010. The edges of understanding. BMC Biology , 8:40. 【调查讨论】 你投入在科研上的时间有多少 ?
个人分类: 科学那些事儿|19048 次阅读|34 个评论
h指数评价科研人员的不靠谱性
热度 36 book 2012-9-15 10:39
现在 h 指数有愈加流行的趋势,大家认为相较于影响因子, h 指数能从总体上更客观地评价研究者的水平。影响因子更多地是对期刊的评价,而 h 指数则兼顾了研究者的被引次数和文章数量。文双春老师被推荐至头条的博文用了个刺激人的题目《 h 指数准确预测科学家伙能否成大器 》。但其实,姑且不论预测一个家伙能否成大器是很难的一件事儿,如果从 h 指数计算的本质来看,它仍然有不靠谱性。 一个缺陷是,基于不同的检索数据库如 Web of Science 、 Scopus 、 Google Scholar ,算出来的某个研究者的 h 指数常常不一样,这跟数据库的收录范围有关。这时候,我们选择用哪个?估计很多人愿意用比较高的那个。这三个里头,更多时候或许 Google Scholar 给出的 h 指数最高,我发现它有时会将非论文的材料算作引用(如果这个材料提到了你的文章)。实情是,这些检索数据库并不能体现你文章的所有引用,比如 WoS ,更侧重于 SCI 收录期刊的引用,直到最近才稳定的将一些中文期刊的引用算进去。另外,不同学科领域被这些检索数据库收录的程度不同,比如分类学期刊被收录为 SCI 的比例小,而分子生物学和医学则高很多。因此,不同领域科学家的 h 指数其实并没有太多可比性。 但我觉得一个更加值得关注的缺陷是: h 指数没有区分作者的实际贡献 。 来看一个简单的例子。 A 和 B 是紧密的合作者,两者共同发表论文,共同署名了 20 篇引用次数超过 20 的文章。这时候两者的 h 指数都是 20 ,表面上看好像科研水平相当。但是,在这 20 篇文章中, A 是 15 篇文章的第一作者,而 B 只是 5 篇文章的第一作者。很明显, A 作者应该有更大的贡献。所以, h 指数倾向于对大的研究团队有利,多个合作者会共享比较高的 h 指数(大合作的实验学科就比常单兵或小集团作战的理论学科 h 指数高),这种情况下混淆了不同作者的实际贡献。 要真正衡量研究者的实际贡献,应该对 h 指数做适当的改进。比如, 只统计某位研究者作为第一作者或通讯作者时的 h 指数。 对于上面的例子, A 的 h 指数就应该是 15 ;而 B 是 5 。这个简单的改进也是很粗糙的,因为有时候难以界定研究者在非第一作者文章中的实际贡献。 为了让评价更细致客观,可以考虑在 计算 h 指数时对不同顺序的作者有个权重 。比如,第一作者权重为 1 ,第二作者权重为 0.7 ,第三作者为 0.4 。如果第一作者同时是通讯作者,那么权重为 1 ;如果通讯作者非第一作者,其权重计为 0.8 。还是上面的例子,假定 A 是 15 篇文章的第一作者,是另 5 篇的第二作者; B 是 5 篇文章的第一作者,另 15 篇的第二作者。这时候计算两者的 h 指数: A 为( 15*1 + 5*0.7 ) =18.5 ; B 为( 5*1 + 15*0.7 ) =15.5 。我们可以发现,用现有的计算 h 指数的方法, A 和 B 用 h 指数所代表的科研贡献都被高估了,并且现有的方法掩盖了 A 和 B 实际贡献的大小。 不知道科学计量学领域是否已经有人用这个思路修正 h 指数,我在 Scientometrics 期刊用“ author+order ”做关键词进行检索,没有发现相关的论文发表。如果还没有关于作者顺序对 h 指数影响的研究发表,我建议相关领域的同志们考虑下这个问题并且设计一定的算法。当然要考虑到其他一些问题,比如作者排名的权重问题(即如何更客观地衡量在文章中的实际贡献)。同时,也不得不考虑到修正算法的简洁性,太复杂不利于推广使用, h 指数和影响因子之所以能流行,就是因为其简单性。当然,对于发表论文时作者不按实际贡献排名(比如可能按名字字母顺序)的领域,就要想其他能反应实际贡献的修正算法。 注: 本文是想谈h因子可能存在的缺陷,希望大家能提出相应的看法,而非说h指数没有合理性,或者说建议只看第一或通讯作者。留言中有些同志说“你整个标准出来”,我觉得这是非理性的讨论方式,恕不予回复。从大家的留言可以看出,很多人都认为用某个指数评价人不靠谱,所以需要思考的是如何更综合地评价。
个人分类: 科学那些事儿|20362 次阅读|50 个评论
科研评价:数量 & 质量
热度 8 book 2012-9-13 20:22
科研评价:数量 & 质量
2012 年 9 月期的 Trends in Ecology Evolution 发表了一篇挺有意思的文章,题目是 “ 学术界沉迷于数量 ” 。法国生态学家 Joern Fischer 及其同事在文章中提到: “ 我们生活在一个到处都是排名的年代,大学得排名,期刊得排名,研究人员也得排名。在这样的年代里头,研究者的价值被发表论文的数量、引用次数、经费数额来衡量。 ” 他们提到,现在的学术界正被一个简单的规则所调控: “ 越多越好( more is better ) ” 。 奖励多产的科学家从表面上看没什么问题,数量指标也曾被用作评价研究者绩效的主要手段,但只基于数量评价的方式已经走到头了(虽然在很多国家和单位依然使用)。主要的原因是:一旦科学家开始不停的迎合某种评价方式,那么这种方式实际上就开始失去了它一开始的意义。比如,以前如果科学家一年发表 10 篇文章被认为高产,而现在的情况是一些大实验室一年可以发表 30 篇甚至 40 篇文章。这在大实验室和广泛合作的团队中才能实现,并且要基于大量的经费支持。现实中的一个循环是:高产的实验室往往更容易获得经费从而使实验室发展的更大从而获得更多的经费。但实际上,从效率比或投入产出比来看,并不意味着大实验室就能做更好的科学。另外,在数量评价的驱动下,(在生态和进化领域)现在的研究文章越来越短、综述文章越来越成为文献堆砌而缺少有质量的新观点、更多人喜欢发基于计算机模型的研究而非野外研究、越来越少期刊会发表有争议的观点。 虽然有的科学家或者研究团队即高产又富有质量,但学术界的总体情况是,大家越来越忙着发更多的文章、争取更多的经费、以及每天发更多的 email 。这种模式严重影响了产生真正智慧并促进科学发展的两个先决条件:创造性和思考。这两者都需要一个宽松、合作的环境,而不是很大压力下的环境。回想科学发展史,很多划时代的文章往往都充满了智慧的思考,是推测性的。现在,这样的文章还能发表吗?并且有多少人能静下心来读这样的文章? 数量驱动的科研模式也严重影响了人与人交往的质量,比如,很多导师太忙而无法给学生足够的指导,越来越多的人不得不工作更长的时间(被很多人看作成功的必要条件)。但实际上,难道洞察力、主动性和创造性不是更容易在生活和工作达到平衡的状态下产生吗?(提倡延长工作时间的做法,其实妨碍了一个真正健康的人的发展。我觉得应该做一个调查研究:科学家的科研成果和家庭幸福感的关系。) 科研评价有关的话题永远是大家普遍关注的,很快有三个巴西的生态学家回应了 Fischer 等人的文章。 Loyola 等人认为讨论科研评价,也要考虑到不同地域的科学发展阶段。对于巴西这样的发展中国家,现阶段数量评价对于科学发展的促进作用更大。比如,巴西的两大资助结构 CAPES 和 CNPq 都基于期刊的 JCR 分区( A1 , A2 , B1-B5, C )来评价科学家,计算科学家在不同分区的文章数量。正是在这种模式的驱动下,巴西的生态学家越来越能够在高等级的期刊上发表更多的文章。所以他们认为与科学发展更发达的国家如德国和美国相比,数量评价(或者说兼顾数量和质量)模式在巴西是走向质量评价的一个必经阶段。(其实巴西和中国在很多方面具有相似性。并且一个国家的不同地区也有不同的科研考核机制,比如北京、上海等科研水平较高的地区可能更看重质量考核,而地方性大学则更多地采用数量考核及更加平均的机制。) 针对科研评价的现状,为了促进基于质量的考核以及营造利于创造性和思考产生的环境, Fischer 提出了包括自上而下(政策机构、资助结构、研究机构)及自下而上(科学家个体)的措施。见下图。这些建议可以说是一个措施的集合,其中很多大家或许都已有讨论或者实施,但也有挺多没能好好去做。比如,你在尝试控制自己的研究组不要过大吗?你在合理使用经费吗?你兼顾了工作和生活的平衡吗? Cited from Fischer J. et al. (2012) 相关文章: Fischer, J. et al. (2012) Academia’s obsession with quantity. Trends Ecol. Evol. 27, 473-474. Loyola, R.D. et al. (2012) Obsession with quantity: a view from the south. Trends Ecol. Evol. http://dx.doi.org/10.1016/j.tree.2012.07.016 Fischer, J. et al. (2012) An academia beyond quantity: a reply to Loyola et al. and Halme et al. Trends Ecol. Evol. http://dx.doi.org/10.1016/j.tree.2012.08.009
个人分类: 科学那些事儿|5764 次阅读|7 个评论
忽视SCI自引公正合理吗?
热度 6 Fangjinqin 2012-6-16 15:32
忽视 SCI 自引公正合理吗? 现在 , 我国学术界以及高等院校、学会甚至行政系统都重视并只看论文的 SCI 被他引次数。这固然是一方面。但是 为什么要忽视 SCI 自引?这样 公正合理吗? 只看 SCI 他引 ? 我认为,这种观点和做法并不全面,也不完全正确,应该同时于以考虑,才是对事物的两点论。理由如下。 (1) 论文作者对他自己相关的科研成果是最熟悉和了解的,并且一般是在原来自己论文工作或成果的基础上,受到启迪而激发产生了新思想和新方法,可见对新论文工作有最直接的影响和贡献的首先是自己的论文,是原来研究的继续发展。因此,这时自引是非常必要和重要的。我们为什么要忽视自引呢?这是不符合科研的实际过程。当然如果存在引用无关的论文,或滥竽充数,当需别论,具体情况要具体分析。 (2) 许多重要科研成果是相互关联的和承前继后的,无不与以原来的或相关的工作紧密联系在一起。许多人有亲身体会,不再举例重述了。 (3) 值得注意的是,有的他引文章是应杂志编辑部要求或希望作者引用在他们杂志上发表的论文,当中难免有点牵强附会,不如自引重要性。有的他引是把“名人”文章作为装饰和美化自己的文章,关系未必大。 (4) 即使是 SCI 引用,也有垃圾情形,实际 SCI 并不那么重要,必须区别不同情况。科学史上有不少在不出名的杂志(当时不是 SCI )上发表的文章却成为开创性的工作,例如罗伦茨关于混沌和李天岩“周期 3 意味着乱七八糟”等。 (5)另据报道,最近美国 ASL( Advanced Science Letter ) 被 SCI 检索系统剔除出户,其事件已经说明 SCI 并非“价真货实”,该期刊更非真正的高档期刊,而科学院把那些分在 4 区的期刊,也非所谓的低档期刊。中科院的分区,完全割裂期刊发展历史,在业界认可程度,以所谓“数据”为依据,实在荒不可谬。请 看: http://blog.sciencenet.cn/blog-117889-583049.htm 如此等等,不胜枚举。 因此,我认为,对于合理的自引和真正的他引都应该得到公正的评价,不应该过分抬高一方而忽视另外一方。应该同时并重,尽量做到客观公正和合理评价。
个人分类: 杂谈评论|5086 次阅读|7 个评论
[转载]从影响因子引发的联想---谈谈中国学术状况与出路[汪丁丁]
热度 1 histly 2012-3-31 13:02
出处:http://wang-dingding.blog.sohu.com/209306075.html 这一次,因为是在写一篇博客文章而不是转发我在纸媒期刊发表的文章,依照我的习惯,服从搜狐博客的“填空”顺序,先有“标题”,然后有“关键词”,这样,我最先想到的是上列的五个关键词。明白的读者,不必再读,或可直接“出路”——如果我有时间写。而且我决定不采取写一段贴一段的办法,如果最后的作品丢失了,那也是“天意”。 影响因子的计算方法不唯一。首先,这是中国官僚们出国考察从西方学术界抄袭得到的。 其次,谁来计算并提供权威的影响因子的排行呢?一开始或许有许多机构都可以提供这类服务,但后来呢,事情就有了实质性的突破。目前, 国内提供这一学术指标的机构,同时也占据着最肥沃的“寻租”领域 。当然,我希望将来会出现多家指标竞争局面。 其次,影响因子的排序,外行看热闹,官僚们都是外行,但他们负责发放科研经费,巨大数额的,最小单位是十万元,最大的单一科研项目经费或许是数百万元,每年通过教育部发放的经费,我孤陋寡闻,十年只参加过一次这样的会议,我估计总要发放数千亿元,或者,数千亿元的经费是通过影响因子这样的“验收指标”的排序来发放的,诸如“重点”、“基地”、“ 985 ”这样的项目,十年的经费总量不止千亿吧?这些指标排序当然不是“潜规则”,它们是 官僚体制维持正常运行的必要程序 。否则,官僚体制与土匪分赃就难以区分了。官僚不是土匪,因为管理着中国这样一个需要日理万机的社会,规模导致程序,从而导致官僚化。闲话少说。影响因子的排序,外行是看热闹的,官僚们看的,主要是期刊的影响因子排序,例如,《经济研究》和《中国社会科学》,在我们经济学界是“权威级刊物”, 海外的英文期刊,排序前十名的,自然在国内权威刊物之上。 至于排序到多少名以后的英文期刊就可与国内权威期刊相比较,我不知道。各大学经济院系评职称和发放奖金,大约从 2003 年以后, 我始终认为 2003 年宏观调控是中国社会走入迅速官僚化轨道的转折点, 从那以来,院系和教育部的钱,只要你谈学术规则,主要就是按照这套规则发放。越是接近三流的大学,对《经济研究》发表文章的奖励就越重。我听学生说过,某三流院系,一篇《经济研究》可得十几万甚至更高的年终奖励,外加职称和住房之类的福利。此外,如果你那篇在《经济研究》发表的文章的影响因子排序很高(注意,是文章的不是期刊的),你可以追求遵守更严格的学术规则来配置学术资源,这就意味着,你可能参加各项诸如“长江学者”这类名头的评选和选评,并且 通过这类工作参与更内部的(当然也就是更高层次的)资源瓜分的游戏,因为你现在是圈内的评委,你当然可以与其他评委讨价还价,这和我们现在的政治游戏是一样的。 以我对西方学术界的了解,西方的学术资源配置绝不是我们这样官僚化的。如果我们向西方介绍中国特色的学术发展经验,介绍这一段的时候,我认为必可引发广泛的嘲笑,如同地方官员的 GDP 考核一样,将中国各院系的学术整体地维系于影响因子考核,不可笑吗?不可耻吗?不感到有罪吗? 潜规则呢?我不是局内人,当然也不清楚“潜规则”。不过, 多年前我警告过《经济研究》的主持人,假如将来我听到他借助这份期刊寻租的消息,我不会轻易放过。另一份权威期刊也是如此,我是说《中国社会科学》的主持人。 道理太简单了,你们看守着数千万元的寻租领域,你们怎么让大众放心呢?谁监督你们呢?我们怎样监督你们呢?你们有财产公布制度吗?至于一般编辑的收入,学生们都明白,与“版面费”密切相关。他们与中间商怎样分成,我们没有调查清楚,但我们有一张版面费的期刊排序,可用来近似这些学术期刊寻租学术的水平。 更内部游戏的潜规则,瓜分的当然不是版面费这样的小钱。例如,一个“社会科学重点研究基地”的拨款是两千万元。我的一位朋友曾抱怨,整夜要陪教育部一名处长,花费万元以上,是来“验收”我们的 。根据我的数量有限的“抽样观察”,如果一家三流或二流大学或学院想报请教育部批准一个博士点,五年前的行情,大约要准备数百万元的资金投入。回报当然远比数百万元高,当然,这是假设院系领导人“大公无私”。 现在大学毕业生求职,要按照 211 或 985 来区分,所以,还没有进入 211 的大学或已经是 211 的还没有进入 985 的大学,要准备充足经费,“跑部”进入。教育部的官员当然也要回报,夜生活开销,那是小钱,真正严肃的回报是要当大学校长,副部级待遇的大学校长。 学生家长很辛苦,或许现在的家长是长期视角下最辛苦的一代家长。首先,与西方学生的家长相比,中国这样转型期社会的家长必须推测四年以后这家大学这个专业的命运如何?考公务员命运如何?学生核心价值观如何?学生长期的幸福如何?诸如此类。还有,投资的回报如何?为了这些回报,到哪里念中学?到哪里念小学和幼儿园?怎样进入?花费多少?这方面的复杂权衡,我写了不少“教育”文章,有所探讨。 学术“影响因子”或政府官员“ GDP ”这类单一指标的官僚化管理,当然可以逼迫年轻人自杀或过劳死。因为,如果你读了上面的文字,应可想象,这里有一种类似“幂律”的趋势在起作用。你可以参与学术资源的瓜分,如果你已经是局内人。你不能参与,如果你还不是局内人。怎样从局外进入局内?可循八万四千法门,各显神通。总之,你要承受“异化”的痛苦,心灵的异化,当然,你可能无法承受,疯狂或自杀,或者谋杀之类的事情。我说中国社会的官僚化,就是这个意思。通常的官僚化是在管理体制之内,而不是全部社会的。 现在我们看到的是全社会的官僚化,最可悲,也最无希望。 幂律的趋势是:局内人越少,给定可瓜分的资源,人均收入就越高。不要忘记, 局内人制定规则,局外人服从规则,否则无法进入局内。于是,局内人的集体无意识或“共谋”就是要将规则变得越来越严格 。十年前你从国外大学毕业回来?欢迎你。现在你回来?从名校名师名 ?? ?否则,自杀或者是另觅职业。确实如此,海外多年的学术生活,让这些灵魂开始高尚起来的年轻人实在无法适应国内官僚化的生活,最自然的选择是自杀。 黑暗即将过去?我希望如此。 出路?有,我多年前讨论过这一问题。当时我的结论,今天仍成立。那就是,首先, 大学属地化,即各大学校长只向当地的人民代表大会负责 ,具体而言,这方面或可抄袭西方成熟经验:首先是初等教育和幼儿教育,定期由社区竞选并由当地人民代表大会任命“学业总监”,负责管理小学中学乃至大学的经费并聘任校长并管理问责体系。社区家长和教师们最了解孩子们接受的是什么样的教育。各地的大学招生都是面向全国的,故而不会缺少竞争。学区优秀,房地产价值就上升,社区也就逐渐繁荣起来。这一“首先”的首先,可想而知, 是各地人民代表大会的独立性——政治的和经济的 。所以,改革初期,有一个正确的改革纲领,里面有“两个分离”的口号。党政分离与政企分离。 为落实“党政分离”,后来有一位著名学者提出的途径是“党员属地化” 。我认为,这件事仍可以做下去。 民主,是一套制度,包括程序。制度是一个整体,如同计划经济是一个整体一样。整体的意思是,牵一发而动全身,要么民主,要么没有民主。想要一部分民主一部分计划,是空想,永远是空想 。逻辑如此。现实呢?所以,我没有想清楚我想要的。 不论你设想的出路怎样与我的不同,不论你们有怎样千差万别的设想,理想的状态是什么? 学术的理想状态是每一名教师或学生,只服从内在的评价而不必服从外在的任何标准。 为要落实这样的理想,或许哪怕可以接近一些,首先要有的是“心性修养”。难了,这是我在其它文章里探讨的主题。
1949 次阅读|2 个评论
捡数数的那点说评价那点事儿?
热度 25 cwufp 2012-1-29 08:41
武夷山老师的博文 只有中国在搞论文发表激励吗? 很多人看,也有很多人在说,不管大家都说了什么,说明关心。 鸿飞兄一大早(对他而言是深夜)也发了一篇 研究流水帐 ,简述了他再次去美国后的工作和取得的成绩,顺道也说了一下关于论文评价的一些观点。 俺推荐了鸿飞兄的博文,没有推荐武老师的博文。尽管,在这两位博友名下所有博文中,推荐名单里出现我的ID的几率是反过来的。 武老师在他的文章中举例说: 韩国从 2006 年起推出了类似的政策,对于在《科学》、《自然》和《细胞》三大名刊上发文的第一作者和通讯作者,奖励 300 万韩元(约合 2800 美元)。 这个数,对于一些大学老师来说,或许是一个不大不小的钱数,对于国民收入几倍于我们的韩国的教授而言,估计只是零花钱,连小金库也算不上。相比于中国的奖励,这点也只是一个零头,甚至可以说是零头的零头。 上次,韩国的几个教授访问我的实验室,其中一个教授是韩国总统科技顾问。当我向他们介绍实验室技术转让的情况,他张大嘴巴说:您夫人一定对您很满意。 俺很惊诧,忙问:为何? 答曰:在韩国,技术转让收入的一半是奖励给科技人员个人的,在纳米技术这样领域能做到上千万的技术转让费,在韩国估计夫人会为有这样的丈夫自豪,也会很满意。 俺羞怯怯的回答,俺没法让老婆满意,因为这些钱我管不着,既不能拿回家也不能变着法花掉,只是课题组的科研经费。除了工分上体现出来多了几分,啥也不是。 该顾问大人当时瞠目,说,您来韩国科学院物质研究所工作吧,保证不是现在的收入。 俺知道,俺做了十来年纳米技术的研究,产出是几个专利和一些厂家在生产的产品,至于经济效益和社会效益,俺不知道是几十亿还是几百亿,没心思去统计。不过,俺知道,在国内现有的评价体系中,俺的这点研究在大多数科研人员中不如一篇SCI点数10以上的文章。俺自己的学术地位比那些发过SCI点数超过10的人还是差得很远,很远。准确一点的说,俺是那种被鄙视的下里巴人。 尽管在有些事情上俺和鸿飞兄观点相去甚远,但是,在有些事情上观点还是比较接近的。譬如,他喜欢把文章发在他认为的专业杂志上,这点俺很是赞赏。比那些追求点数的人不知道强多少。 俺并不想搀和任何的争论,却只想说出一点感受:科技除了论文的SCI点数就没有别的?能不能更全面一点的看一件事情,而不是挑一个数来解读?
5283 次阅读|65 个评论
一篇牛文:投PRL被拒,改投nature中了
热度 37 SoSoliton 2012-1-17 11:10
激光的发明,与原子能、计算机、半导体等一样,堪称 20 世纪以来最重大的科技进展。早在 1917 年,爱因斯坦就建立了激光原理,但直到 1960 年 5 月 16 日才由美国 物理学家 梅曼( T. Maiman , 1927.7-2007.5 )成功制造出世界上第一台激光器。梅曼迅速将他的工作写成一个简短的报道,投到美国物理学会刊物 Physical Review Letters ( PRL ),有意思的是,这种里程碑式的突破性进展报告竟然被 PRL 拒稿,梅曼急切地想将他的工作公之于众,于是立马将手稿改投比 PRL 更挑剔(more selective, Townes语)的英国 nature 杂志,没想到很快被接收并于 1960 年 8 月 6 日发表。 激光器( Laser )的前驱可以说是其长波长版的微波激射器 (Maser) ,两者都是基于爱因斯坦的受激辐射原理。 1950 年代, 相对于光波器件来说,微波器件要成熟得多,其研究队伍也要庞大得多,因此受爱因斯坦辐射原理的激励, 微波激射器受到强烈关注,特别是 1954 年美国物理学家 汤斯( C. Townes , 1915.7- ) 与他的学生合作独立地研制出第一台微波激射器之后,关于微波激射器的研究论文潮水般涌向 Physical Review 编辑部,以至编辑随后决定停止接收关于这一主题的任何论文 。这一决定自然也将 32 岁的梅曼第一篇报道激光器研制成功的论文拒之门外了。实际上, PRL 的编辑是一叶障目,并没有看清 梅曼工作的闪光点和价值,据 nature 报道, PRL 的编辑判定 梅曼的工作只不过是由汤斯等人领导的与微波激射器相关的系列研究工作中的又一个小插曲( just another episode in the stream of research related to masers, led by Charles Townes and others )。在激光对现代社会产生了如此重要影响的今天,因在 微波激射器和激光器方面的贡献而获得 1964 年诺贝尔物理学奖的 汤斯评论说:“梅曼的论文是如此之短而又产生了如此众多的巨大影响,以至我相信它可以看作是上个世纪 nature 发表的任何精彩论文中单个文字最重要的论文。” 去年 5 月,在激光发明 50 周年之际, nature 杂志将这一段历史翻出来说事:科学家很难判断他们本身的研究工作的价值或影响 ( impact ),爱因斯坦做不到,梅曼也做不到,因此公众不应期待科学家事先知道他们被好奇心驱动的研究会带来什么,政府更不应该专注于支持那些貌似有国际影响力( international impact )的研究。 在当今的学术评价特别是在项目评审中,有一种过份强调研究工作的价值或影响的倾向,而正如 nature 所说,“影响”真正意味着什么或如何衡量“影响”,人们其实并不清楚,因此判断一项研究工作的“影响”是一件伤脑筋的事情,而且也与目前的一些规范不相符。激光就是一个鲜明的例子, 与梅曼手稿被 PRL 拒绝同样令人不可思议的是,激 光曾被讥笑为 “ 一个寻找问题的解决方案 ” ( a solution looking for a problem ),说明一项科学发现在它开始之时要认识到它最终的价值是多么艰难。 对研究资助的最好回报并不总是那么显而易见的,特别是,绝大多数研究从来没有在任何地方产生过影响。 延伸阅读:《 最后一博:牛文不在牛刊 》 参考文献 Charles H. Townes, The first laser, from “A Century of Nature: Twenty-One Discoveries that Changed Science and the World”, ed. by Laura Garwin and Tim Lincoln, the University of Chicago Press, 2003 Nature editorial, Laser-guided impact, nature physics, 2010, 6: 317 Stefano Tonzani, All together now, nature material, 2010, 9: S10-S11
个人分类: 谈点正事|56932 次阅读|71 个评论
蛋儿为什么那样疼?
libseeker 2011-12-25 20:38
科学网吕喆先生《文章算个蛋?!》( http://bbs.sciencenet.cn/home.php?mod=spaceuid=111635do=blogid=521548 )指出:“看起来挺神挺玄乎的“文章”和普普通通的‘蛋’还是有很多相似之处的。”, “文章的情况其实也差不多,顺乎科学正常发展规律的科学发现或技术创新的文章数量虽然不多,但其意义却可能非常重大,必将处在科学技术发展和传承的主线之上。相比之下,在人们谙熟了文章发表的套路,能够借鉴比较成熟的思想和方法,可以依托完备的研究条件,动员大量人员参与的情况下,文章也不难像养鸡场里鸡群下的鸡蛋一样被批量地制造出来。 这些文章虽然各项指标不错,发表杂志(用于榨汁)的影响因子(营养因子)可能也很高,但其实际应用(营养)价值却有待考察。目前比较通行的看法是,好的文章就犹如营养价值高的蛋,被引用(饮用)次数会比较多。内容比较一般,没啥实质性创见的所谓“垃圾文章”,多半自能充个数,有的即使发表的杂志(榨汁)很好,也可能会长期放在那里无人问津。最差劲的是编造数据搞出来的假文章和仿制的抄袭文章,就如同用海藻酸钠制作的假蛋,只会被人拿来骗钱,却毫无使用价值,其制造者一旦被查获,必将被绳之以法。”,“文章如同鸡蛋,也要有其核心(蛋黄)和外围的支撑材料(蛋清),更少不了足够过硬的外壳,这样才能经受得住产蛋过程(编辑和审稿人的审查和作者们的修改)的折腾。发文章如同下蛋,下出来蛋之后会很开心愉快,所以下了个大蛋的老母鸡会“个个大”地叫上一阵子,着实要炫耀一下。文章已经写完可就是发不出来的作者会很郁闷,会像蛋被憋住下不出来的老母鸡一样地难受(小时候我家曾有只鸡因为蛋下不出来给憋死了)……” 科学网张守勤先生《也说蛋及其营养因子》( http://blog.sciencenet.cn/home.php?mod=spaceuid=4453do=blogid=521640 )进一步指出:“假蛋没有营养,因子=0,既然没有营养,还是没有为好;剽窃蛋,因子=-*(?),有害,也许还有毒,尽可能避而远之;外购蛋,因子≥0,有也无害,实在自产困难,不妨弄几个充饥; 会议蛋,因子>0,只要是自产,还是弄几个为好,一给会议组织者壮壮门面,二让与会者也充些饥;压迫蛋大概要分两种,被压迫和压迫别人。既然是被压迫,不得不有,给别人充了饥,可也别误了自己。也就是说,应当争取让它的营养因子>0,实在不行=0也可以接受,千万别是负值。压迫别人嘛,哈哈,那就看是压迫谁了。自己的学生不得不压迫啊,否则他的饭碗要成问题,这算善意压迫吧。这种蛋的营养因子应当>0。” 根据中国人民大学副校长冯惠玲 《 光明日报 》( 2011年12月22日16 版)( http://legal.gmw.cn/2011-12/22/content_3230528.htm )《以质量与创新为导向 完善科研评价机制》:“人民大学改进科研评价的主导思路是:突出质量和创新要求,淡化‘学术GDP式’的数量要求,弱化‘科研指挥棒’,鼓励教师自主治学,支持教师从容治学。减少行政性评价,鼓励教师潜心治学。新的变化主要有:一是简化。新方案简洁地规定了教师应达到的以论文为主要形式的科研成果基本任务指标,取消了核心期刊分级,取消了对教师的科研项目要求,取消了‘计分制’,实行代表作制和免考核制。二是分类。新方案进一步区分了教学科研型、科研为主型、教学为主型教师的不同考核标准,力求平衡不同岗位教师在教学科研方面的投入。三是灵活。与原有方案相比,在考核周期、成果形式及数量等方面增加了更多的弹性。试行延期考核制。四是分责。管理主体重心向学院转移,扩大了学院在科研管理方面的职能,形成了校院两级分工合作的考核体系。” 下一步将“根据人文与社会科学诸多学科的不同特点和发展规律,探索相应的、更加人性化的分类评价标准;继续加强学校、学院学术委员会的制度建设,充分发挥学术委员会在成果评价、项目评价、人员评价以及研究机构评估中的作用;加强与教务、研究生及人事管理部门的协同配合,积极试点新的与科研评价相关的改革。” 笔者以为,文章(包括各类论文、专著、编著等学术成果)真算个蛋!“疼”则兼指“疼爱”、“疼痛”或二者兼具的情状。下不了“蛋”——疼!下了“蛋”也疼,比如“蛋”下少了、“蛋”的“营养因子”不足,“蛋”被有关方面认定为烟雾蛋臭蛋等等。 科研评价机制是解决问题的万能钥匙吗?2011年笔者亲身参与了几次科研成果评奖,如省社科联(代表省政府)评奖,所在市社科联(代表市政府)评奖,省文化厅评奖等。有人同一成果省社科评为三等奖、市社科联亦评为三等奖;有人同一成果市社科联评为二等奖,省文化厅评为三等奖。按某高校的科研奖励政策是,省社科一等奖奖励标准为20万元,市(地级市)、厅级一等奖奖励标准为2000元。凑巧的是,本人关于如上几类奖项的评奖,著作类个人藏书中几乎一、二、三奖几乎全覆盖(有其中一种或数种),论文类中一二三等奖也浏览过一些。笔者的感慨是,评奖工作更多的是工作艺术,而距离“科研评价”甚远。 蛋儿为什么那样疼?以上文字似乎有了答案,但仅仅是似乎。 祝愿诸君快乐剩“蛋”,剩“蛋”快乐!
个人分类: 学海泛舟|3451 次阅读|0 个评论
也说说下的蛋
热度 1 zhaoxing 2011-12-24 21:01
最近年终流行盘点下蛋 ,看看自己 今年下了5个蛋,其中5个都是领导喜欢学校认可的蛋。比去年数量少,区别是都贡献给了外国人的篮子,营养因子有好也有差。不过属于“货真价实的蛋,非剽窃蛋、非压迫蛋、非外购蛋,也非会议蛋 ”,没有下蛋需要给钱的,更没有给了钱才准下的蛋。 周围人感觉还可以,自我感觉很一般,其中大部分蛋都只是蛋,都不好意思拿出去当牛吹。 争取明年下的蛋,每一个都敢拿出来唬唬人。 注: 吴国清老师.年终总结之下蛋----今年下了10个蛋.http://blog.sciencenet.cn/home.php?mod=spaceuid=541954do=blogid=521511 吕喆老师. 文章算个蛋?! .http://blog.sciencenet.cn/home.php?mod=spaceuid=111635do=blogid=521548
个人分类: 杂谈|423 次阅读|1 个评论
王天铎:以SCI评价期刊与论文水平造成的极不公正及其严重后果
热度 2 csiro 2011-11-26 10:29
这里登出王天铎先生对我国论文评价问题的意见。我是一年前收到的。王先生今年 82 岁,中科院上海植物生理生态所退休研究员,著名植物生理学家。曾任《植物生理学报》主编 20 年。近年来关注我国的科研评价问题,多次撰文,并向国家主管领导呼吁。 这里发布的目的是对科研成果和学术期刊的评价提供一个参考。请点击附件阅读。 wtd-1.pdf
个人分类: 交流篇|4995 次阅读|2 个评论
你的文章有多少点?
热度 103 weijia2009 2011-11-23 05:24
你的文章有多少点? 贾伟 最近芝加哥大学有个华人教授跟我在电话里说了件事,他去国内交流期间,有个同仁对他说,你们美国教授其实也没什么了不起的,咱现在也可以发10个点左右的文章了。这位曾在美国做出过一个新药并成功上市的大教授一时语塞,他觉得这样的理解比较小儿科,发文章仅是做教授的一部分,而这么基本的概念不知该如何去跟对方讲。 我前段时间也碰到过相类似的事情。当时在国内开一个学术论坛,有个学者(也是我的一个熟人)在台上讲他的研究发现(很有意义的结果),然后就讲到发表这篇文章的杂志影响因子很高,于是乎又在台上多说了几句,提到了他最近几年所发表文章的点数(大概是影响因子之和),他兴之所至,说就连他实验室的一个学生目前发表文章的总点数都达到了1-2百了,并一指前排的一位香港来的教授,“我的这个学生足可以到你们香港大学当正教授了” 。 我无比同情地看了眼坐在我旁边的这位港大正教授,他脸上表情比较尴尬,好歹在外打拼了多年,一直以来在国内学者面前颇有优越感,怎么就莫名其妙间跟人家学生划上了等号,这种感觉肯定不是那么愉悦的。 大家都是熟人,互相调侃一下无伤大雅。文章点数高的确是科研水平提高的一个重要标志,让海外教授气不顺的倒不一定是“点数”,而是“点数比你高,水平就比你高”的说法。试想一个以第一作者发了高影响因子文章的博士生或博士后只能是一名优秀的博士生或博士后,毕竟不能等同于指导他们发文章的导师/教授,至少大多数人肯定尚不具备独立的科研方向和引领能力。而我们学术界一味以数字性指标来为学术水平和能力“插标签”这样一个现象只能说明我们的科研评价体系还很不成熟。 我感觉我们的科研评价体系在未来还有一个大的台阶要上。十几、二十年前的初级阶段是“定性”为主,缺乏量化性评价指标,所以干好干坏一个样,大家都差不多;第二阶段是SCI为核心的指标体系的逐步建立,先是数量 ―― 比篇数,然后是看点数,现在又在看引用率和H因子,这些量化指标的逐步应用说明我们的学术评价水平也在不断提高;在未来一些年里,标志着评价走向成熟的第三个阶段将会是一定的量化指标下的综合和定性分析的同行评议体系的建立。达到这个阶段的同行评议有量化的基础,但其结果一定是定性的!对一个学者而言,最合理的学术评价一定是综合性的、理性的、和个性化的。 我曾听说最近南方有个高校人才引进,他们尝试新指标了,用论文H因子和引用率来比较应聘者的学术水平。他们设定了H因子的某一数值作为“切割点”筛选候选人,结果有意思的是符合资格的候选人年龄最小的也在50几,大多数在60几甚至到70的。导致这种结果的根本性原因是校方机械地去相信新的量化指标而不去试图了解每一个指标的特点。 H因子和引用率这一类是累计性指标,需要结合被评价人的科研“工龄”来判断。同领域比较的话,在建立自己的独立实验室以后短时期内(如10年)达到较高指标的学者八成具有较强的科研能力;反之,一个较平庸的学者只要科研“工龄”足够长,几十年日积月累,在行将退休阶段其H因子和论文引用率达到一定的高度也不足为奇。这个指标体系的另外一个漏洞是合作论文,一个没有自己独立科研方向的学者参与到一个或多个优秀学者的工作和论文中去,几年下来靠着“搭车”也可以有骄人的H因子。所以,用任何指标体系去评价别人的同时,我们还需要用自己的脑子做职业性的思考。所以说好的评价结果一定是综合的和定性的。 桃李不言,下自成蹊。你的科研好怀,其实国际国内同行心中很清楚,而对于行外之人,你再“拽”也是白搭。尽管也当了不少年的中国教授,听到咱们教授非常“提气”的藐视国外同行的言论感到振奋,我仍然觉得没必要用那些数字(点数)来跟人叫板,这里或多或少还是一个自信心不足的表现。就像《永不磨灭的番号》里的李大本事,心中念念不忘的是如何拿到八路军主力团的番号,从而一改县大队的“土八路”形象。土八路还是正规军其实不重要,仗打得好才重要。 一个指标体系再好也无法对所有人的科研水平进行合理的评价。事实上我觉得中国教授队伍中有一部分人很难评价,这部分人的科研成长模式很一致 ―― 通过担任行政领导控制大笔的经费和大批的生源,实际上都是他们的研究生和助手们在帮他们做科研和做文章,除了“点数”和“篇数”以外,这些当领导的对科研不甚了了,对文章内容一无所知,也从不过问。而每当这些“大教授”夸夸其谈时,俺们这些普通教授就气不打一处来,心里会冒出李大本事经常挂在嘴上的两个字 - “揍性”!
27409 次阅读|171 个评论
打仗靠数据,哭爹喊娘靠文采,科研评价靠什么?
热度 2 pukin 2011-8-5 11:21
看到军事评论家宋晓军先生的微博,有这么一句话:“ 打仗靠数据,哭爹喊娘靠文采 。” 那么科研评价靠什么呢? 宋晓军 : 北约在利比亚每天出动大约100架次飞机,其中有50 架次用于对地面目标攻击。调度指挥这些飞机的是分别来自美、英、法的8架空中预警指挥飞机:2架E - 3A,2架E - 3DS,2架E-3B/Cs,1架E - 3D。这部分的指挥是美国的女少将玛格丽特·伍德沃德,她是E-8飞机的目标判读员出身。 打仗靠数据,哭爹喊娘要文采 。 收起 | 查看大图 | 向左转 向右转
个人分类: 博客新闻|3981 次阅读|3 个评论
大漠孤魂的雄文:我心中的中国科学院(征文)
热度 17 xcfcn 2011-7-5 12:26
博主按:老吴(吴飞鹏)终于还是出手了,我很荣幸获得老吴的授权在科学网发表,也恳请科学网把它当成征文代为上传中科院征文网站。谢谢!希望文章没有犯大忌的东西。原文见: http://cwufp.blog.sohu.com/177669868.html 大漠孤魂的雄文:我心中的中国科学院(征文) 本来不想写这篇文章,并不是我不爱科学院,更不是对领导的号召没有响应的愿望,而是对现行体制的失望和无奈,尤其是对科研评价体制感到绝望。 在本人看来,一个伦理和道义错误的体系,越是用严格的考评体系和规章制度保证执行的效果,危害也就越大。现行的科研考评体系在伦理和道义上根本就是错误的,在这种考评体系下不可能做出真正对社会有贡献的科研成果,也不可能培养出具有社会责任感的优秀人才。 因此,今天写下此文,表达一下俺对中国科学院的期望。 首先,中国科学院应该在科研伦理和道义建设上发挥带头作用。 应该建立一个以考评贡献为主的科研考核体系,替代目前以获取为主的考核体系。承担多少项目,在项目中担当什么角色,都是一种获取的能力,而这种获取不仅仅是学术水平的体现,更多的是体现人际关系和社会关系,这不是科学家应该费劲的事情。科学家在大多数情况下应该是根本不考虑人际关系和社会关系,以科学道理作为唯一的标准来判断事情。用能够获取纳税人多少钱来衡量一个科学家不仅是荒唐的,也是管理者无能、无德,对国家和纳税人不负责任的表现。最为荒唐的是连评职称也规定必须承担过多大的项目,这是典型的行政对学术的侮辱。按照此标准,佩雷尔曼就不是科学家。 第二,中国科学院应该发挥学术上的引领作用。 所谓的引领作用不是承担多少国家项目,参加多少国家项目,更不是多少人当了国家项目的首席科学家。这不是科学意义上的引领,而只是参与和争夺。科学院应该从事极具风险的科学研究,多数可能会以失败而告终,但是,成功的那部分应该能够成为国家下一个五年科技发展规划的一部分,而此时,中国科学院这方面的研究应该已经退出,由高校或者产业界的研究队伍接替。开创各个重要领域的重要发展方向,应该是中国科学院最重要的工作内容。 第三,中国科学院应该在最前沿科学原理和技术的产业化方面发挥引领作用。 这方面中国科学院一直发挥着重要的角色,但是,在最近几年,由于过度的强调项目和文章的考核,出现明显的衰退迹象。我国的现实情况是,产业界的研究机构研究队伍和水平一直受到各种干扰,尚不具备与国际上一流企业竞争的科研和技术研发能力;大学由于 PI 制体量太小,也无能力对重大的技术进行攻关。组织队伍开展对国民经济和国家安全有重大影响的技术进行研发是中国科学院在目前状况下的历史使命。 在本人看来,中国科学院现行的做法与大学和产业界的角色基本相同,但是,搞基础研究,人数上比不过高校,比文章数目输在起跑线上;搞产业化项目由于没有行业的支撑,不大可能走向市场,发挥不了多大的影响力。长此以往,科学院将失去在社会中存在的意义。因此,前沿和重要领域才是科学院存在的必要性所在。 与此相对应的是人才的培养和管理,是大课题,也是大困难,需要认真的思考解决之道。 如果要做的事情是 0 ,那么人才就是 1 ,有再多的事情要去完成, 0 再多也还是零;有了人才就是那个 1 ,要做的事情放在 1 后面才是有效的数字。 合理的评价是人才成长的重要因素。 首先,人才是有年龄的,对于从事基础研究的科学家而言,具有创意的年龄不会超过 45 岁,数理方面的人才更为年轻, 35 岁几乎就是顶点。 因此,改变现有研究生参与项目任务的做法是迫在眉睫的事情,给年轻人创造宽松的科研条件,让他们能够自由的思考和科研是培养创造性人才的必要条件。做基础研究的人才, 45 岁之前应该给予稳定支持,让他们心无旁骛的开展工作;除了极个别能够引领学术领域发展的大牛,到了 45 岁就不该得到稳定的支持,而是转换到应用基础或者技术研发的竞争性岗位。 其次,对于从事不同性质的人才,在报酬上应该有明显的区别。 从事基础研究得到稳定支持的人才,收入中应该没有绩效工资,不用年年参与考核和考评,只是到了 45 岁才进行是否可以继续保留岗位的考核;对于从事应用基础研究或者技术研发的人员,以技术研发的进度和完成情况进行考核, 5 年一次,两次不合格者不再按照原岗位聘任;绩效工资可以用社会对技术的认可程度考核,即按照技术转让或者技术转让后所获得的利税的一定比例核发,拉开收入差距,鼓励多贡献,多收入。对获得的各种科研项目,只要是政府或者上级部门获得的经费支持,一律不能计入绩效,鼓励科研人员的技术研究不再停留在纸面上。 总之,中国科学院不应该在停留在与其它部门比文章数、承担项目数、首席科学家数、获奖数等不够高雅的“获取”能力上,而是早日转换角色,提升自己的境界,才能体现科研国家队的作用,在高速发展的社会中发挥科技引领作用,并以此获得社会的认可和存续的合理性。
个人分类: 杂论|4827 次阅读|21 个评论
科研牛人推荐
热度 2 lengxiaozi 2011-5-12 23:15
我们在关注某个领域或研究方向时,往往需要了解一些领域的牛人。如何才能找出这些牛人呢,领域内的专家对此一般心知肚明,但是局外的人就不不清楚了。 博主认为,科研成果是科研工作者对科研贡献的具体体现,因此可以利用文献计量学的原理和方法,通过评价科研工作者的科研成果反映他们的贡献度。从文献方面出发,科研成果主要有期刊论文、会议论文、学位论文、专利和科技成果。个人认为,可以利用期刊论文、专利和科技成果评价一下科研工作者的科研贡献度,找出领域的牛人。 目前,STADS在元数据仓储的基础上已经实现了科研人物和科研机构的推荐。 后记:在科学网徘徊了也将近两年了,终于鼓起勇气发表了第一篇博文。大家有什么建议和观点,欢迎交流!
个人分类: 文献计量|3085 次阅读|5 个评论
培养一点科学鉴赏力
等离子体科学 2011-1-9 11:41
随着中国古代艺术品市场的兴旺,电视里的收藏、鉴宝节目越来越多。那个藏品是真的、那个是仿的,有的人看得出来,有的人就常常看错。这就是艺术鉴赏力。 所谓真品,是古人的原创。进行艺术创作的时候,会把作者的创造性、想象力融汇进去,艺术品就有了灵气。用行家的话来说,就是看着就是个好东西。 而那些仿品,因为要仿得像,所以不仅在艺术上要刻意模仿前人,而且在工艺细节上必须处处留意。即使水平再高,却因为这些,也无从发挥。反而往往弄巧成拙,露出马脚。 科学研究也是一种创作,甚至可以说就是一种广义的艺术创作。古时教育的六门主课称为六艺(礼、乐、射、御、书、数;其中数包括了数学和科学技术),英文里把文理兼修的教育叫做 liberal arts education ,不是没有道理的。原创性的科学研究,出来的就是真品,蕴含着科学创造性和想象力的灵气。而那些只会 follow 别人工作的二流甚至三流的工作,自然不会有这种灵气只能算是仿品。即使做得再精益求精,也不过是高仿而已。 所以,如果有一点科学的鉴赏力,就可以看出哪些工作是真东西、好东西;而不是只看那些外在的细节比如是不是发在高影响因子的刊物上等。 这个鉴赏力,更大众一点,就是所谓的 taste 品味。但是这个品味,就显出了那个品位。 再多说几句: 有了科学鉴赏力,我们的评价体系就可以改善一些不是单靠 SCI 、靠数 123 。 有不少人觉得量化评价更公平、公正。 但是看艺术收藏品的鉴定,就是几个专家说了算:说你是真的,发本证书,甚至说该值多少,在市场上就认可;说你是假的,请出护宝锤砸你没商量!收藏者看着心疼也只好认了。 为什么,因为专家的权威性。大家信服专家的艺术鉴赏力。 量化评价大行其道,一方面说明我们的科学发展水平所处的阶段,另一方面说明我们的专家们的权威性不够。这就是笔者前些日子转的 T 老师的看法说的: 科研成果发表与评价在外 。 如果各个领域专家们科学鉴赏力达到一定的水平,我们评价一个工作,何必只信外国的 referee 们呢?
个人分类: 学海无涯|6040 次阅读|6 个评论
如何走出大学科研评价中“潜规则”的泥淖?
lgmxxl 2010-11-13 09:50
科研资源分配、科研项目评价、科研政策制定、科研成果推广等是科研体制中的四个重要内容。其中科研项目评价是联系科研资源分配、成果推广的桥梁,它直接影响整个科研活动的生态环境,影响科研活动的科学发展。当肖氏反射弧理论被评价为国际领先,却在临床上给人带来巨大痛苦时,我们又不得不认为科研项目评价中的潜规则害死人呀。它不仅不利于科研活动的正常、健康、持续发展,在有些情况下它甚至直接威协人类的健康乃至生命。那么,在我们大学科研评价中到底有哪些潜规则呢?我们如何能走出大学科研评价中的潜规则泥淖呢? 一、科研评价中的潜规则 大学科研评价中的潜规则大致可以列出如下种类:第一,科研是教师评价的硬通货。在大学教师评价中,科研是大学教师评价中占据份量最重的硬通货。每一个大学都在追求科研的 GDP ,不管黑猫白猫,拿到科研项目是好猫。在大学中,谁的科研分高,谁就是最优秀的大学教师。科研强,则其他各项指标自然强,这不管是教学的,还是平时表现的,也或是党员先锋带头作用的。在大学中最牛人是科研强人,他们可以在一年时间内发表数以十计的学术论文,出版学术论著,拿到省部级以上课题,获得省部级以上奖励。当然,年终时这些牛人不仅可以在金钱上挣得盆滿钵満,而且可以获得各种形式的精神奖励:优秀教师工作者、优秀共产党员、优秀教师等。第二,洋杂志崇拜。近几年来,我们大学中对洋杂志的崇拜达到了极点,只要是带洋的,一律是好的。如在 CNS ( CELL/NATURE/SCIENCE )上发表文章可以获得数量不菲的奖金,个别学校甚至奖励超过 10 万元、 100 万元;被 SCI/SSCI/EI/ISTP 收录的论文也会获得相当的金钱奖励。很多教师甚至因此走上了学术歧途或走向发财致富之路。洋杂志已经异化了大学的学术目标和科研评价。第三,带长的专家决定科研资源分配。在大学内部,带长的专家会利用自己的学术资源、社会资本获得各种各样的科研项目:国家级项目的立项、国家级奖励等。即使在大学之外,在各类项目的立项评审中,在各类项目的评奖中,决定项目立项或获得奖励的专家基本上也是由匿名抽出的各校、各科研院所带长的专家。这些被抽出的带长专家决定谁的项目申报好,谁的项目成果优。第四,亲朋好友类专家鉴定科研项目。现在的科研项目结项鉴定,虽然名义上由省科研厅或教育厅或学校相关部门来组织,但实际运作中,组织者、买单者是项目主持人。他们自行请专家来鉴定自己的项目,这些专家来鉴定当然也是心照不宣。项目鉴定的场面更多看到的是轰轰烈烈走过场,认认真真写评语,最好是皆大欢喜。专家拿了评审费,吃了庆祝宴;项目主持人得了国际领先或国内领先的评价。 二、大学科研评价中潜规则的形成土壤 大学科研评价中潜规则形成有其合法、合适的生存土壤。适宜其生长的条件主要包括:第一,政府的诱致性制度设置。诱致性制度是指在制度不均衡引致的获利机会时出现时,由制度本身所引起的制定调控对象的自发性追逐获利机会的行为。我国高等教育长期以来一直是有型无类的,实施的大一统的评价方式。即:不管你是什么类型的大学,一律以一个标准来评价大学的活动,以一个标准给予获利机会。而最为主要的评价指标就是科研。教学工作水平最后评的是科研实力;博士单位、硕士单位授予权能否获得取决于科研积聚;重点学科、精品课程、质量工程等也主要看科研整体水平。在这些诱致性制度的驱动下,可以看到中国大学的奇怪现象:全部大学搞科研!不管是专科,还是本科;不管是社区型大学,还是教学型大学,亦或是研究型大学全部把科研当成了大学的第一要务。第二,学校的强制性制度设置。强制性制度是制度调控对象不得违背的制度。在政府诱致性制度的驱使下,各高校就把科研指标量化下去,分到具体教师头上,规定完不成科研分者,不得获得年终或其它奖金。于是,我们各类大学又出现另外一种怪现象:大学全体职工搞科研,不管你是教师,还是图书管理员,亦或是一般职工,只要有职称,就有科研工作量。一时间,弄得各杂志社喜从天降,各杂志社特别是核心期刊的主编成为人们送礼结交的对象。第三,大学的院校文化式微。大学的院校文化是指大学行为背后的能动性力量,它是一所大学的核心价值观、主要制度和规范、相关物质设施的总称。从总体上来讲,大学的院校文化是一种价值观上求真和创新的文化、思维方式上自由和包容的文化、行为方式上服务和责任的文化。但在市场的大潮下,在大学越来越紧张的经济压力下,大学的院校文化越来越式微。大学开始把自己等同于市场,等同于官场,等同于企业。大学中再也放不下一张安静的书桌,教师们再也不能恬静地待在实验室、图书馆,大学的科研越来越变为一种工具,一种获利、获名的工具。大学人对科研的敬重越来越少了。人们更相信通过搞关系可以拿到项目、发表论文、获得奖励。 三、如何形成大学科研评价的真规则 如何形成大学科研评价的真规则,从其评价异化的原因上可以自然得出三个结论:国家层面科研评价体系的调整;大学层面的科研评价制度重建;重塑大学精神、大学文化。但从具体来讲,国家要改的东西较多,比如最近引人注目、惹人关注的科研经费分配体制问题;科研奖励的评选制度问题;专家的遴选问题;高校分类评价问题等。如果从大学层面上讲,两项制度设计是可以有效改观这种状况。第一,对科研评价中的同行评议进行移植和创新。主要应该引入的是对评议专家的连带责任追究问题和诚信追究问题。要创造一个让每一位参与同行评议的专家独立行使科研评价权力的公平、公正、公开的环境,同时也要设定对他们涉嫌造假、不公正情况的责任和诚信追究机制。第二对现行的量化评价制度进行合理化改革。在注重质量的前提下,参考数量。树立质量至上的科研评价理念,引入学术代表作制度,不再把论文、论著、项目等科研数量当作很重要的指标和依据,而是主要依据能够代表教师学术能力和水平的学术精品来评价教师。 本段参考了师弟高军的博士论文:我国大学教师学术评价制度研究
个人分类: 大学之道|6525 次阅读|3 个评论
人才,钱,项目,那个更重要
热度 1 windlight 2010-11-10 09:38
赵凤光 腾讯老总按深圳的科技人才政策给予房租和利息补贴。有人大骂政府劫贫济富,但科技人才政策就是一把尺子,这个尺子的目的是竞争性资源分配,还属于第一次分配范畴,而不是均贫富的二次分配。这也是中国特色的地方政府互相竞争,政府本身当作企业运作的必然产物。可以说按平面经济学来看,这就是看问题的角度问题了。杭州给人才半价售房也是如此思路使然。实际从经济竞争角度来看,人才的定义的很多种,但大体上是能扩大自己利益体的利益空间的人才是人才。实际上面这个问题,对于经济学来讲不是什么新鲜话题了。 今天想到这个题目的思考所在是本人对科技资源分配也还是有些疑惑。人、钱,项目、都是科技资源投入后可以产生的结果,也是科技活动中的必要条件三要素,柳传志当年给出的答案是有好的项目,不会缺钱和人才,可以说他给排了一个序列,项目钱人才。柳传志是从企业管理者和股东投钱的角度来说,针对地方政府科技部门来说,这样的序列有一定的道理,但也符合我们政府一直倡导的不要因人设岗,而要因事设岗。经济学研究也有句话叫做长期资本雇佣短期资本,这里人力资本也是一种短期资本。长期资本可以是国家也可以是各种企事业单位。 但是,学校和科研单位还有所不同,他们的产品很大一部分就是培养人才,而这个过程中也需要人才的投入,这时的钱和项目重要性似乎就是另外一个体系了,肯定重要性有所不同。南方科技大学作为一个复合体,这个答案是什么呢? 美国政府定量宽松政策将通胀输出到全世界,他的目的是均贫富吗,还是与其它国家恶性货币竞争,他的目的是否就是他们所言的刺激就业,让美国人有工作,有饭吃?政府目标是挣钱还是发钱。 一个思维小游戏: 一个行驶中的热气球太重要沉了,搭乘的三名乘客包括一个优秀的医生,一个诺贝尔奖核物理学家,一个诺奖经济学者,该放弃那一个才能救活其他两人呢?
个人分类: 思辨|3943 次阅读|1 个评论
[观点]关于科研评价、论文评价、教育评价
htrmt 2010-10-30 02:29
2010.1030.0220 读如下博文后有感: “ 论文研究水平的层次 ” “ 对发表论文的深层次思考 丘成桐院士演讲: 如何做好学问 大学精神啊,我们都在喊你2010年回家 现代科技创新的学术文化探源 杨玲也许是另一个“伟大的笨蛋”? 中国SCI “始作俑者”的故事 妖魔化或过分崇拜SCI都不可取 发表论文、引用文献,国内外、中外文应当一视同仁! 从博士跳楼,谈博士的职业选择 由于 科学研究重大成果的出现是一个涌现现象 ,因此作为研究者,不应总是期望能做出重大成果,当条件成熟时,它是水到渠成的事情。正如苏博主文中 所说“这三者是相辅相成,逐渐积累一步一步形成的,这里面多数人都做了人梯而已。” 一般说来, 研究中所发现新知识的社会价值重大性、新知识的系统性都可以作为论文价值的衡量标准之一。 另注:对一个进入社会后的人所受教育的评价,其所在企业或机构同事的评价是非常有价值的参考(这与科研中的同行评价有异曲同工之处)。 扭转当下学术界乱像的利器之一是在综合考虑科研经费分配情况(基础研究、应用研究)的前提下 逐步 将研究经费的获取途径转由以市场提供为主,这个结论基于如下事实:以赢利为目的的企业不会(一直)拿自己的真金白银支持无意义的研究。 西方国家大学、研究机构(特别是企业研究院)的发展历程表明了这种做法的可行性。 中所述情形适用的人可能仅 卡文迪许 ,大多数从事研究的人其研究的动力直接或间接的都与为获取经济来源脱离不了干系,因为 社会始终是经济的社会。 2010.1030.1416刚看到鲍博主的好文 ,其所描述内容正应了”经济社会“之说。 2010.1030.1454考虑当前科研界的近况,同时也是考虑到经济对科研(从整个社会层面来说)具有重大激励作用,所以应尽可能转向市场配置为主导,虽然在市场导向的资源配置机制下,冷门的研究常常容易被忽略,但只要一旦发现其至关重要或前景有被看好的端倪,国家或市场的资源配置就会立刻蜂拥而至,直至超额配置。相应的例子:早期互联网的产生阶段及互联网泡沫。由于各种研究往往相互交织,因此基本不用担心某个方面的研究投入完全消失的情况。不过,无论怎样进行资源配置,做到研究者及其家庭的基本生存条件(基本的衣、食、住、行条件)有保障应当是不可打破的底线。 2010.1101.1322博文 指出了SCI存在的问题,但没有给出替代方法。博文 提出了一种可能的模式:e-PPFG(即网络公开发表及自由获取)的文献发表模式。 2010.1101.1330poordusk在评论中提出的问题正在思考中,以后再做回复。 2010.1130.1538 回复poordusk的评论:从你的评论中可以看出你认为大多数研究是“不着边际的”,这个结论显然片面,这可能仅与您所在的环境有关,所以无需反驳。文人自古相轻与科研经费由市场提供之间没有必然的关系,因此无需刻意放在一起考虑。您接下来所说的内容,大意是指国人手头缺钱,所以人们不愿做研究,而美国人钱多,所以才做研发。这只是一种说辞,而不是解释。不争的事实是,当前绝大多数人的生活境况要好于 10 年、 20 年之前。人们之所以觉得钱少是因为周边丰富的物质环境激发了个体更多的物质需求(简称 物欲横流 )。企业不重视研发与当前的企业经营环境有直接关系,商人的天性是牟利(正如马克思在《资本论》第二十四章“所谓原始积累”第七节中的注释所说:“一有适当的利润,资本就会非常胆壮起来。只要有 10 %的利润,它就会到处被人使用;有 20 %,就会活泼起来;有 50 %,就会引起积极的冒险;有 100 %,就会使人不顾一切法律;有 300 %,就会使人不怕犯罪,甚至不怕绞首的危险。”),当投机、钻营的成本偏低、更易于盈利时,商人自然不会选择相对利润偏少的正常经营方式。但是,转向研发,以期提升产品 / 服务质量和完善产品 / 服务功能、提升企业的信誉始终是商业的必然发展趋势。针对您的评论想了很久,得到很多,涉及人文环境、价值观、价值体系、经济、社会发展。 未来文献发表模式、特点与信息福利时代
个人分类: 杂类|4469 次阅读|2 个评论
[转载]SCI:势在必行的改革
ahgan2007 2010-8-15 14:50
SCI :势在必行的改革 引自唐凌峰老师 http://www.sciencenet.cn/m/user_content.aspx?id=15886 由于单纯地以SCI论文篇数来评价科研绩效,已经造成了诸多不利影响,严重的制约了我国科研水平的提高,所以对SCI的改革,即以怎样的形式来进行科研评价就显得相当的必要和紧迫了。在前面的博文中,我提出的观点是SCI是利大于弊的,成绩是值得肯定的,而这篇文章将主要探讨应该怎样进行改革。(参考 SCI : 中国科研评价的功臣 http://www.sciencenet.cn/blog/user_content.aspx?id=15885 ) 一 论文篇数应该废除 SCI的副作用相当大的一部分可以归咎为单纯的追求论文数量。正是由于对论文篇数的追求,造成了只求数量不求质量的急功近利的科研态度。所以,SCI的篇数统计,即每年一次的大学和科研机构SCI篇数排名、个人所宣传的发表了多少篇SCI论文等应该废除。 二 引用次数及其衍生指数 1 直接引用次数 人们逐渐认识到引用次数比单纯的篇数更能反应学术水平,于是出现了SCI总引用次数排名和SCI论文平均引用次数排名。从南京大学科技处《科技信息》发布的信息可以看到国内很多大学的情况是篇数高,引用次数低,而篇均引用次数更低。从论文篇数,到引用次数,再到篇均引用次数无疑是一大进步。( 中国大学 1996-2006 十年中 SCI 论文排序 http://www.chsi.com.cn/jyzx/200610/20061011/620477.html ) 2 引用次数与引用指数 但是,引用次数也有其不足,不是每一次引用的价值都是一样大的,而这种差别在单纯的引用次数中无法体现出来。引用次数价值的大小应该具体情况具体分析。1,同一引用次数,发表在不同等级期刊上的价值大小有别。例如同是被引用一次,发表在《nature》上的论文应该比普通期刊上的论文的价值大。2,不同等级的期刊引用一次其价值大小不同。例如,《nature》上的一篇论文引用了你的一篇文章和普通期刊上有一篇论文引用了你的文章其意义是不一样的。3,不同水平的文章引用一次价值也不同。例如,一篇被别的论文引用了上千次的文章引用了你的一篇文章,和一篇只被其他论文引用了几次或一次都没有的文章,无疑前者的那一次引用价值更大。4,相关性不同价值也不同。例如同一篇论文引用了两篇文章,其中一篇是大幅的引用,而且是该论文必不可少的基础,而另外一篇文章则仅是略微提到,显然前者的这一次引用价值要大于后者。 正是由于以上差别的存在而单纯的引用次数无法反映出来,所以应该对引用次数进行改革,我在这里将其成为引用指数。为便于说明,这里先拟定两个概念:累积影响因子和影响系数,累积影响因子指的是论文所在期刊影响因子*引用次数。如A(IF=20)刊引用了B刊上一篇论文2次,则累积影响因子为20*2=40. 影响系数指的是加权累积影响因子的系数,直接引用系数为1.0,间接引用为0.5,再间接一次为0.25,以此类推。举例:A刊(IF=30)上论文a,被B刊(IF=10)引用2次,引用a的论文分别为b1和b2,其中b1无人引用,b2被D刊(IF=8)论文d引用一次,d被E刊(IF=20)论文e引用一次。a还被C刊(IF=5)引用2次,引用a的论文为c1和c2,这两篇论文都无人引用。要计算a的引用指数,A刊和直接引用a的刊物即B和C刊,其影响系数为1.0,而间接引用a的那一级刊物,即引用了B刊上b2的D刊,影响系数为0.5,而引用了D刊d的E刊,影响系数为0.25.那么a的引用指数有以下几种计算方法: 1 ,只计算到直接引用。 为本刊IF+直接引用刊物的累积影响因子。如本例中为:30+(10*2+5*2)。 2 ,计算到间接引用这一级别。 为本刊IF+直接引用各刊物的累积影响因子之和+间接影响系数(即0.5)*间接引用各刊物的累积影响因子之和。例如本例中为:30+(10*2+5*2)+0.5(8*1)。 3 计算到间间接引用这一级别。 为本刊IF+直接引用各刊物的累积影响因子之和+间接影响系数(即0.5)*间接引用各刊物的累积影响因子之和+间间接影响系数(即0.25)*间间接引用各刊物的累积影响因子之和,或者:本刊IF+直接引用各刊物的累积影响因子之和+ 0.5*(间接引用各刊物的累积影响因子之和+ 0.25*间间接引用各刊物的累积影响因子之和)在本例中为:30+(10*2+5*2)+0.5(8*1)+0.25*20*1 或者 30+(10*2+5*2)+0.5【(8*1)+0.25*8*1】 这些计算体现了本刊水平、引用本论文的论文发表刊物水平的区别,计算到间接和间间接这一级别的算法同时也体现了引用论文的不同水平的区别。然而对于相关性的区别由于主观性较强无法在公式中反映出来。 3 代表性论文引用指数 管理学中有个木桶原理:一个木桶由许多块木板组成,如果组成木桶的这些木板长短不一,那么这个木桶的最大容量不取决于长的木板,而取决于最短的那块木板。但是木桶原理并不适合与科研。科研应该追求卓越,力戒平庸,一位科学家可能在他一生所发表的所有论文中,有许多篇无人引用,然而只要有一两篇被成千次的引用,他就无愧于一位杰出的科学家。一位科研工作者发表一千篇论文,每篇被引用一次,和这一千篇中999篇无人引用但有一篇被引用一千次其效果是不同的。所以,引用指数也应该考虑到这一点。解决的方法选取少数几篇代表性论文来看其引用指数。例如,SCI论文数在10以下者,看引用指数最高的前三分之一的论文,在10-50篇的,看前五分之一,在50篇以上者,看最好的3-10篇。也可以简单点,就看最好的3-10篇论文的引用指数。 三 考虑到科研经费 科研管理必须考虑的一个问题是科研的投入产出比。目前存在着比较严重的滥用科研经费的情况,所以引用指数也应该考虑科研经费。例如,一个科研工作者用10万的科研经费,其发表论文的引用指数是100,而同一领域的另外一人拿着100万的经费,其指数也是100,毫无疑问在审批科研经费的申请时应该优先考虑前者。 考虑到经费的方法很简单,将引用指数除以科研经费即得到科研经费引用指数。 四 教授人均 SCI 引用指数 在不同的学校与科研单位之间进行比较时,应该考虑到不同单位科研人员数量的不同,否则比较就会不太公平,例如对于非综合性大学来说就是如此。一个可以考虑的解决方法是计算教授(或相当职称者)的人均SCI引用指数,也可以计算全部科研人员的人均SCI引用指数。为了防止平均数掩盖优秀的科研人员,也可以计算top10%科研人员的人均SCI引用指数。该方法同时有助于保证职称评定时尽可能把是优秀的科研人员评为教授。 五 不同作者的贡献 第一作者或通讯作者的论文被引用了多少次或引用指数是多少便是多少,但是第二作者、第三作者、并列第一作者和通讯作者呢? 方案一:固定系数法。 每一位作者确定一个固定的系数,用这个系数乘以该论文的引用指数。如第一作者和通讯作者系数为1.0,并列第一或通讯作者各为0.5(系数也可以调整),第二作者第一作者的一半0.5,第三作者为第二作者的一半0.25以此类推。这种方法简单易行,然而也比较机械,毕竟第二作者的贡献可能不一定恰好等于第一作者的一半,第三作者的贡献也不一定恰好等于第一作者的四分之一。 方案二:可变系数法。 所有作者的系数加起来为1.0,然后由作者们一起决定谁的贡献多大,例如第一和通讯作者为同一人贡献最大,系数0.8,第二作者0.1,第三作者0.07,第四作者0.03等。这种方法从理论上来说比较好,然而实施起来却不太好办,因为要在投稿之前确定系数的分配,容易出现纷争,影响团结。 方案三:分开统计。 即同一科研人员在不同的论文中作为不同的作者的引用指数不直接相加,而是分别列出来。例如:A的身份为第一作者时引用指数500,通讯作者为800,为第二作者时引用指数为1000,第三作者时为1200等。综合起来考虑似乎第三种方案更为可行和科学。 六 防患于未然 所谓上有政策,下有对策,任何方法都有可能被钻空子。为了提高影响因子,有些期刊规定(也可能是一种潜规则)要引用该期刊的论文才能够或容易在它上面发表。而为了提高自己的引用次数,有些作者可能采取大量引用自身文章,要求学生或朋友引用自己论文,或者 很多学者为了提高自己文章的引用率,要自己的朋友和学生引用自己的文章,即使沾不上边也要引用.甚至有的人为了使自己的工作有国际影响和引用率,还帮国外学者(外国人)写文章,落列一大堆自己的文章,而自己又不署名,以期在国外发表,来提高自己文章在国际上的引用率.这种情况在我国科学界是存在的,大有增加之势. (罗德海: 关于SCI文章的引用率的问题 http://www.sciencenet.cn/blog/user_content.aspx?id=5058 ) 既然这些问题已经初现端倪,就应该采取措施来预防。 首先是作者个人的自引率的问题,最好是限定一个比例 ,例如要求在25%以下。然而一刀切的方法也有不好的一面,例如有些确实需要大量的引用自身论文,或者有的作者为了大量引用自身论文,在自引的同时更大量的引用别人的论文以降低自引比例。 二是限制互引的比率, 例如A、B二人互相引用对方无关的论文来提高引用次数。 更重要的预防措施是相关性的抽查。 引用是否应该,应该看被引用的论文与自己的论文相关性有多大。所以可以对有些论文的引用情况进行抽查,抽查的取样可以采取随机抽样和取高自引率及互引率的论文,即使高自引率或互引率,只要引用的确实是相关的就是合理的。但是相关性的评价是一个比较主观的过程,所以为了防止误判应该采取较松的指标。另外,SCI官方网为每一个发表过SCI论文的科研工作者建立网络信用档案,将其不合适的引用情况显示出来。一方面可以纠正引用是否合适的不正确的判断,另一方面可以起到警示和威慑作用。信用档案同时可以显示是否有一文多发、证据确凿的伪造数据、学术不端等。 七 其他改革 1 姓名编号 随着科学技术的发展,科研人员的数目已经有了大幅的提高,因此出现了同名同姓的情况,而中国人的姓名表达在英文论文中尤其混乱。这些情况对于确定某一篇论文的归属产生了不利影响。解决的方法是通过对姓名进行编号来使每一位科研工作者拥有唯一的一个姓名,例如Albert Einstein001、Albert Einstein002等。对于中文姓名的作者,应该统一形式并给予一个特定的编号,例如Li Xiaolong001等。编号的工作可以由SCI官方网来进行,也可以由一个国际性的科研组织来进行,所有的科研人员在发表论文之前都应该获得这样一个编号以明确身份。 2 单位名称的规范 单位名称同作者姓名一样比较混乱。同一单位的不同作者在发表论文时往往写出来的单位名称不同,这也不利于确定论文的单位归属。解决的方法是单位使用固定的名称并在SCI或国际科研机构处注册,如果单位名称发生变迁,同样需要登记,这样即使名称变化,也不难确定某一论文到底是那一个单位的。 3 列出本文的参考文献形式 写过科研论文的人都知道,列参考文献是一件痛苦的事情,机械而且容易出错。所以建议每一篇论文在后面的参考文献处写出假如别的论文要引用这篇论文时参考文献应该是怎样的,其形式与该论文引用其它的论文完全一样。可以参考文献1-n 为本文引用的文献,但是参考文献【0】则为本文的参考文献条目。例如《关于双螺旋学说与科学研究的辩证思维》一文的参考文献可以这样列:【0】 张超. 关于双螺旋学说与科学研究的辩证思维[J]医学与哲学,2001,(22)2:33-34. 【1】 【2】 这样在电子版的情况下别人只需要复制这一条,改一下数字就可以方便的引用了。 另外,给出每一篇文献的一个国际性的编号,同样附在参考文献【0】后面,其作用是方便统计软件进行分析。例如:【0】 张超. 关于双螺旋学说与科学研究的辩证思维[J]医学与哲学,2001,(22)2:33-34. 158795623. 4 建立 信用档案 信用档案的建立可以方便的查找某一科研人员的科研成绩,同时也可查找其是否有不合适引用、一文多发、数据伪造等学术不端行为。可以由SCI的官方网建立,主入口为姓名编号。进入之后,可以方便的查找出该作者发表了多少论文,被人引用多少次,引用指数是多少,有无不合适引用及学术不端行为,还可以显示一些其它的不涉及个人隐私的信息,如获得过哪些科研经费、电子邮件地址、单位归属等。 5 自动统计软件及网站 为了方便进行科研绩效评价,应该使用软件来进行统计,否则工作量巨大,而前面提到的一些措施部分作用就是为了方便该统计软件的使用。该统计软件可以整合到SCI的网站之中,凭借SCI的巨大数据库进行统计分析,轻松的得出某一科研人员、科研单位等的各种科研指标。 八 注意事项 首先是不同的行业可能不具有可比性。例如有些行业的篇均引用次数低,自然科研人员的平均引用次数也会低;有些行业需要大量的经费投入,投入产出比低,因此引用指数除以科研经费后结果也会低。其次是有些超前的研究,可能刚开始一直无人引用,但是并不说明没有价值,所以还应该与同行评议结合起来进行评价。 如果这些措施,如建立姓名编号、单位名称注册、科研人员信用档案、引用是否合适抽查等都由SCI官方机构来进行,有可能使其权力过大,从而对科研造成不利影响。一个可行的办法是由政府部门例如联合国或其他部门建立一个类似的数据库收录各种重要期刊,并采取这些措施。这样由于竞争的存在,对于不利影响可能可以起到一定的制约作用。 结语: 由于作者尚为在读研究生,对科研评价等知识所知有限,提出的方法不一定完全可行,有些具体的数据也仅供参考。而且科研评价是一项系统工程,也绝非这短短的一篇博文能够论述完全的,所以本文希望起到的是一个抛砖引玉的作用。同广大科研人员一样,我唯一的希望是中国的科研评价体系更加科学合理,中国的科学技术迅猛发展,中国能够早日成为真正的科研强国! 本文引用地址: http://www.sciencenet.cn/m/user_content.aspx?id=15886
个人分类: 科研评价|3396 次阅读|1 个评论
也说点中国科研评价的话题
热度 4 hulj068 2010-7-12 20:36
China's Quantity-based Evaluation Culture is the Real Root of Misconduct 10 June 2010 Liangjun Hu MOE Key Lab for Vegetation Ecology, Northeast Normal University,Changchun 130021, China , Zongming Wang, Northeast Institute of Geography and Agroecology, Chinese Academy of Sciences, Changchun 130012, China Respond to this E-Letter: Re: China's Quantity-based Evaluation Culture is the Real Root of Misconduct A part-time professor system was to blame for exposing some fundamental problems of publication of academic research in China (Retractions put spotlight on China's part-time professor system, H. Xin, 6 March 2009, p. 1280), and PhD students' requirement and cash award for publication were then added by Albert W. M. Lee (E-letter, Misconduct and China's Research Environment, 25 June 2009). However, the ongoing quantity-based evaluation culture prevalently running in most of China's universities and research institutions, in comparison with above said points, would be the real root toward all scientific misconducts in China's academic fields. Due to the rich experience of being a world factory since the 1980s, China's society has been deeply shaped by an industrial produce-line impulse deriving from factory culture. One of those changes is, people think, everything, including science, can be easily achieved by money and planning, like manufacturing in plants. Therefore, all the issued research projects, as a form in science production factories, must be timely evaluated by planned criteria. On the other hand, many Chinese officials are only bureaucrats with little or even no technical background. As a result, using a defined quantity-based evaluation system will be much easier and quicker for project officials to examine the projects' outputs, but ignoring the quality. Moreover, Chinese officials much prefer large figures that help for their promotions (1). To meet the unrealistic evaluation criteria, many research teams are forced to publish or apply as many low-quality papers and patents as they could, few with real novels and innovations. Consequently, some of them, particularly the younger, have to conduct misconduct! References and Notes 1. J. Liu, H. Yang, Science 675, 325 (2009). 2. We acknowledge supports from the Northeast Normal University Sci- tech Incubation Project (grant NENU-STC08017) and the key project of Chinese Academy of Sciences (grant KZCX2-YW-341). Science . ISSN 0036-8075 (print), 1095-9203 (online) 原文链接: http://www.sciencemag.org/cgi/eletters/323/5919/1280#13299 前一阵在Science Online上发的一点小意见。
个人分类: 学界观察|3073 次阅读|4 个评论
浊浪淘沙,也说论文造假
shenxzh 2010-1-31 18:43
任何事情的背后都有直接或者间接的原因,由于井冈山大学70篇论文一次性被撤销,有关垃圾期刊的争论被炒得沸沸扬扬。前一段时间,Nature上的一篇文章对这个问题也有一个讨论,急功近利的大环境是这个事情的主要背景。也许这是科学职业化过程中难免出现的产物。科学家最初都是一群吃饱了饭衣食无忧的人在那里折腾。经过工业革命,当科学的力量逐渐能影响和改变人类社会的发展时,出现了科学家这一特定的群体和职业。 既然是职业,里面就进去了太多的东西,其实这些东西也可以说是科学的一部分吧,出现也没什么奇怪的,天也不会塌下来。科学家也是人,也得吃饭穿衣,养家糊口。科学成果的评价标准到底是什么?这个比较难说清楚。科学的投资也许有时候和买股票差不多,尤其对于纯理论研究的投资,因为科研的结果不是计划出来的,可是很多时候我们在做科研之前已经完整的计划出了科研的结果,这也许是一个怪胎。论文是科研的一个部分,而且是一个重要的部分,科学研究的结果(这里不包括工程技术应用等学科,这些学科通过开发出的产品来让人门了解和体现其价值)和科学家所做的事情通过文章的形式让同行了解,也让普通人了解。少了这一部分,那么科研这个工作是不完整的。因此对于科学家而言论文任何时候都不能没有。无奈的是科研的最终产品-论文目前演变成了国内评价科研工作的一个主要指标,给了这个指标太多的权重。而工作评价结果的好坏又直接和利益密切相关。发展的结果是越来越多的科研人员把目光盯在了科研的最后一环文章上面。到最后的结局是开始更多的追求文章,而对于其他环节的重视程度无疑降低。井冈山大学的这个时间把这种情况推到了极致,给人的感觉变成了一种疯狂。这有点练功走火入魔的味道。这样的科研已经完全偏离了科学最初产生的本质揭示自然界的奥秘,使我们更加接近上帝。真正的文章是做出来的,是科研过程的总结和提炼。而目前我们的很多文章仅是写出来的。 科研的评价体系不改变,这种情况肯定就难以消除。但是目前的情况下要给出一个更为合理科学的评价体系也很难。搞不好可能连现在的这种也不如。我总体上对中国的科研是乐观的。金子是沙里面淘出来的,浊浪里面也照样会有金子。也许我们目前的状况算是浊浪排空浪淘沙。
个人分类: 坐井观天|3942 次阅读|0 个评论
英国科研评价“改名”的意义
pikeliu 2009-12-7 10:26
科研评价,改为科研优秀。 目的是为了避免让人讨厌的评价,而是要促进自我保障、自我改善。 Research Excellence Framework The Research Excellence Framework (REF) is the new system for assessing the quality of research in UK higher education institutions (HEIs). In previous years, research quality has been assessed periodically through the Research Assessment Exercise (RAE). We are currently consulting on proposals for the new framework. We will issue guidance on the REF in 2010 after completing the consultation. The first REF exercise is due to be completed in 2013. We are working in collaboration with the Scottish Funding Council, the Higher Education Funding Council for Wales, the Department for Employment and Learning (Northern Ireland), and with a wide range of stakeholders to develop the new framework. Representatives of the four funding councils sit on a steering group which oversees its development. Assessing research quality The REF will focus on three elements, which together reflect the key characteristics of research excellence. These are: Outputs The primary focus of the REF will be to identify excellent research of all kinds. This will be assessed through a process of expert review, informed by citation information in subjects where robust data are available (for example, in medicine and science). Impact Significant additional recognition will be given where researchers build on excellent research to deliver demonstrable benefits to the economy, society, public policy, culture and quality of life. Impacts will be assessed through a case-study approach that will be tested in a pilot exercise. Environment The REF will take account of the quality of the research environment in supporting a continuing flow of excellent research and its effective dissemination and application. Consultation 2009 The consultation will run from 23 September to 16 December 2009. It sets out proposals for all key aspects of the framework. We invite responses from the higher education sector as well as organisations with an interest in the use and impact of research from the private, public and third sectors. Consultation on the REF 2009 Brief guide to the proposals Further information More about the REF Bibliometrics Impact Publications and further information on the REF Contact us
个人分类: 美国科技与教育|2879 次阅读|0 个评论
国内外人文社科评价的比较研究
renquane 2009-9-9 10:13
国内外人文社科评价的比较研究 国内外人文社科评价的比较研究
个人分类: 治学随笔|3575 次阅读|0 个评论
解读“欧洲科学编辑学会关于影响因子不当使用的声明”
liueditor 2009-8-22 18:13
欧洲科学编辑学会最近发布了关于影响因子 不当 使用的声明,表明了该学会对影响因子极端扩大化应用的原则立场。他们认为,影响因子只能慎重地用于比较和评价整个期刊的影响力,不能用于单篇论文的质量评估,当然也不应作为直接或间接评价研究者或研究项目的方法。针对本声明,提出了个人一些认识。 最近,欧洲科学编辑学会( European Association of Science Editors , EASE )在其官方网站( http://www.ease.org.uk )上发布了一项关于影响因子 不当 使用的重要声明。现将这一声明及其文中引用的观点全文译出,供大家参考,并就个人的认识发表一些看法。欢迎各位编辑同仁、国家各级科研管理人员不吝赐教。 1 欧洲科学编辑学会关于影响因子不当使用的声明 期刊的影响因子已经成为科技期刊影响力的评价方法之一 。随着时间的推移,影响因子的应用延伸到了科技期刊质量评价、论文质量评价和研究者业绩评价等领域 ,甚至应用于学术职务任命、研究计划的基金资助和其他研究计划的资金支持 。 然而,影响因子不一定是期刊质量评价的可靠方法 。它的应用没有达到预期的目的,甚至还产生了极大的不公平 。 为此,我们欧洲科学编辑学会声明,影响因子只能慎重地用于比较和评价整个期刊的影响力,不能用于单篇论文的质量评估,当然也不应作为直接或间接评价研究者或研究项目的方法。 声明中引用的观点如下: 影响因子是一个定量的测量方法,这一方法建立在 Gross 对科技期刊相对重要 性 评价的基础上。 被引频次和影响因子对评价专业性和综合性期刊的总体水平是很有价值的。 尽管影响因子值是被用来评价期刊的,但依然有很多的文献论述把影响因子用于 评价研究者的工作。 英国高等教育基金委员会认为,用期刊的影响因子作为代用品来评价发表在期刊 上的论文的影响力,是极不科学的。 评价的基础是美国科学信息研究所发布固定不变的影响因子列表 , 这一影响因子按照申请人递交申请时最新一期 JCR 公布的为准。申请人以第一作者还是合作者身份发表和出版作品 是有区别的。 例如,在德国的大学里,把科学家发表论文的期刊的影响因子按照固定公式,常规加在一起,以此确定部门的研究基金。意大利癌症研究协会要求基金申请人填写一份工作 单,计算出申请者发表论文所有期刊的平均影响因子。 政府用于资助大学医院的基金在一定程度上依赖于研究者发表论文期刊的影响因子。 所有的引证研究应该被用于解释诸如专业领域、引证密度和半衰期等变量。 除了不具有代表性之外,期刊影响因子还受到几种技术性缺陷和多种基本特征的 影响。因此,单纯从学术层面来讲,可以解释期刊在影响力方面几倍的差异。 影响因子值是评价期刊论文短期和长期影响的最佳指标,然而当影响因子与其他 指标结合在一起进行评价时,短期和长期影响力这一变量将会降低 13% 以上。 的确,从 1900 年到 2005 年的 3800 万被引条目中,只有 0.5% 被引用超过 200 次。 公开发表的论文,有一半根本没有被引用过。引用的不均衡性众所周知,而且反复受到影响因子评论家的质疑。期刊影响因子值取代论文实际被引用次数来评价科学家个人,是一个极其有争议的问题。资金和政策管理机构通常希望减少麻烦,不去统计单篇论文和作者的被引用次数。这样以来,期刊的影响因子常常被用来评价单篇论文,而不考虑期刊论文被引用的不均衡性。 在芬兰, 2000 年发表于影响因子为 3 的杂志上的一篇论文可以获得比影响因子为 2 的期刊上的一篇论文多 7000 美元的医院基金。 甚至从来没被引用的一些论文当时也获得了足够的荣誉,就因为少数高被引用论 文确定了期刊的高影响因子。然而,期刊的影响因子和科学家个人或者研究小组的论文实际被引用次数的关系通常是很微弱的。 2 解读欧洲科学编辑学会关于影响因子不当使用的声明 欧洲科学编辑学会作为国际上非常有影响力的科技编辑专业学术团体,以学会的名誉公开发表关于影响因子不当使用的声明,这在世界范围内还是第一次。因此,必将引起国际学术领域的广泛关注。尤其值得关注的是,今后国际上关于期刊评价、机构和科学家个人科研绩效评价将会发生怎样的变化。这一声明更应该引起国内学术期刊界和科研管理人员的高度重视。 众所周知,影响因子是美国学者 Garfield 博士创立的。但创立的时间在国内学者中存在较大分歧。部分学者认为,影响因子创立于 1963 年,即在 1963 年 ISI 出版的 1961 年度科学引文索引 中正式提出和使用影响因子 。还有学者认为,影响因子创立于 1972 年 ,依据可能是 1972 年 Garfield 博士在 Science 杂志发表的 1 篇文章 。 而该声明中引用的第一个观点明确告诉我们, Garfield 博士于 1955 年发表在 Science 杂志上的一篇文章 中就正式使用了影响因子这一术语。据此,我们认为,影响因子这一概念是 Garfield 博士于 1955 年首次提出的,只是当时可能还没有明确界定究竟什么是影响因子。然而, Garfield 博士在该文中明确指出,影响因子 这一评价方法建立在 Gross 对科技期刊相对重要性评价的基础上。根据 Garfield 这一论述 ,我们可以作一大胆的假设,是 Gross 首先提出了影响因子这一概念, Garfield 博士详细阐述了影响因子的含义,并界定了影响因子的计算方法。 SCI 的诞生是 Garfield 博士长期对影响因子思考和研究的结果。有了 SCI ,影响因子才得以广泛应用,并不是有了 SCI 才建立了影响因子。因此,我个人认为,正式提出影响因子这一概念应该是在 1955 年,作为重要的文献计量学指标用于期刊影响力评价,应该是在 1963 年。 国内学者认为, SCI 和影响因子用于科技期刊和科研绩效评价主要集中于东南亚国家和地区,中国尤其突出,以至于被称为中国的 SCI 现象 。从欧洲科学编辑学会的声明中我们不难感觉到,影响因子在西方国家依然被炒得沸沸扬扬。不然,欧洲科学编辑学会也不至于公开发表这么一份声明。从该声明引用的文献中得知,英国、德国、芬兰等西方发达国家的学术机构也把期刊的影响因子作为科研绩效评价的最重要的手段。 期刊的影响因子作为一个最重要的文献计量学指标,较为客观地反映了期刊和论文之间引证和被引证的关系。从理论上来讲,期刊和论文被引用的次数越多,说明其实用性越强,影响力越大。因此,影响因子对于评价期刊、尤其是相同专业期刊影响力的大小具有较强的科学性和不可替代的作用。但目前的问题是,科技期刊的质量和科技期刊的影响力尽管在很大程度上是一致的,但二者并不是一个概念。影响因子用于学术期刊影响力的评价是相对科学的,但很多学术机构都用影响因子评价学术期刊的质量,这是很不严谨的。众所周知,学科专业不同,对期刊的影响因子影响很大,因而影响因子对相同专业学术期刊的评价很有价值,而对不同学科专业期刊的评价就缺乏科学性和严谨性。 影响因子应用的极端扩大化,在科研绩效评价中产生了极大的不公平。就象声明中提到的,影响因子的应用延伸到了科技期刊质量评价、论文质量评价和研究者业绩评价等领域,甚至应用于学术职务任命、研究计划的基金资助和其他研究计划的资金支持。 Holden 等 曾撰文指出,难道您雇佣谁、重新任命谁、任期多久、或者提拔谁的决定都把影响因子值作为起作用的替代标志吗?因此,我们国家出现的这些情况并不是我们自己的发明创造,都是由国际大环境决定的,并在此基础上延伸到了更加广泛的领域。如,有的单位用期刊的影响因子乘以固定的系数作为科研奖励的标准,论文在影响因子等于 1 的杂志上发表 1 篇文章奖励 5000 元,那么在影响因子等于 30 的期刊上发表 1 篇论文就奖励 15 万元;部分大学和研究机构把有没有被 SCI 收录的论文以及发表论文杂志的影响因子高低,作为是否授予学生博士和硕士学位的必备条件;还有的学校将有没有所谓的 SCI 论文及发表论文期刊影响因子的总和作为研究生评价和管理、奖学金评定的重要依据 。无论国内还是国外,都把金钱奖励作为重要的刺激手段,难道国内外的科学大师们只有在金钱的诱惑下,才有动力从事科学研究吗?我们国家的科研绩效评价和科研奖励政策为什么要高度依赖于美国的一个文献检索系统呢? 影响因子除了与期刊学术水平密切相关外,还受到许多非学术因素的影响,如期刊出版周期 、过度自引 、批判性引用 等都对期刊影响因子大小产生明显影响。又由于 SCI 收录期刊的地区和学科的极度不均衡,使得不同国家的科技期刊及不同学科的科技期刊影响因子差异很大。这些因素的存在都对影响因子的学术评价作用产生明显的负面影响。 影响因子应用最不合理的是,用某一期刊的影响因子评价该期刊发表的所有论文。我们必须清醒地认识到,同一期刊发表的不同论文,其质量高低和影响力大小存在极大的差异。用期刊的影响因子代替论文实际被引用次数对所有论文进行同样的评价,势必得出这样一条极其错误的结论,即同一期刊发表的所有论文其影响力是完全相同的。一种期刊的影响因子往往是由少数论文被引用而贡献的,至少有一半的论文发表后从没有被引用过?这一半论文因为发表在影响因子高的期刊上就应该享受和那些高水平论文一样的荣誉吗? 科研绩效评价必须把文献计量指标和同行专家评议紧密结合起来。对单篇论文的评价,绝对不能简单地用期刊的影响因子来代替。如果必须用客观的指标对论文进行评价,那么我认为,以论文发表后(无论在哪个期刊发表)某一固定时间内被引用次数(去除自引)评价论文的影响力相对来说比较合理。对科学家个人,最近有人提出用 h 指数对其学术水平进行评价 。由于 h 指数的计算也是建立于 SCI 论文被引基础上的,所以它和影响因子一样具有明显的局限性,只是 h 指数用于评价科学家个人,在一定程度上避免了一些偶然性因素,强调了科学家个人全部论文被引用的累计效应。但这一评价方法对中国科学家的评价将是非常苛刻的。因为,中国的大部分科学家可能都没有或者很少有 SCI 收录的论文,社会科学工作者 SCI 或者 SSCI 收录的论文更是凤毛麟角。 目前, SCI 和影响因子已广泛应用于国际、国内科研绩效评价体系中,对此我们既不能全盘否定,更不能全盘肯定。机械地应用影响因子的绝对值,并将其引入学术评价的各个领域是极不负责任的。 欧洲科学编辑学会发表这一声明,目的并不是否定影响因子在学术评价中的作用,而是希望学术界更加科学和理性地对待影响因子的学术评价作用,严格掌握其实用范围和领域,避免随意夸大其作用而带来新的、更大的不公平,从而更好地发挥影响因子的学术评价作用。 参考文献 1 任胜利,王宝庆,郭志明,等 .慎重使用期刊的影响因子评价科研成果.科学通报, 2000 , 45 ( 2 ): 218-222 2 苏婧,张咸宁,卓仁杰 . 从影响因子( IF )排名看生命科学的发展趋势 . 医学情报工作, 2001 , 22 ( 5 ): 6-7 3 何荣利 . 关于影响因子的分析与思考 . 科学学与科学技术管理, 2005 ,( 2 ): 21-23 4 黄劲松 . 期刊影响因子的偏差分析 . 编辑学报, 2004 , 16 ( 1 ): 77-78 5 徐兴余 . 关于影响因子的评价效用问题 . 现代情报, 2005 ,( 7 ): 19-21 6 杨化兵,叶春峰 .论影响因子及其在科研评估等方面的应用.情报方法, 2001 ,( 1 ): 32-34 7 陈家顺 . 学术期刊影响因子的非学术因素分析 .湖北师范学院学报 ( 哲学社会科学版 ) , 2005 , 25 ( 5 ): 133-135 8 王岩,刘雅娟 . 引文分析中期刊影响因子的运用 . 科研管理, 2001 , 22 ( 1 ): 133-138 9 郭世远,李 刚,谭映军,等 . 影响因子在评价科技成果及科技期刊中的作用 . 解放军医院管理杂志, 2001 , 8 ( 5 ):Ⅲ - Ⅳ 10 Garfield E . Citation analysis as a tool in journal evaluation . Journals can be ranked by frequency and impact of citations for science policy studies . Science , 1972 ; 178 ( 60 ): 471479 11 Garfield E . Citation indexes for science . A new dimension in documentation through association of ideas . Science , 1955 ; 122 ( 3159 ): 108111 12 中国科学院 地球化学所 .路甬祥针对 SCI 现象谈只有厚积薄发才能科学创新 . http://www.cas.ac.cn/html/Dir/ 2004/04/29 /2701.htm . 2008-03-16 13 苏玉华.关于 SCI 现象的几点思考.情报杂志, 2001 ,( 6 ): 53-54 , 59 14 Holden G , Rosenberg G , Barker K , et al . Should decisions about your hiring , reappointment , tenure , or promotion use the impact factor score as a proxy indicator of the impact of your scholarship ? Medscape General Medicine , 2006 ; 8 ( 3 ): 21 15 姜春林,张冬玲.期刊影响因子 : 研究生科研绩效评价的重要指标.高等工程教育研究  2005 ,( 3 ): 86-89 16 姜春林,张冬玲.关于期刊影响因子在研究生奖学金评选中的应用问题.科技管理研究, 2005 ,( 4 ): 120-121 , 129 17 刘雪立,董建军,周志新,等. 我国医学期刊出版周期与影响因子关系的调查研究.中国科技期刊研究, 2007 ; 18 ( 1 ): 43-45 18 张凌之影响因子在我国科技期刊评价中的作用分析编辑学报, 2003 , 15 ( 2 ): 126-127 19 刘雪立 . 参考文献的继承性引用、指示性引用、批判性引用与影响因子的标准化 . 中国科技期刊研究, 2004 : 15 ( 3 ): 251-253. 20 何汶(摘译) . h 指数衡量科学家个人成就的一个评价指标 . 评价与管理, 2006 , 4 ( 2 ): 75 21 刘雪立 . 美国科学家评价的新方法 h 指数 . 新乡医学院报, 2007-05-17 ( 3 )
个人分类: 研究论文|7264 次阅读|2 个评论
低成本运行战略下高薪化政策的运行方法:抓两端
arithwsun 2009-8-16 13:53
续前贴,其中引用标号均保持与前贴一致,实际上,它们被集成在同一篇文章中,即 Google Doc保持最新文字更新 我们前面讲过,整体提高科学家培养成本,跟低成本化的思想并不矛盾,正是提高了人才培养成本,有了更好的人才,整个系统的运行成本,(在相同级别比较下)只会更低,而不是更高。 但是,如果仅使用这样的理解,科学家薪酬的提升是比较缓慢的。在局部上,各校为了人才竞争,必然会进行更高速度的高薪化政策,所以,高薪化在现实中会必然存在,用任何理论都是挡不住的。 虽然,高薪化是必然趋势,无法阻挡,我们可以去选择适合低成本化思想的具体高薪政策。 譬如,在低成本化的总体选择下,高薪政策,应该采取 提升工资体系不如提升科研项目体系,提升科研项目体系不如提升科研奖励体系. 道理是,工资体系只能涨不能降(除非国家货币贬值),科研项目和科研奖励则具有相对临时性,一次一评,不搞终身制,可以随时收束受益面,不用跟公务员体系相挂钩,不会导致国家整体工资水平全面上涨,自然后者的总体运行成本会低。 为什么给科研项目又不如给科研奖励呢?李小文的建议,C2. 教授从课题经费中取得的报酬不得超过基本工资的1/3,实际上就是指出,科研项目即使支付科学家报酬,也应该是基于其人工成本,不能将科研项目变向地当作科研奖励。科研奖励,就应该按科研奖励的方式来评,二者不能混淆。 用科研奖励提升科学家待遇,方能名正言顺,有多大的贡献,才能有多大的奖励。而不能光靠项目大,就弄来科学家个人的高薪。 另外,前面讲过,科研奖励可以比科研项目更好地促进各大学(实在)名气的提升,更利于在公众和政府面前宣传,从而形成更多的支持。 但是,在现实操作中,为什么科学界更倾向于选择科研项目这种形式呢?有可能是科研项目具有避税功能,可以通过或明或暗的方式,变向地把钱弄到个人手中。所以,国家应该执行科研奖励免税制度,审批合格、合理的各级科研奖励,对其免税,以此促进科研奖励制度的大范围实行。 这样,我们既能提高科学家的相应待遇,又能保持住一个低成本运行状态下的工资体系,其意义在经济学上,不可谓不大。 在实行过程中,主要是抓两端,即顶级科学家这一端,和初阶年轻科学家这一端,其实施具体方法有所不同: a. 顶级科学家的待遇提升,应该由国家制定一个统一政策,限定工资上界,以防止各大学为局部利益,以高额工资待遇争夺顶级科学家。 虽然各校的人才竞争打破了科学界的一潭死水,但若仅以高薪吸引科学家,则只是薪酬竞争,而无法促进各校的制度竞争。限薪之后,各校若想吸引人才,必须更多地依靠设计出更好的本校科研制度,更好的科研管理服务,以此来吸引人才。各校可能在具体参数上采取不同的制度设计,科学家们用脚投票,会选出其中最好的数种,形成制度互补。 这有点像薛涌博文中所建议的美国足球界限薪政策,限薪之后,美国足球反而创出佳绩,何也,再一次证明低成本作为整体战略的正确性。 各校在争夺人才之战中,不能在工资待遇上无限制的竞争,需要国家层面给出一个 紧箍咒,而不能指望各校自律。 顶级科学家的工资封上限之后,仍然是可以拿到符合其成就的待遇的。比如采取科研奖励这一形式,有多高的科学贡献,就给多大的科研奖励,李小文的C2建议,实际上就是要封住顶级科学家通过科研项目拿到主要薪酬的路径,而寄希望于工资体系提升。但工资体系直接提升,会通过各种现实的挂钩效应,带来整个国家事业单位的高成本运行,简直会成为一场灾难,所以, 这条路也是需要一定程度封住的。 那么只有通过科研奖励的形式,给予真才实学者以价值承认,同时一箭数雕,重新推起公众对科学界的正面关注,毕竟科研奖励要比科研项目,更容易获得大众的兴趣。 这样做,各校在人才强校战略下,必然会以更高的积极性吸引顶级科学家,以期为本校获得更多的科学大奖,提高学校荣誉和名气。为此,他们必然会动用各种手段,除了制度竞争的根本手段外,还会采取提供入校一次性科研项目、配套科研奖励政策等措施,这些经济措施的施行,在顶级工资限薪的国家禁令下,会与工资体系无关,不会抬高整个社会工资的低成本运行状态,同时又可能促进各学校的科技管理制度的竞争,因此会形成良性循环。 b. 初阶科学家的待遇提升,应该配合国内的大学人事制度的改革,尤其是任期试轨(Tenure Track)制度的实行。即,年轻大学教师,若在数年内不能拿到该校的终身职位(副教授以上),则必须走人(校方提前一年通知)。 这一制度是非常残酷的,但也正是因此,长期实行此制度的西方大学保持了旺盛的活力和高水平的研究水准。国内一些名校,非常头疼这个问题,数年前曾试探推行此制度,新闻轰动一时,最近了解,现实中并未真正实行。 若要实行这么残酷的制度,名校在开始施行之时,必须给初阶年轻科学家以高额待遇,方能抵消其所承受的巨大风险和可能的巨大牺牲。这样,相比于尚未施行此制度的学校,其合理性方能得到正当的诠释。否则,社会会很难理解那些年轻科学家,既要承受巨大的风险和牺牲,工作时又并未有更大的、更多的薪酬,为什么非要进那些名校受这个罪,从而不能给他们中的失败者以正确的评价,和退出名校后的容纳。 那么,对于进入任期试轨(Tenure Track)制的年轻科学家,这个高额待遇要高多少,方可以抵消其承受的巨大学术风险和人生挑战呢?还是工资基本不动,以科学项目、科学奖励相结合的形式,将其整体待遇提高到当前待遇(或尚未实行此制度的同类院校)的数倍,到底多少倍,需要跟这些年轻人协商和博弈,高赏之下必有勇夫,高到勇夫的数目超过空缺职位数目3倍即可,足以够这些名校选择精英了。 也许这个待遇额度是3倍,也许更高,从生活上来说,足以使得年轻科学家应付可能的失败带来的短暂失业。很可能,其待遇额度甚至会超过某些终身副教授、终身教授的待遇,因为若他们虽已得到终身职位,但没有科研项目、科研奖励,总的待遇仍然可能低于优秀的初阶年轻科学家。 当然,这种额度下的待遇,也并不能指望就让年轻科学家解决购房问题,实际上,只要不去购房,科学家的工资和那些可能的补充待遇已经足够生活得很滋润了。住房问题怎么解决呢,可以参照D2-c,D2-c'。住房问题,完全可以由国家和学校这些层面,解决低成本运行操作。 这些科研项目和科研奖励,自然都会牵扯到建立一个合理有效的科研评审体系,譬如前述,现代信息技术的运用,会帮助我们解决科研评审体系中的信息不对称,从而缩小制度腐败和行为腐败的可能性,这是另一个问题,需要专门讨论,决不能因为科研评审体系的暂时的、局部的失误或失效,而否定中国科学发展中科研项目和科研奖励政策的重要性,重新试图以行政决策来替代科研评审和科研项目、科研奖励,恰恰应该是相反的趋势才对。
个人分类: 大学建设|4312 次阅读|2 个评论
Ranking Theory: SCI中涉及到的数学算法
arithwsun 2009-6-30 04:12
SCI中每种杂志都有一个分数,那么这个分数是如何算出来的呢? 这方面信息我还不是专业人员,只看了两篇相关科普介绍,提供给大家阅读,专业人士请告知,SCI分数是否真是由下面这两篇文献中的数学算法算出。 马志明: Google 搜索与 Inter 网的数学 Rar1 Rar2 J.B. Keller, Ranking of Teams, Authors and Pages Rar1 Rar2 Rar3 Rar4 实际上,Stanford大学资深数学家,Wolf奖得主 J.B. Keller 于1978年提出了一个Ranking算法,刚开始,是用棒球赛来作为例子的,希望在评价棒球队排名(Rank)时,能够更加客观公平。 当Keller在SIAM任职时(Board of Trustee),开始将这个算法用于期刊评价和作者评价,只需要将棒球队换成期刊,将棒球队A战胜棒球队B一次,换成期刊A被期刊B引用一次,这种换元法对数学家来说当然是小菜一碟。 马志明的文章,未言及著名数学家Keller的贡献,而将其归功于Google的两位创始人, 这一漂亮的想法出自斯坦福大学 1998 年在读的博士研究生 Sergey Brin 与 Larry Page 。 Keller的这篇文章也讲,This same method was subsequently discovered by the founders of Google, who realized its value for ranking web pages。 关于Keller,有一个采访 Interview with Joseph Keller, Notices of AMS,vol. 51, number 7 备份地址 不管怎样,这都说明,排名问题,不仅仅是一个主观性社会问题,更是一个复杂的数学问题,并不简单。 科学网上,最近有些科学家,指摘SCI的不足之处,不过其理论依据,仍未经数学语言而上升到科学的角度,局限于简单的社会问题范畴,因而其立论往往不能服人,或者模糊性太强,或者博贴的预设政治立场太强。 Keller的文章,就有一段讲到这种算法会出现不足之处的原因,仅仅提了一下,未深入。 实际上,SCI分数,需要数学算法才能科学的定义,数学算法本身为适应更加复杂的实际情况(毕竟SCI这个信息量和复杂性比棒球赛要大得多),也需要进行深入的改进。 科学家们在批评SCI之时,或者,不是批评SCI本身,而是在批评对SCI的乱用之时,最好先对其涉及到的Ranking算法,有一个科普级的了解,毕竟Keller的文章只需要大一水平的线性代数就能看懂,马志明的文章,后半段稍微难些,需要概率统计的知识。 不仅SCI分数,实际上科学基金评审,如何在评审人的投票之后进行排名,怎么设计一个好的数学算法,问题想来应该也并不简单。 我们是科学家,不是政治家,必然不应采取政治替代科学的态度。非常可惜的是,在有些科学家的博文上,却出现了这种趋势。还好,后面有些科学家博文跟进,将很多信息明确化,使SCI讨论中的政治态度大为减少。 SCI专题博文收藏-Diigo MathCoffee Group,申请注册后,你也可往里贡献 实际上,即使是政治学方面,关于选举的方法,也有本数学书可以参考看看。 S.J.Brams, Mathematics and Democracy: Designing Better Voting and Fair-Division Procedures, Princeton University Press 2008 附注1. 如果用Page Rank算法,取代较为粗陋的SCI算法,应是一个可以尝试的方向。不过,Page Rank算法本身也不完善,细小的缺陷先不去说,先说一个最大的,即, 如果一篇文章被不同领域的文献引用,则其Impact Factor应该更大才对。这样,就需要考虑如何在算法上,定义不同领域不同文章的区分度。以及如何将这种区分度,加入到Ranking算法中去,这是目前Google也尚未做到的。 附注2. Ranking(评级)本来是社会中非常重要和严肃的内容,往往牵扯到至关重要的人际资源分配。没想到,因为网络的出现,网络内容的Ranking,实际上严肃性就没有那么大,允许出现错误,这个好处就使得各种Ranking算法的实验成为可能。相信这些实验,通过不严肃的网络评级,最后能演化到严肃的应用,从而为人类政治学的深入,开辟蹊径。
个人分类: 大学建设|7126 次阅读|3 个评论
好吧,请你来告诉我,这研究生论文奖该怎么评?
zhaoxing 2009-6-25 23:56
仅以此反映现今科研评价中,很多人只破不立,重复的发表着对现有体制的批评,却从未给出更好办法的现象。 ---------------------------------------------- 某校有一对研究表现突出的博硕生进行奖励的项目,称为研究生创新奖。每年评n人,奖金m k。 申报办法是申报人将各自研究成果(主要是论文和专利,专利这东西很玄,这里只谈论文,姑且将此奖励称为论文奖)报上去。 那么研究生院该怎么评? 办法1,数谁论文多。你一定在骂。。。 办法2,数谁高水平论文多。你会说啥叫高水平? 办法3,看谁发的高档次期刊论文多。你会说期刊水平能代表论文水平吗? 办法4,把每个人的材料发给相关学科的专家进行所谓同行评议。被评审人会说专家懂个P!;项目负责人会说那些专家会给你认真审?,还有,评审成本比奖金总额还多,谁出?你出吗!。 办法5,既然专家不懂或不认真审,那咱们还是遵循所谓科学规律,让实践来检验这些文章吧。对社会发挥了作用的论文,才是好文章。有的被评审人会说哦,那我过些年让我小P孩来代领吧,有的甚至会说好吧,那以后你们把钱换成冥币烧给我吧。 还是请你来告诉我,这研究生论文奖该怎么评?
个人分类: 计量学|1419 次阅读|7 个评论
学院科学
rbwxy197301 2009-5-7 15:51
澳大利亚学者M.Bridgstock等人把科学分为了学院科学、产业科学和政府科学三类。   其中,学院科学,简单地讲,就是在学术机构里进行的科学活动,这些机构通常是指大学。在学院科学,有两个重要的关键词是:论文和期刊。论文通常是枯燥的专业术语写成的,一般只有科学家能够看懂。另外,论文的一个重要特点是要经过评审才能发表。专业期刊是面向专业科学家的,专门为他们报道最新的研究成果。   这里有一个奇怪的、关于学院科学家和他发表论文的悖论。学院科学家花了很多年时间接受如何做研究的训练,等进行高年级的训练后,他要花好几个月的时间去做一项研究工作。有些实验做起来既困难又复杂,历经周折;的些实验需要收集成千上万个观测数据,含辛茹苦。在接受训练即将完成之际,以及经过数月实验室的寒窗之苦之后,他终于得到了一些有价值的研究结果。接着,他开始坐下来把研究结果写成论文,然后选择一个合适的期刊投稿。怪就怪在这里,不管他的研究结果多么重要,也不管该期刊多有名气,如果论文发表了,他通常得不到一分钱报酬。更有甚者,许多期刊还收取发表论文的版面费。   这到底是怎么会事呢?如果科学知识是有价值的,为什么科学家得不到相应的回报呢?既然得不到相应的报酬,甚至还要倒贴,为什么他们还要迫不及待地去发表论文呢?原来,这是学院科学本性使之然。一个科学家,如果想在学术上往上走,就必须在本单位提职称,要么跳槽到别的地方,谋求一个更好的科研职位。   在学院科学系统里,升迁的关键在于是否成功地发表了期刊论文。一般而言,一个科学家发表的论文越多,且同行对论文的质量评价越高,那么他就在学术系统里得到升迁的机会就越大。   美国人创造了一个短语来描述学术界存在着发表论文的压力,那就是要么发表论文,要么下岗走人(publish or perish)。这有点残酷,但却是现实。   这种体制的后果有很多方面。 首先是激励学院科学家多快好省地发表论文。 这就形成了一种科研竞赛,每个科学家都要在别人前面做出重大的科学发现,争先恐后。很自然,科学家承受着巨大的压力力争获得科学竞赛的第一名。    第二个后果是导致科学家群体形成了不同和等级阶层。 著名科学学专家和科学史专家Derek de Solla Price(1965)发现,10%的科学家发表了50%的科学论文,并且,经大部分重要科研工作都被这10%的高产科学家所主导着。最优秀的科学家会流向最具有声望的大学,找到最好的工作。这样就会存在一个不断强化的过程。    第三个后果是正规的出版系统(学术期刊)不能做到及时反映科研的进展。 许多科学家都会有这样的感觉。通常,一篇论文从投寄,经专家评审到最后出版,一般要花一年左右的时间。出版周期之长,以至于人们读到这篇论文时,都觉得有点过时了,这多少有些无奈。为了弥补出版系统的缺憾,一些不太正式的信息交流传播系统应运而生,如学术研讨会和通信的方式发表论文。   此外,这种体制还会导致其它一些后果,如学术界存在发表论文的压力,导致学术不端行为,如伪造科学数据。还有,互联网的发展使信息交流越来越依赖于电子资源,但是网上或是电子期刊上发表的论文,是否能够得到与纸质期刊同等的待遇还没有规范。   传统上,大学追求思想自由和观点独立,但由于企业资金大量流入学术机构,学者们发表批评观点就会变得犹豫不决,甚至三缄其口,这种压力是客观存在的。而且随着企业资金对科学家变得越来越重要,有关忠诚和价值的问题也变得非常紧迫。最后,随着科学的发展,做实验和做课题已不再是单个科学家能够独立完成的了,往往需要更多的合作。   学院科学系统不是一个静态的系统。学院科学正在发生着变化。现在在澳大利亚,几乎所有的学者都发现,大学开始来越重视教学了。那种上课前临阵磨枪、讲台上照本宣科,只管一门心思做科研论文,照样提职称的日子一去不复还了。之所以有这样的变化,一方面是政府认为,只有培养出高质量的人才,它花在大学上的钱才是值得的;另外一方面,越来越多的学生开始支付部分教育费用,自然挑选那些能够给他们提供最好教学的大学。   还有一个变化是涉及用于科学实验的资金问题。科学不是便宜的东西,所以为了使科学以较低的成本进行,政府鼓励科学家之间要加强合作,与其他机构和工业进行合作。使科研工作更加适用,满足各种实际需求,这种压力越来越大。不同部门和不同机构之间科学活动的关联的程度越来越大。      上面内容只是摘取了《 科学技术与社会导论 》一书中很少的一部分内容。更详细的可以阅读: (澳)布里奇斯托克等著,刘立等译.科学技术与社会导论.北京:清华大学出版社,2005.12 ;清华新人文丛书-科学人文系列)  
个人分类: 生活随想|3632 次阅读|2 个评论
有感于“CCTV小品大赛”
rbwxy197301 2009-5-2 15:08
第七届CCTV小品大赛决赛于4月29日-5月6日,19点30分在中央电视台综艺频道播出。央视网讯两年一届的CCTV小品大赛已成功举办六届。大赛推动和繁荣了小品艺术创作,发现和锻炼小品表演、创作人才,大赛的电视播出也成为中央电视台的品牌节目,深受广大小品专业人员和电视观众的欢迎和喜爱。   为什么比赛的结果能够被大多人所接受呢?因素很多,如监督机制:大赛监审组对大赛进行全程监督、北京市公证处对比赛过程及评分结果进行监督并予以公证;评委的选择:有国家一级演员、有国家一级编剧、有大学教授。我觉得最为重要的是信息公开,现场直播让每一位观众成为潜在的评委,短信、大赛论坛、我要投票、其它媒体的介入,让所有的信息可以非常方便的被观众获取。这样的一种机制让竞赛的结果经得起推敲,让人信服。   目前,对于项目评价、科研评价有很多争议。其中一个原因是因为只有评价的结果是公开的,评价过程中的信息很难通过公开的渠道来获得。如果科研管理部门、项目评审部门能够把评价的更多信息选择网络平台来公之与众,那么各种争议应该会少一些。     任何评价方法和制度都很难被所有人接受,争议之余,更好的途径是对它理行完善。公平、公正与公开是评价的基本原则,而公平与公正是要通过公开来实现的。
个人分类: 生活随想|3418 次阅读|0 个评论
读“中国人得GDP,外国人得利润”
rbwxy197301 2009-4-23 18:45
借用别人博文的题目来说一些自己的想法。   许多研究人员用国家的经费或者自掏腰包,做出了一流的成果,然后把它率先在国外发表。这些成果刊登的期刊国内有多少图书馆能够购买?收录这些期刊的全文数据库国内有多少学者使用?更别说这些科研成果为国内学术界以外的人来学习和使用。也许我太狭隘,但是我总觉得拿着纳税人的钱但给纳税人却实质上没有多少回报。现有的科研评价总是要把国外的刊物抬的那么高,这无形中对国内很多优秀的期刊发展是一种无形的打击。长此以往,国内什么样的期刊能够与Nature,Sicence比肩呢?中国每年在SCI\SSCI\AHCI检索的数量在不断攀升,但那些优秀的成果能够有多少国内的学者可以受益呢?我们把东西无偿,甚至高价送出去,然后图书馆这样的服务机构再高价买回来。也许个人可以收益不少,但是对整个国家的科研,对于国内学术期刊的发展,这种状态是否要有所改变呢?   老听人说国内的期刊不怎地,但现有的科研评价机制和导向又怎么能够让它们的质量高起来呢。   是不是学术界也在制造着中国人得GDP,外国人得利润这种现象呢。 转发:谁制造了中国人得GDP,外国人得利润的怪象 阅读(6341) 评论(28) 发表时间:2009年04月21日 07:49 博文地址:http://qzone.qq.com/blog/79991405-1240271353 同国外汽车业巨头联姻,曾被不少中国汽车企业当作是发展壮大的一条捷径。但是,中方在合资企业中的话语权越来越少,逐渐退化为一个简单的财务投资公司,而所谓的合资企业也只能老老实实地做个加工厂,挣点制造费。通用汽车总裁曾不无得意地表示,我们与中国企业各取所需,中国人得到了GDP,我们得到了利润。(《瞭望新闻周刊》4月20日) 这是一个让人尴尬的新闻,也是一个让人无奈却又似乎熟悉的场景:中国人得到了GDP,我们得到了利润。如此的话语,把国人对GDP的追捧形象跃然纸上,也一下子捅到了国人的疼处。 应明确,GDP只是一个描述经济增长情况的统计概念。社会应当非常地关注它却也不能看得太重,更不能只看其增长速度,而是要追求全面、协调和可持续的发展。美国学者詹姆斯?托宾和威廉?诺德豪斯在1972年提出净经济福利指标,第一次试图打破GDP情结,将GDP分成好的及坏的,好的减掉坏的才是社会净经济福利,如扣掉都市污染、交通堵塞等产生的社会成本,加进休闲、家政、社会义工等传统上被忽略的一类经济活动。 但是,在我们的社会中,GDP似乎成了各级政府官员竞相追捧的东西。在他们看来,有了它,就有了光明的前程。GDP在很多官员眼里,几乎成了政绩的代名词。可以说,中国人得到了GDP,我们得到了利润的怪象决不仅仅存在于汽车行业。虽然,近年来公众对GDP的局限性开始有越来越多的认识。如GDP不能准确地反映一个国家财富的变化,不能反映某些重要的非市场经济活动,不能全面地反映人们的福利状况,更不能反映事关民生的就业状况等,但是,在政绩幽灵的蛊惑下,所谓的理性的政绩追求往往是空话。 必须看到,作为标志社会财富增加的GDP中还有一些消极的内涵。如由于违章建设造成楼房倒塌,发生大量人员伤亡的恶性灾难、矿难事故之后,抢救人员的劳动、医务人员的治疗、殡仪馆的火化等,都会拉动服务业、建筑业和工业的增长,在国民经济核算中都表现为GDP的增长,而这种增长难道不是灾难吗?中国人得到了GDP,我们得到了利润的怪象难道不是给了我们一种提醒吗? 实践中,对各级政府和部门的政绩考核过分强调GDP指标的权重,而对政府作为社会公共事务的管理者、公共产品和公共福利的供给者以及弱势群体福利的保障者的角色,缺乏应有的重视。笔者以为,中国人得到了GDP,我们得到了利润还是这种制度积弊根源的显现。试想,当GDP成了官员升迁的指挥棒,他们焉能把公众福利和幸福放在心上? 资源消耗支持的GDP增长,尽管数字上令人激动,实际上却是涸泽而渔。一个简单的事实是,我国每创造100元人民币GDP所付出的投资代价越来越大。在目前体制下,我们有理由相信,如果以GDP论英雄,会造成一种不持续的、片面的、畸型的发展,也会带来更多的中国人得到了GDP,我们得到了利润的怪象。 我们还要沉迷到何时?还要沦陷到何地才能止步?中国人得到了GDP,我们得到了利润的荒诞,根治隐藏在其背后的制度性积弊应成为整个社会努力的方向。
个人分类: 学术期刊|3341 次阅读|7 个评论
科普文:什么是学者的h指数?如何计算?
热度 6 zhaoxing 2009-4-9 15:29
赵星(Zhao Xing),2009.4.9 http://www.sciencenet.cn/u/zhaoxing/ 本博文主要科普两个知识。第一,什么是学者的h指数?第二,如何计算? 1.什么是h指数? h指数是美国物理学家Hirsch于2005年提出用于评价科学家的科研绩效。虽然笔者看来其原始论文的题目及Hirsch对h指数的含义描述值得讨论,但h指数在短短几年时间内就全球风靡,很快被扩展用于期刊、研究团队、大学、科研院所、学科、国家、基金和研究热点等不同领域。下面以科学家个人h指数进行介绍,其它对象的h指数可以此类推。 h指数的物理含义可简单的表述为:有h篇论文被引用了不少于h次。不少学者认为h指数综合衡量了论文的数量和影响力。有趣的是,原本人为规定的h指数居然被一些学者数学推导得出:h指数与原有的评价指标之间存在着微妙的联系。而且数据也一定程度上证实了这些联系。 h指数主要是一个影响力判定参数,其特点是关注科学家发表了多少有影响力的论文。因此,若你的研究没有一定的质量,没有引起学界的关注和交流,无论你发表了多少论文,都无法获得一个较高的h指数。h指数的测度有利于那些出精品的科学家,也可以发现哪些人是灌水者。h指数面前,你可以有一些文章成了睡美人,但要避免一辈子都怀才不遇。 2. 如何计算h指数? 科学家h指数的计算方法可描述为:将科学家某个时段(也可是全部)的论文,按被引次数从高往低排,然后每篇论文得到一个序号,将每篇论文的序号和被引次数进行比较,找到序号h,使得这一篇论文的序号h小于或等于它的被引次数,而下一篇论文(序号为h+1)的序号大于它的被引次数。也许这样的描述还是让你头晕,那么看一个例子,你就明白了。首先将某一学者的论文按被引次数从高往低排,得到表1,然后计算过程如表1所示。 表 1 某学者的 h 指数计算过程 序号 论文 论文被引频次 判定 1 引用次数最多的论文 A 18 118 2 引用次数第 2 的论文 B 8 28 3 引用次数第 3 的论文 C 8 38 4 引用次数第 4 的论文 D 6 46 5 引用次数第 5 的论文 E 5 5=5 , h 指数为 5 6 引用次数第 6 的论文 F 4 64 7 引用次数第 7 的论文 G 4 74 外文论文的被引次数获取现在常采用的数据库有Web of Science,Scopus和Google学术等,中文论文常采用的有CNKI引文数据库, CSCD和人文社科的CSSCI等。需指出的是,CNKI引文数据库的首页数据问题很大,建议进入旧版手工检索。 当然,任一单一参数的评价都有局限性,h指数的问题也很多,以后再详述。 笔者旗帜鲜明的反对任何单位采用任一h指数及其变体进行涉及资源分配问题的任何形式量化考核。
个人分类: h指数|79331 次阅读|16 个评论
h指数研究参考文献
zhaoxing 2009-4-9 13:37
h指数研究外文参考文献 Provided by 赵星(Zhao Xing),2009.4.9 http://www.sciencenet.cn/u/zhaoxing/ h指数是论文影响力的一个测评参数,其简介可参见博文: 什么是学者的h指数?如何计算?(点击进入) 下面是我所能查询到的已刊出的341篇h指数研究外文论文(截止于09年4月8日,以后会再更新)。排序按论文出版年(但并非严格的刊出时间顺序)。其中除了关于h指数本身的研究,还有一些是评述,或研究其它对象时用到了h指数。 若有需要其中某篇论文而暂时无法下载,可与我联系 。除了部分会议论文外,绝大部分期刊论文应都能代为下载全文。 文后附有本文PDF格式供下载。 之前任胜利老师和刘玉仙老师也都曾在科学网讨论过h指数研究的参考文献。链接如下: 任胜利老师博文: 研究h指数(h-Index)应阅读的文献(点击进入) 刘玉仙老师博文: 单篇补充-----H指数应阅读文献(点击进入) h指数研究外文参考文献: Hirsch, J.E., An index to quantify an individual's scientific research output. Proceedings of the National Academy of Sciences of the United States of America, 2005. 102(46): p. 16569-16572. Dahlgren, H., R.L. Jensen, and F. Valentin. Heterogeneity of intellectual assets - a method for identification and measurement with patent data. in 10th International Conference of the International-Society-for-Scientometrics-and-Informetrics. 2005. Stockholm, SWEDEN. Frangopol, P.T., The Hirsch index - a new scientometric indicator for the evaluation of the results of a scientific researcher. Revista De Chimie, 2005. 56(12): p. 1279-1281. Frangopol, P.T., Indexul Hirsch - Un nou indicator scientometric pentru evaluarea rezultatelor unui cercetǎtor ?tiin?ific. Revista De Chimie, 2005. 56(12): p. 1279-1281. Glanzel, W. On the h-index - A mathematical approach to a new measure of publication activity and citation impact. in 33rd Annual Conference of the Canadian-Association-for-Information-Science. 2005. London, CANADA. Olden, J.D. How do ecological journals stack-up? Ranking of scientific quality according to the h index. in Symposium on Marsupials as Models for Research held at the 9th International Mammalogical Congress. 2005. Sapporo, JAPAN. Index h of Hirsch: contributions to a debate. Profesional De La Informacion, 2006. 15(4): p. 304-306. Banks, M.G., An extension of the Hirsch index: Indexing scientific topics and compounds. Scientometrics, 2006. 69(1): p. 161-168. Batista, P.D., et al., Is it possible to compare researchers with different scientific interests? Scientometrics, 2006. 68(1): p. 179-189. Bollen, J., M.A. Rodriquez, and H. Van De Sompel, Journal status. Scientometrics, 2006. 69(3): p. 669-687. Braun, T., W. Gl?nzel, and A. Schubert, A Hirsch-type index for journals. Scientometrics, 2006. 69(1): p. 169-173. Cardona, M., Topics in Applied Physics: Foreword. Topics in Applied Physics, 2006. 104: p. 1-10. Cardona, M. and W. Marx, Vitaly L. Ginzburg - A bibliometric study. Journal of Superconductivity and Novel Magnetism, 2006. 19(3-5): p. 459-466. Chapron, G. and A. Hust, Open, fair, and free journal ranking for researchers. Bioscience, 2006. 56(7): p. 558-559. Cortes, H.D., et al. Web Application to Profiling Scientific Institutions through Citation Mining. in Conference of the World-Academy-of-Science-Engineering-and-Technology. 2006. Prague, CZECH REPUBLIC. Egghe, L., Theory and practise of the g-index. Scientometrics, 2006. 69(1): p. 131-152. Egghe, L. and R. Rousseau, An informetric model for the Hirsch-index. Scientometrics, 2006. 69(1): p. 121-129. Egloff, B., Some remarks on 'Impact Factor'. Psychologische Rundschau, 2006. 57(2): p. 116-118. Egloff, B., Einige anmerkungen zum Impact Factor. Psychologische Rundschau, 2006. 57(2): p. 116-118. Glvez Toro, A. and M. Amezcua, The Hirsch's h-index. An update on the author's evaluation methods and their contributions in scientific publications. El factor h de Hirsch: The h-index. Una actualizacin sobre los mtodos de evaluacin de los autores y sus aportaciones en publicaciones cientficas, 2006. 15(55). Glvez Toro, A., et al., Autor Impact CUIDEN Citation. Relevant scientific trajectories and excellence in the Iberoamerican scientific space to Hirsch's h index. Impacto de Autor CUIDEN Citacin. Trayectorias cientficas relevantes y excelencia a travs del Factor h (h-index) de Hirsch en el espacio cientfico iberoamericano, 2006. 15(55). Grivell, L., Through a glass darkly: The present and the future of editorial peer review. Embo Reports, 2006. 7(6): p. 567-570. Grothkopf, U. and S. Stevens-Rayburn. Introducing the h-index in telescope statistics. in 5th Library and Information Services in Astronomy Conference. 2006. Cambridge, MA. Ioannidis, J.P.A., Concentration of the most-cited papers in the scientific literature: Analysis of journal ecosystems. PLoS ONE, 2006. 1(1). Kelly, C.D. and M.D. Jennions, The h index and career assessment by numbers. Trends in Ecology Evolution, 2006. 21(4): p. 167-170. Kim, W.J. and J. Seo. Evaluation of an individual's scientific productivity using author rank. in Conference on Convergence Technology and Information Convergence (CTIC). 2006. Las Vegas, NV. Lehmann, S., A.D. Jackson, and B.E. Lautrup, Measures for measures. Nature, 2006. 444(7122): p. 1003-1004. Liang, L., H-index sequence and h-index matrix: Constructions and applications. Scientometrics, 2006. 69(1): p. 153-159. Packer, A.L. and R. Meneghini, Articles with authors affiliated to Brazilian institutions published from 1994 to 2003 with 100 or more citations: I - The weight of international collaboration and the role of the networks. Anais Da Academia Brasileira De Ciencias, 2006. 78(4): p. 841-853. Pe?a-Rey, I., N. Prez-Farins, and P.M. Campos, Scientific production on tetrachloro-dibenzo-dioxins: A bibliometric study. Scientometrics, 2006. 69(3): p. 639-650. Podlubny, I. and K. Kassayova, Towards a better list of citation superstars: compiling a multidisciplinary list of highly cited researchers. Research Evaluation, 2006. 15(3): p. 154-162. Prathap, G., Hirsch-type indices for ranking institutions' scientific research output. Current Science, 2006. 91(11): p. 1439-1439. Purvis, A., The h index: playing the numbers game. Trends in Ecology Evolution, 2006. 21(8): p. 422-422. Saad, G., Exploring the h-index at the author and journal levels using bibliometric data of productive consumer scholars and business-related journals respectively. Scientometrics, 2006. 69(1): p. 117-120. Sanz-Guerrero, O., P. Cubero, and M.A. Rodriguez, Impact evolution in the bulletin of the Spanish Ceramic and Glass Society. Boletin De La Sociedad Espanola De Ceramica Y Vidrio, 2006. 45(6): p. 408-412. Shidham, V.B., L. Sandweiss, and B.F. Atkinson, First CytoJournal Peer-Reviewer's Retreat in 2006 - Open access, peer-review, and impact factor. CytoJournal, 2006. 3. Silva, A.J. The science of research: The principles underlying the discovery of cognitive and other biological mechanisms. in Meeting on the Evolution of Human Cognition and Consciousness. 2006. Treilles, FRANCE. Symonds, M.R.E., et al., Gender differences in publication output: Towards an unbiased metric of research performance. PLoS ONE, 2006. 1(1). Turnovec, F. Publication portfolio of the Czech economists and problems of rankings. in 4th Annual Conference of the Czech-Economic-Society. 2006. Prague, CZECH REPUBLIC. Van Raan, A.F.J., Comparison of the Hirsch-index with standard bibliometric indicators and with peer judgment for 147 chemistry research groups. Scientometrics, 2006. 67(3): p. 491-502. Vanclay, J.K., Refining the h-index. Scientist, 2006. 20(7): p. 14-15. Ventura, O.N. and A.W. Mombr, Use of bibliometric information to assist research policy making. A comparison of publication and citation profiles of full and Associate Professors at a School of Chemistry in Uruguay. Scientometrics, 2006. 69(2): p. 287-313. Vu-Quoc, L., Unintended impact of author impact factor - Reply. Physics Today, 2006. 59(4): p. 16-16. Al-Awqati, Q., Impact factors and prestige. Kidney International, 2007. 71(3): p. 183-185. Aleixandre-Benavent, R., J.C. Valderrama-Zurian, and G. Gonzalez-Alcaide, Scientific journals impact factor: limitations and alternative indicators. Profesional De La Informacion, 2007. 16(1): p. 4-11. Ali, M.A.A., et al., The Hirsch index applied to topics of interest to developing countries. First Monday, 2007. 12(2). Ashkanasy, N.M., Playing the citations game. Journal of Organizational Behavior, 2007. 28(6): p. 643-645. Ball, P., The crucible - Philip Ball wonders how to give credit where it's due. Chemistry World, 2007. 4(12): p. 34-34. Ball, P., Achievement index climbs the ranks. Nature, 2007. 448(7155): p. 737-737. Barendse, W., The strike rate index: A new index for journal quality based on journal size and the h-index of citations. Biomedical Digital Libraries, 2007. 4. Bar-Ilan, J. The h-index of h-index and of other informetric topics. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Beirlant, J., et al., Scoring research output using statistical quantile plotting. Journal of Informetrics, 2007. 1(3): p. 185-192. Berger, M., The problematic ratings game in modern science. South African Journal of Science, 2007. 103(1-2): p. 2-3. Bornmann, L. and H.D. Daniel, Gatekeepers of science - Effects of external reviewers' attributes on the assessments of fellowship applications. Journal of Informetrics, 2007. 1(1): p. 83-91. Bornmann, L. and H.D. Daniel, Convergent validation of peer review decisions using the h index - Extent of and reasons for type I and type II errors. Journal of Informetrics, 2007. 1(3): p. 204-213. Bornmann, L. and H.D. Daniel, What do we know about the h index? Journal of the American Society for Information Science and Technology, 2007. 58(9): p. 1381-1385. Bornmann, L., R. Mutz, and H.D. Daniel, The b index as a measure of scientific excellence. A promising supplement to the h index. Cybermetrics, 2007. 11(1). Burrell, Q.L. Hirsch's h-index and Egghe's g-index. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Burrell, Q.L., Hirsch's h-index: A stochastic model. Journal of Informetrics, 2007. 1(1): p. 16-25. Burrell, Q.L., On the h-index, the size of the Hirsch core and Jin's A-index. Journal of Informetrics, 2007. 1(2): p. 170-177. Burrell, Q.L., Hirsch index or Hirsch rate? Some thoughts arising from Liang's data. Scientometrics, 2007. 73(1): p. 19-28. Campiteli, M.G., P.D. Batista, and A.S. Martinez. A research productivity index to account for different scientific disciplines. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Cardona, M., 12th International Conference on High Pressure Semiconductor Physics (HPSP-12): Concluding remarks. Physica Status Solidi B-Basic Solid State Physics, 2007. 244(1): p. 481-487. Chen, C., et al. Delineating the citation impact of scientific discoveries. 2007. Costas, R. and M. Bordons, The h-index: Advantages, limitations and its relation with other bibliometric indicators at the micro level. Journal of Informetrics, 2007. 1(3): p. 193-203. Costas, R. and M. Bordons. A classificatory scheme for the analysis of bibliometric profiles at the micro level. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Csajbok, E., et al., Hirsch-index for countries based on essential science indicators data. Scientometrics, 2007. 73(1): p. 91-117. Dainesi, S.M. and R. Pietrobon, Scientific indicators of productivity - time for action. Revista Brasileira De Psiquiatria, 2007. 29(2): p. 100-101. de la Rosa, J.L. and B.K. Szymanski, Selecting scientific papers for publication via citation auctions. Ieee Intelligent Systems, 2007. 22(6): p. 16-20. Dorta Contreras, A.J. and L. Daz, Cuban scientific production: A perspective of the work of two academic women. Produccin cientfica de Cuba: Una perspectiva desde la obra de dos mujeres acadmicas, 2007. 16(5). Dorta-Contreras, A.J., Cuban neurosciences from a gender perspective. Revista De Neurologia, 2007. 45(7): p. 447-447. Drabold, D.A. and S.K. Estreicher, Theory of defects in semiconductors, in Theory of Defects in Semiconductors. 2007. p. 1-10. Egghe, L. Distributions of the h-index and the g-index. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Egghe, L., Dynamic h-index: The Hirsch index in function of time. Journal of the American Society for Information Science and Technology, 2007. 58(3): p. 452-454. Egghe, L., Item-time-dependent Lotkaian informetrics and applications to the calculation of the time-dependent h-index and g-index. Mathematical and Computer Modelling, 2007. 45(7-8): p. 864-872. Egghe, L., R. Rousseau, and S. Rousseau, TOP-curves. Journal of the American Society for Information Science and Technology, 2007. 58(6): p. 777-785. Ferrand, L., Hirsch's h index: A new measure to quantify the research output of individual scientists. Annee Psychologique, 2007. 107(4): p. 531-536. German, R.M., RD in support of powder injection molding: Status and projections. International Journal of Powder Metallurgy (Princeton, New Jersey), 2007. 43(6): p. 47-57. Gracza, T. and I. Somosk?vi, Impact factor and/or Hirsch index? Impakt faktor s/vagy Hirsch-index?, 2007. 148(18): p. 849-852. Grant, J.B., et al., Academic institutions in the United States and Canada ranked according to research productivity in the field of conservation biology. Conservation Biology, 2007. 21(5): p. 1139-1144. Harnad, S. Open access scientometrics and the UK research assessment exercise. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Heaney, P.J., What's your h-index? Elements, 2007. 3(4): p. 229-230. Hermes-Lima, M., et al., The relevance and recognition of Latin American science. Introduction to the fourth issue of CBP-Latin America. Comparative Biochemistry and Physiology C-Toxicology Pharmacology, 2007. 146(1-2): p. 1-9. Hermes-Lima, M., et al., Whither Latin America? Trends and challenges of science in Latin America. Iubmb Life, 2007. 59(4-5): p. 199-210. Hirsch, J.E., Does the h index have predictive power? Proceedings of the National Academy of Sciences of the United States of America, 2007. 104(49): p. 19193-19198. Huang, Y.H., The structural equation analysis on the journal citation impact in the field of library and information science. Journal of Educational Media and Library Science, 2007. 44(3): p. 259-273. Iglesias, J.E. and C. Pecharroman. Comparing h-indices for scientists in different ISI fields. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Iglesias, J.E. and C. Pecharromn, Scaling the h-index for different scientific ISI fields. Scientometrics, 2007. 73(3): p. 303-320. Imperial, J. and A. Rodrguez-Navarro, Usefulness of Hirsch's h-index to evaluate scientific research in Spain. Scientometrics, 2007. 71(2): p. 271-282. Jeang, K.T., Impact factor, H index, peer comparisons, and Retrovirology: is it time to individualize citation metrics? Retrovirology, 2007. 4. Jin, B.H., et al., The R- and AR-indices: Complementing the h-index. Chinese Science Bulletin, 2007. 52(6): p. 855-863. Kieling, C. and R.R.F. Gon?alves, Assessing the quality of a scientific journal: The case of Revista Brasileira de Psiquiatria. Revista Brasileira De Psiquiatria, 2007. 29(2): p. 177-181. Kinney, A.L., National scientific facilities and their science impact on nonbiomedical research. Proceedings of the National Academy of Sciences of the United States of America, 2007. 104(46): p. 17943-17947. Korfiatis, N., M. Poulos, and G. Bokos, Social metadata for the impact factor. Electronic Library, 2007. 25(2): p. 166-175. Kosmulski, M., MAXPROD - A new index for assessment of the scientific output of an individual, and a comparison with the h-index. Cybermetrics, 2007. 11(1). Koutsoyiannis, D. and Z.W. Kundzewicz, Quantifying the impact of hydrological studies. Hydrological Sciences Journal-Journal Des Sciences Hydrologiques, 2007. 52(1): p. 3-17. Koutsoyiannis, D. and Z.W. Kundzewicz, Editorial - Quantifying the impact of hydrological studies. Hydrological Sciences Journal, 2007. 52(1): p. 3-17. Lawrence, P.A., The mismeasurement of science. Current Biology, 2007. 17(15): p. R583-R585. Lehmann, S., A.D. Jackson, and B.E. Lautrup, Quality of measures of quality. Kvaliteten af kvalitetsm?l - Sekund?rpublikation, 2007. 169(38): p. 3205-3207. Leslie Jr, D.M., A shifting mosaic of scholarly publishing, scientific delivery, and future impact changing the face of learned societies. Journal of Mammalogy, 2007. 88(2): p. 275-286. Levitt, J. and M. Thelwall. Atypical citation patterns in the twenty most highly cited documents in library and information science. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Levitt, J.M. and M. Thelwall. Two new indicators derived from the h-index for comparing citation impact: Hirsch frequencies and the normalised Hirsch index. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Liu, Y.X. and R. Rousseau. Hirsch-type indices and library management: The case of Tongji University Library. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Lundberg, J., Lifting the crown-citation z-score. Journal of Informetrics, 2007. 1(2): p. 145-154. Martinez, E.C. and I.F. De Lucio, Institutional and individual initiatives in the creation of scientific structures: The Institute of Chemical Technology. Arbor-Ciencia Pensamiento Y Cultura, 2007. 183(727): p. 803-819. Masuoka, N., B. Grofman, and S.L. Feld, The political science 400: A 20-year update. Ps-Political Science Politics, 2007. 40(1): p. 133-145. Maunder, R.G., Using publication statistics for evaluation in academic psychiatry. Canadian Journal of Psychiatry-Revue Canadienne De Psychiatrie, 2007. 52(12): p. 790-797. Meho, L. and K. Yang. Fusion approach to citation-based quality assessment. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Meho, L.I., The rise and rise of citation analysis. Physics World, 2007. 20(1): p. 32-36. Meho, L.I. and K. Yang, Impact of data sources on citation counts and rankings of LIS faculty: Web of science versus scopus and google scholar. Journal of the American Society for Information Science and Technology, 2007. 58(13): p. 2105-2125. Minasny, B., A.E. Hartemink, and A. McBratney, Soil science and the h index. Scientometrics, 2007. 73(3): p. 257-264. Nardone, A. State and perspectives of national and international animal research. in 17th Congress of the Scientific-Association-of-Animal-Production. 2007. Alghero, ITALY. Narukawa, Y. and V. Torra. Multidimensional fuzzy integrals. in 4th International Conference on Modeling Decisions for Artificial Intelligence. 2007. Kitakyushu, JAPAN. Oelrich, B., R. Peters, and K. Jung, A Bibliometric evaluation of publications in Urological journals among European Union countries between 2000-2005. European Urology, 2007. 52(4): p. 1238-1248. Parr, C.S., Open sourcing ecological data. Bioscience, 2007. 57(4): p. 309-310. Pulina, G. and A.H.D. Francesconi, Some bibliometric indexes for members of the Scientific Association of Animal Production (ASPA). Italian Journal of Animal Science, 2007. 6(1): p. 83-103. Pulina, G. and A.H.D. Francesconi, Bibliometric report: Some bibliometric indexes for members of the Scientific Association of Animal Production (ASPA). Italian Journal of Animal Science, 2007. 6(1): p. 83-103. Ramutsindela, M., Geographical knowledge, case studies and the division of labour. South African Geographical Journal, 2007. 89(2): p. 121-127. Rao, I.K.R. Distributions of Hirsch-index and g-index: An empirical study. in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Rau, J.R., h-inex (2000-2004) of the most cited environmental researchers based at Chilean institutions. ?ndice h (2000-2004) de los cientficos ambientales ms citados que residen en Chile, 2007. 80(3): p. 381-383. Rau, J.R., Revista Chilena de Historia Natural h-inex: 2000-2004 quinquennium. ?ndice h de la Revista Chilena de Historia Natural: Quinquenio 2000-2004, 2007. 80(3): p. 385-386. Romero, A.G., et al. Measuring the contribution of clinical trials to Bibliometric indicators: Citations and Journal Impact Factor (R). in 11th International Conference of the International-Society-for-Scientrometrics-and-Informetrics. 2007. Madrid, SPAIN. Rousseau, R., The influence of missing publications on the Hirsch index. Journal of Informetrics, 2007. 1(1): p. 2-7. Ruane, F.P. and R.S.J. Tol, Centres of research excellence in economics in the Republic of Ireland. Economic and Social Review, 2007. 38(3): p. 289-322. Saito, S. and J.N. Towse, Working memory as a construct in cognitive science: an illustrious past and a highly promising future. Psychologia, 2007. 50(2): p. 69-75. Salgado, J.F. and D. Pez, Scientific productivity and Hirsch's h Index of Spanish social psychology: Convergence between productivity indexes and comparison with other areas. La productividad cientfica y el ndice h de Hirchs de la psicologa social espa?ola: Convergencia entre indicadores de productividad y comparacin con otras reas, 2007. 19(2): p. 179-189. Schreiber, M., A case study of the Hirsch index for 26 non-prominent physicists. Annalen Der Physik, 2007. 16(9): p. 640-652. Schreiber, M., Self-citation corrections for the Hirsch index. Epl, 2007. 78(3). Schubert, A., Successive h-indices. Scientometrics, 2007. 70(1): p. 201-205. Schubert, A. and W. Glanzel, A systematic analysis of Hirsch-type indices for journals. Journal of Informetrics, 2007. 1(3): p. 179-184. Selman, F.J. IOT overview: Wide-field imaging. in 1st ESO Instrument Calibration Workshop. 2007. Garching, GERMANY. Sidiropoulos, A., D. Katsaros, and Y. Manolopoulos, Generalized Hirsch h-index for disclosing latent facts in citation networks. Scientometrics, 2007. 72(2): p. 253-280. Soler, J.M., A rational indicator of scientific creativity. Journal of Informetrics, 2007. 1(2): p. 123-130. Souto, M.A.M., M. Warpechowski, and J.P.M. De Oliveira, An ontological approach for the quality assessment of computer science conferences. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 2007. 4802 LNCS: p. 202-212. Spigler, R., Ricerca scientifica e Internet, oggi. Bollettino della Unione Matematica Italiana A, 2007. 10(1). Suresh, V., et al. Discovering mentorship information from author collaboration networks. in 10th International Conference on Discovery Science. 2007. Sendai, JAPAN. Tol, R.S.J. and J.P. Weyant, Changes at energy economics. Energy Economics, 2007. 29(6): p. 1131-1134. Torro-Alves, N., et al., Hirsch's index: A case study conducted at the Faculdade de Filosofia, Cincias e Letras de Ribeir?o Preto, Universidade de S?o Paulo. Brazilian Journal of Medical and Biological Research, 2007. 40(11): p. 1529-1536. Triggle, C.R. and D.J. Triggle, What is the future of peer review? Why is there fraud in science? Is plagiarism out of control? Why do scientists do bad things? Is it all a case of: All that is necessary for the triumph of evil is that good men do nothing?. Vascular Health and Risk Management, 2007. 3(1): p. 39-53. Ursprung, H.W. and M. Zimmer, Who is the Platz-Hirsch of the German economics profession? A citation analysis. Jahrbucher Fur Nationalokonomie Und Statistik, 2007. 227(2): p. 187-208. Vanclay, J.K., On the robustness of the h-index. Journal of the American Society for Information Science and Technology, 2007. 58(10): p. 1547-1550. Viikari-Juntura, E. and A. Burdorf, Focus and future of occupational health journals. Scandinavian Journal of Work Environment Health, 2007. 33(4): p. 241-243. Vinkler, P., Eminence of scientists in the light of the h-index and other scientometric indicators. Journal of Information Science, 2007. 33(4): p. 481-491. Whiteman, D., The modern researcher and the peacock's tail. Lancet, 2007. 369(9560): p. 449-450. Wilson, J.R.U., et al., The (bio)diversity of science reflects the interests of society. Frontiers in Ecology and the Environment, 2007. 5(8): p. 409-414. Yan, S. and D. Lee. Toward alternative measures for ranking venues: A case of database research community. 2007. Yang, K. and L. Meho. CiteSearch: Next-generation citation analysis. 2007. Zhou, D., et al. Co-ranking authors and documents in a heterogeneous network. 2007. Zhuang, Z., et al. Measuring conference quality by mining program committee characteristics. 2007. Papers about papers. Nature Nanotechnology, 2008. 3(11): p. 633-633. Aguayo-Albasini, J.L. and S. Campillo, Evaluation of research activity by means of the Hirsch h index. Evaluacin de la actividad investigadora mediante el ndice h de Hirsch, 2008. 131(6): p. 239. Anderson, T.R., R.K.S. Hankin, and P.D. Killworth, Beyond the Durfee square: Enhancing the h-index to score total publication output. Scientometrics, 2008. 76(3): p. 577-588. Antonakis, J. and R. Lalive, Quantifying scholarly impact: IQp versus the Hirsch h. Journal of the American Society for Information Science and Technology, 2008. 59(6): p. 956-969. Arencibia-Jorge, R., et al., Applying successive H indices in the institutional evaluation: A case study. Journal of the American Society for Information Science and Technology, 2008. 59(1): p. 155-157. Baldock, C., The h-index and medical physics. Australasian Physical Engineering Sciences in Medicine, 2008. 31(2): p. XI-XII. Ball, P., A longer paper gathers more citations. Nature, 2008. 455(7211): p. 274-275. Baneyx, A., Publish or Perish as citation metrics used to analyze scientific output in the humanities: International case studies in economics, geography, social sciences, philosophy, and history. Archivum Immunologiae Et Therapiae Experimentalis, 2008. 56(6): p. 363-371. Banks, M.A. and R. Dellavalle, Emerging alternatives to the impact factor. OCLC Systems and Services, 2008. 24(3): p. 167-173. Bar-Ilan, J., Informetrics at the beginning of the 21st century - A review. Journal of Informetrics, 2008. 2(1): p. 1-52. Bar-Ilan, J., Which h-index? - A comparison of WoS, Scopus and Google Scholar. Scientometrics, 2008. 74(2): p. 257-271. Baskerville, R., Changing the challenge: Measure what makes you better and be better at what you measure. European Journal of Information Systems, 2008. 17(1): p. 1-3. Becerro, M.A., Quantitative trends in sponge ecology research. Marine Ecology-an Evolutionary Perspective, 2008. 29(2): p. 167-177. Bornmann, L., R. Mutz, and H.D. Daniel, Are there better indices for evaluation purposes than the h index? a comparison of nine different variants of the h index using data from biomedicine. Journal of the American Society for Information Science and Technology, 2008. 59(5): p. 830-837. Bornmann, L., G. Wallon, and A. Ledin, Is the h index related to (standard) bibliometric measures and to the assessments by peers? An investigation of the h index by using molecular life sciences data. Research Evaluation, 2008. 17(2): p. 149-156. Bornmann, L., G. Wallon, and A. Ledin, Does the committee peer review select the best applicants for funding? An investigation of the selection process for two European molecular biology organization programmes. PLoS ONE, 2008. 3(10). Bouajjani, A., et al., SDSIrep: A reputation system based on SDSI. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 2008. 4963 LNCS: p. 501-516. Browman, H.I. and K.I. Stergiou, Factors and indices are one thing, deciding who is scholarly, why they are scholarly, and the relative value of their scholarship is something else entirely. Ethics in Science and Environmental Politics, 2008. 8(1): p. 1-3. Cans, J.H., et al., A service-oriented infrastructure for early citation management. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 2008. 5173 LNCS: p. 160-171. Casalonga, S., The impact factor: A tool with perverse effects. Le facteur d'impact: Un outil aux effets pervers, 2008(289): p. 26-27. Chang, P.L. and P.N. Hsieh, Bibliometric overview of Operations Research/Management Science research in Asia. Asia-Pacific Journal of Operational Research, 2008. 25(2): p. 217-241. Coccia, M., New organisational behaviour of public research institutions: Lessons learned from Italian case study. International Journal of Business Innovation and Research, 2008. 2(4): p. 402-419. Costas, R. and M. Bordons, Is g-index better than h-index? An exploratory study at the individual level. Scientometrics, 2008. 77(2): p. 267-288. Coyle, J.T., Science and Psychiatry: Groundbreaking Discoveries in Molecular Neuroscience. American Journal of Psychiatry, 2008. 165(11): p. 1492-1493. Da Luz, M.P., et al., Institutional h-index: The performance of a new metric in the evaluation of Brazilian Psychiatric Post-graduation Programs. Scientometrics, 2008. 77(2): p. 361-368. Dellavalle, R.P. and C. Harrison, Reinterpreting the fate of manuscripts declined by the Journal of the American Academy of Dermatology. Journal of the American Academy of Dermatology, 2008. 59(4): p. 723-724. Dodson, M.V., Research paper citation record keeping: It is not for wimps. Journal of Animal Science, 2008. 86(10): p. 2795-2796. Dolfsma, W. and L. Leydesdorff, Journals as constituents of scientific discourse: Economic heterodoxy. On the Horizon, 2008. 16(4): p. 214-225. Dorta Contreras, A.J., et al., Citation-based indicators for the characterization of Cuban Neurosciences. Indicadores basados en anlisis de citas para la caracterizacin de las neurociencias cubanas, 2008. 18(6). Dorta-Contreras, A.J., et al., PRODUCTIVITY AND VISIBILITY OF CUBAN NEUROSCIENTISTS: BIBLIOMETRIC STUDY OF THE PERIOD 2001-2005. Revista De Neurologia, 2008. 47(7): p. 355-360. Dorta-Contreras, A.J., et al., Productivity and visibility of Cuban neuroscientists: Bibliometric study of the period 2001-2005. Productividad y visibilidad de los neurocientficos cubanos: Estudio bibliomtrico del perodo 2001-2005, 2008. 47(7): p. 355-360. Duffy, R.D., et al., Measuring Individual Research Productivity: A Review and Development of the Integrated Research Productivity Index. Journal of Counseling Psychology, 2008. 55(4): p. 518-527. Egghe, L., Modelling successive h-indices. Scientometrics, 2008. 77(3): p. 377-387. Egghe, L., Mathematical theory of the h- and g-index in case of fractional counting of authorship. Journal of the American Society for Information Science and Technology, 2008. 59(10): p. 1608-1616. Egghe, L., The influence of merging on h-type indices. Journal of Informetrics, 2008. 2(3): p. 252-262. Egghe, L., The Influence of transformations on the h-index and the g-index. Journal of the American Society for Information Science and Technology, 2008. 59(8): p. 1304-1312. Egghe, L., Examples of simple transformations of the h-index: Qualitative and quantitative conclusions and consequences for other indices. Journal of Informetrics, 2008. 2(2): p. 136-148. Egghe, L. and I.K.R. Rao, The influence of the broadness of a query of a topic on its h-index: Models and examples of the h-index of N-grams. Journal of the American Society for Information Science and Technology, 2008. 59(10): p. 1688-1693. Egghe, L. and I.K. Ravichandra Rao, Study of different h-indices for groups of authors. Journal of the American Society for Information Science and Technology, 2008. 59(8): p. 1276-1281. Egghe, L. and R. Rousseau, An h-index weighted by citation impact. Information Processing Management, 2008. 44(2): p. 770-780. Engqvist, L. and J.G. Frommen, The h-index and self-citations. Trends in Ecology Evolution, 2008. 23(5): p. 250-252. Eustache, F., et al., The twenty-first century as a neuropsychology era. Revue Neurologique, 2008. 164: p. S63-S72. Fernandez-Llimos, F. and T.A. Silva, Assessing compliance of guidelines on layout in Acta Medica Portuguesa. Acta Medica Portuguesa, 2008. 21(1): p. 21-30. Ganguli, R., A scientometric analysis of recent aerospace research. Current Science, 2008. 95(12): p. 1670-1672. Gingras, Y., The poor use of false indicators. Revue D Histoire Moderne Et Contemporaine, 2008. 55(4): p. 67-79. Glanzel, W., On some new bibliometric applications of statistics related to the h-index. Scientometrics, 2008. 77(1): p. 187-196. Gmez, V., A. Kaltenbrunner, and V. Lpez. Statistical analysis of the social network and discussion threads in Slashdot. 2008. Gonzlez Alcaide, G., et al., Scientific literature by Spanish authors on the analysis of citations and impact factor in Biomedicine (1981-2005). Literatura cientfica de autores espa?oles sobre anlisis de citas y factor de impacto en Biomedicina (1981-2005), 2008. 31(3): p. 344-365. Gowrishankar, J. and P. Divakar, Scientometrics and modified h-indices. Current Science, 2008. 95(12): p. 1656-1656. Gracza, T., Eigenfactor: A recent opportunity of measuring scientific journals. Az Eigenfaktor: A tudomnyos folyiratok rtkelsnek jabb lehetosge, 2008. 149(35): p. 1669-1671. Gracza, T. and E. Somoskovi, Research papers in the crosshairs: Newer viewpoints on the development of library resources. Library Collections Acquisitions Technical Services, 2008. 32(1): p. 42-45. Guan, J. and X. Gao, Comparison and evaluation of Chinese research performance in the field of bioinformatics. Scientometrics, 2008. 75(2): p. 357-379. Hagen, N.T., Harmonic allocation of authorship credit: Source-level correction of bibliometric bias assures accurate publication and citation analysis. PLoS ONE, 2008. 3(12). Harnad, S., Validating research performance metrics against peer rankings. Ethics in Science and Environmental Politics, 2008. 8(1): p. 103-107. Harzing, A.W.K. and R. van der Wal, Google Scholar as a new source for citation analysis. Ethics in Science and Environmental Politics, 2008. 8(1): p. 61-73. Hendrix, D., An analysis of bibliometric indicators, National Institutes of Health funding, and faculty size at Association of American Medical Colleges medical schools, 1997-2007. Journal of the Medical Library Association, 2008. 96(4): p. 324-334. Hull, D., S.R. Pettifer, and D.B. Kell, Defrosting the Digital Library: Bibliographic Tools for the Next Generation Web. Plos Computational Biology, 2008. 4(10). Hussain, S. and H. Grahn. Ranking journals, conferences and authors in computer graphics: A fuzzy reasoning. 2008. Ioannidis, J.P.A., Measuring co-authorship and networking-adjusted scientific impact. PLoS ONE, 2008. 3(7). J?rgensen, H.L., et al., Research activity in clinical biochemistry. Forskningsaktiviteten for speciall?ger i klinisk biokemi, 2008. 170(36): p. 2798-2802. Jacso, P., Testing the calculation of a realistic h-index in Google Scholar, Scopus, and Web of Science for F. W. Lancaster. Library Trends, 2008. 56(4): p. 784-815. Jacs, P., The pros and cons of computing the h-index using Web of Science. Online Information Review, 2008. 32(5): p. 673-688. Jacs, P., The pros and cons of computing the h-index using Scopus. Online Information Review, 2008. 32(4): p. 524-535. Jacs, P., The pros and cons of computing the h-index using Google Scholar. Online Information Review, 2008. 32(3): p. 437-452. Jacs, P., The plausibility of computing the h-index of scholarly productivity and impact using reference-enhanced databases. Online Information Review, 2008. 32(2): p. 266-283. Jarvelin, K. and O. Persson, The DCI index: Discounted cumulated impact-based research evaluation. Journal of the American Society for Information Science and Technology, 2008. 59(9): p. 1433-1440. Jensen, P., et al., Scientists who engage with society perform better academically. Science and Public Policy, 2008. 35(7): p. 527-541. Johnston, R., Do you want to be counted or subject to a light touch? Research assessment in the UK and the social sciences - continued. Environment and Planning A, 2008. 40(3): p. 507-514. Jones, A.W., Hirsch-index for winners of TIAFT's mid-career achievement award. Journal of Analytical Toxicology, 2008. 32(4): p. 327-328. Jones, B.F., S. Wuchty, and B. Uzzi, Multi-University Research Teams: Shifting Impact, Geography, and Stratification in Science. Science, 2008. 322(5905): p. 1259-1262. Jorge, R.A., Acimed in Scholar Google: A citation analysis of the Cuban Journal of Health Information and Communication Professionals. Acimed en Scholar Google: Un anlisis de citas de la Revista Cubana de los Profesionales de la Informacin y la Comunicacin en la Salud, 2008. 18(1). Jorge, R.A. and R.C. Espino, H, G and R indices: Their use to identify leader authors in the communication area during the period 2001-2006. Los ndices H, G y R: Su uso para identificar autores lderes en el rea de la comunicacin durante el perodo 2001-2006, 2008. 17(4). Kailas, S.V., The lack of quality research in India. Current Science, 2008. 94(8): p. 979-980. Kellner, A.W.A. and L. Ponciano, H-index in the Brazilian Academy of Sciences - comments and concerns. Anais Da Academia Brasileira De Ciencias, 2008. 80(4): p. 771-781. Kobayashi, N. and T. Toyoda, Statistical search on the semantic web. Bioinformatics, 2008. 24(7): p. 1002-1010. Krauskopf, M. and E. Krauskopf, A scientometric view of Revista Mdica de Chile. Una mirada epistemomtrica de la Revista Mdica de Chile y su aporte al conocimiento en Medicina, 2008. 136(8): p. 1065-1072. Krestin, G.P., Evaluating the Quality of Radiology Research: What Are the Rules of the Game? Radiology, 2008. 249(2): p. 418-424. Lawrence, P.A., Lost in publication: How measurement harms science. Ethics in Science and Environmental Politics, 2008. 8(1): p. 9-11. Lehmann, S., A.D. Jackson, and B.E. Lautrup, A quantitative analysis of indicators of scientific performance. Scientometrics, 2008. 76(2): p. 369-390. Leimu, R., et al., Does it pay to have a bigwig as a co-author? Frontiers in Ecology and the Environment, 2008. 6(8): p. 410-411. Levitt, J.M. and M. Thelwall, Is multidisciplinary research more highly cited? A macrolevel study. Journal of the American Society for Information Science and Technology, 2008. 59(12): p. 1973-1984. Leydesdorff, L., Caveats for the use of citation indicators in research and journal evaluations. Journal of the American Society for Information Science and Technology, 2008. 59(2): p. 278-287. Liu, Y. and R. Rousseau, Definitions of time series in citation analysis with special attention to the h-index. Journal of Informetrics, 2008. 2(3): p. 202-210. Lovegrove, B.G. and S.D. Johnson, Assessment of research performance in biology: How well do peer review and bibliometry correlate? Bioscience, 2008. 58(2): p. 160-164. Mach?ek, M. and E. Kolcunov, Hirsch index and rankings of czech economists. Hirschovo ?slo a ?eb??ky ?esk?ch ekonom?, 2008. 56(2): p. 229-241. Maksi, Z. and R. Vianello, Znanstvena izvrsnost i kompetitivnost. Kemija u industriji/Journal of Chemists and Chemical Engineers, 2008. 57(3): p. 123-126. Maslov, S. and S. Redner, Promise and Pitfalls of Extending Google's PageRank Algorithm to Citation Networks. Journal of Neuroscience, 2008. 28(44): p. 11103-11105. Meho, L.I. and Y. Rogers, Citation counting, citation ranking, and h-index of human-computer interaction researchers: A comparison of Scopus and Web of Science. Journal of the American Society for Information Science and Technology, 2008. 59(11): p. 1711-1726. Meyer, C.A., Reference accuracy: Best practices for making the links. Journal of Electronic Publishing, 2008. 11(2). Molinari, A. and J.F. Molinari, Mathematical aspects of a new criterion for ranking scientific institutions based on the h-index. Scientometrics, 2008. 75(2): p. 339-356. Molinari, J.F. and A. Molinari, A new methodology for ranking scientific institutions. Scientometrics, 2008. 75(1): p. 163-174. Morley, J.E. and L. Ferrucci, Publication productivity in geriatrics: 1995-2006. Journals of Gerontology Series a-Biological Sciences and Medical Sciences, 2008. 63(6): p. 584-585. Morrison, P.J., The Hirsch index and measuring the quality of scientific papers. Ulster Medical Journal, 2008. 77(1): p. 1. Moss, S., My view. Weed Science, 2008. 56(3): p. 337-337. Moss, S.R., Weed research: is it delivering what it should? Weed Research, 2008. 48(5): p. 389-393. Mugnaini, R., A.L. Packer, and R. Meneghini, Comparison of scientists of the Brazilian Academy of Sciences and of the National Academy of Sciences of the USA on the basis of the h-index. Brazilian Journal of Medical and Biological Research, 2008. 41(4): p. 258-262. Narukawa, Y. and V. Torra. Domain extension for multidimensional generalized fuzzy integrals. 2008. Norris, M., C. Oppenheim, and F. Rowland, The citation advantage of open-access articles. Journal of the American Society for Information Science and Technology, 2008. 59(12): p. 1963-1972. O'Leary, D.E., The relationship between citations and number of downloads in Decision Support Systems. Decision Support Systems, 2008. 45(4): p. 972-980. Pandit, J.J., Anaesthetic research in the United Kingdom: publishing or perishing? Anaesthesia, 2008. 63(3): p. 225-227. Pauly, D. and K.I. Stergiou, Re-interpretation of 'influence weight' as a citation-based Index of New Knowledge (INK). Ethics in Science and Environmental Politics, 2008. 8(1): p. 75-78. Pereira De Arajo, A.F., Increasing discrepancy between absolute and effective indexes of research output in a Brazilian academic department. Scientometrics, 2008. 74(3): p. 425-437. Pilc, A., The use of citation indicators to identify and support high-quality research in Poland. Archivum Immunologiae Et Therapiae Experimentalis, 2008. 56(6): p. 381-384. Pringle, J., Trends in the use of ISI citation databases for evaluation. Learned Publishing, 2008. 21(2): p. 85-91. Qiu, J.P., R.M. Ma, and N. Cheng, New exploratory work of evaluating a researcher's output. Scientometrics, 2008. 77(2): p. 335-344. Radicchi, F., S. Fortunato, and C. Castellano, Universality of citation distributions: Toward an objective measure of scientific impact. Proceedings of the National Academy of Sciences of the United States of America, 2008. 105(45): p. 17268-17272. Riikonen, P. and M. Vihinen, National research contributions: A case study on Finnish biomedical research. Scientometrics, 2008. 77(2): p. 207-222. Ritzberger, K., A ranking of journals in economics and related fields. German Economic Review, 2008. 9(4): p. 402-430. Rodriguez, V., et al., On material transfer agreements and visibility of researchers in biotechnology. Journal of Informetrics, 2008. 2(1): p. 89-100. Rousseau, R., Woeginger's axiomatisation of the h-index and its relation to the g-index, the h((2))- index and the R-2-index. Journal of Informetrics, 2008. 2(4): p. 335-340. Rousseau, R., R. Guns, and Y. Liu, The h-index of a conglomerate. Cybermetrics, 2008. 12(1): p. 1-7. Rousseau, R. and B.H. Jin, The Age-Dependent h-Type AR(2)-Index: Basic Properties and a Case Study. Journal of the American Society for Information Science and Technology, 2008. 59(14): p. 2305-2311. Rousseau, R. and N. Rons, Another h-type index for institutional evaluation. Current Science, 2008. 95(9): p. 1103-1103. Rousseau, R. and F.Y. Ye, A proposal for a dynamic h-type index. Journal of the American Society for Information Science and Technology, 2008. 59(11): p. 1853-1855. Ruane, F. and R.S.J. Tol, Rational (successive) h-indices: An application to economics in the Republic of Ireland. Scientometrics, 2008. 75(2): p. 395-405. Sanderson, M., Revisiting h measured on UK LIS and IR academics. Journal of the American Society for Information Science and Technology, 2008. 59(7): p. 1184-1190. Sanderson, M., Brief communication: Revisiting h measured on UK LIS and IR academics. Journal of the American Society for Information Science and Technology, 2008. 59(7): p. 1184-1190. Sangam, S.L. and R.M. Girji, Hirsch Index: A new measure for assessing scientific productivity of an individual researcher. Current Science, 2008. 94(3): p. 291-291. Satyanarayana, K. and A. Sharma, Impact factor: Time to move on. Indian Journal of Medical Research, 2008. 127(1): p. 4-6. Scarano, F.R., Why publish? Revista Brasileira de Botanica, 2008. 31(1): p. 189-194. Schreiber, M., A modification of the h-index: The h(m)-index accounts for multi-authored manuscripts. Journal of Informetrics, 2008. 2(3): p. 211-216. Schreiber, M., The influence of self-citation corrections on Egghe's g index. Scientometrics, 2008. 76(1): p. 187-200. Schreiber, M., To share the fame in a fair way, h(m) modifies h for multi-authored manuscripts. New Journal of Physics, 2008. 10. Schreiber, M., An empirical investigation of the g-index for 26 physicists in comparison with the h-index, the 4-index, and the R-index. Journal of the American Society for Information Science and Technology, 2008. 59(9): p. 1513-1522. Schuetz, P. and A. Caflisch, Multistep greedy algorithm identifies community structure in real-world and computer-generated networks. Physical Review E, 2008. 78(2). Schuetz, P. and A. Caflisch, Efficient modularity optimization by multistep greedy algorithm and vertex mover refinement. Physical Review E, 2008. 77(4). Schvartzman, J.M. and J.B. Schvartzman, How do we ask for money? A view of funding for basic research. Embo Reports, 2008. 9(3): p. 216-220. Sebire, N.J., H-index and impact factors: assessing the clinical impact of researchers and specialist journals. Ultrasound in Obstetrics Gynecology, 2008. 32(7): p. 843-845. Slafer, G.A., Should crop scientists consider a journal's impact factor in deciding where to publish? European Journal of Agronomy, 2008. 29(4): p. 208-212. Smith, D.R., J.F. Gehanno, and K. Takahashi, Bibliometric Research in Occupational Health. Industrial Health, 2008. 46(6): p. 519-522. Taylor, M., P. Perakakis, and V. Trachana, The siege of science. Ethics in Science and Environmental Politics, 2008. 8(1): p. 17-40. Thelwall, M., Bibliometrics to webometrics. Journal of Information Science, 2008. 34(4): p. 605-621. Timofieiev, A., V. Sn?el, and J. Dvorsk. Social communities detection in Enron corpus using h-index. 2008. Timofieiev, A., V. Sn?el, and J. Dvorsk. H-index calculation in enron corpus. 2008. Tol, R.S.J., A rational, successive g-index applied to economics departments in Ireland. Journal of Informetrics, 2008. 2(2): p. 149-155. Torra, V. and Y. Narukawa, The h-index and the number of citations: Two fuzzy integrals. Ieee Transactions on Fuzzy Systems, 2008. 16(3): p. 795-797. Toshev, B.V., Axioms of higher education. Chemistry, 2008. 17(5): p. 331-338. Van Driel, M., et al., How scientific is the assessment of the quality of scientific output using the journal impact factor? Hoe wetenschappelijk is het beoordelen van wetenschappelijk werk aan de hand van impactfactoren van tijdschriften?, 2008. 64(9): p. 471-476. van Driel, M.L., P.J. Magin, and C.B. Del Mar, Journal impact factor and its importance for AFP. Australian Family Physician, 2008. 37(9): p. 770-773. van Eck, N.J. and L. Waltman, Generalizing the h- and g- indices. Journal of Informetrics, 2008. 2(4): p. 263-271. van Leeuwen, T., Testing the validity of the Hirsch-index for research assessment purposes. Research Evaluation, 2008. 17(2): p. 157-160. Vanclay, J.K., Ranking forestry journals using the h-index. Journal of Informetrics, 2008. 2(4): p. 326-334. Vanclay, J.K., Gauging the impact of journals. Forest Ecology and Management, 2008. 256(4): p. 507-509. Vasconcelos, S.M.R., et al., Researchers' writing competence: a bottleneck in the publication of Latin-American science? Embo Reports, 2008. 9(8): p. 700-702. Wang, W., M. Mokhtar, and L. Macaulay. C-index: Trust depth, trust breadth, and a collective trust measurement. 2008. Weissmann, G., Science as oath and testimony: Joshua Lederberg (1925-2008). FASEB Journal, 2008. 22(10): p. 3411-3414. Winter, C.E., Quantitative analysis of indexed publications on seventeen model organisms in nine countries, from 1974 to 2006. Journal of the American Society for Information Science and Technology, 2008. 59(10): p. 1598-1607. Woeginger, G.J., A symmetry axiom for scientific impact indices. Journal of Informetrics, 2008. 2(4): p. 298-303. Woeginger, G.J., An axiomatic analysis of Egghe's g-index. Journal of Informetrics, 2008. 2(4): p. 364-368. Woeginger, G.J., An axiomatic characterization of the Hirsch-index. Mathematical Social Sciences, 2008. 56(2): p. 224-232. Ye, F.Y. and R. Rousseau, The power law model and total career h-index sequences. Journal of Informetrics, 2008. 2(4): p. 288-297. Youtie, J., P. Shapira, and A.L. Porter, Nanotechnology publications and citations by leading countries and blocs. Journal of Nanoparticle Research, 2008. 10(6): p. 981-986. Zhivotovsky, L.A. and K.V. Krutovsky, Self-citation can inflate h-index. Scientometrics, 2008. 77(2): p. 373-375. Zhuo, M., Z factor: a new index for measuring academic research output. Molecular Pain, 2008. 4. Zitt, M. and E. Bassecoulard, Challenges for scientometric indicators: Data demining, knowledge-flow measurements and diversity issues. Ethics in Science and Environmental Politics, 2008. 8(1): p. 49-60. Bedeian, A.G., D.D. Van Fleet, and H.H. Hyman, Scientific Achievement and Editorial Board Membership. Organizational Research Methods, 2009. 12(2): p. 211-238. Bornmann, L. and H.D. Daniel, The state of h index research Is the h index the ideal way to measure research performance? Embo Reports, 2009. 10(1): p. 2-6. Bornmann, L., et al., Convergent validity of bibliometric Google Scholar data in the field of chemistry-Citation counts for papers that were accepted by Angewandte Chemie International Edition or rejected but published elsewhere, using Google Scholar, Science Citation Index, Scopus, and Chemical Abstracts. Journal of Informetrics, 2009. 3(1): p. 27-35. Bouabid, H. and B.R. Martin, Evaluation of Moroccan research using a bibliometric-based approach: investigation of the validity of the h-index. Scientometrics, 2009. 78(2): p. 203-217. Burrell, Q.L., Some Comments on A Proposal for a Dynamic h-Type Index by Rousseau and Ye. Journal of the American Society for Information Science and Technology, 2009. 60(2): p. 418-419. Butler, L. and I. McAllister, Metrics or peer review? Evaluating the 2001 UK research assessment exercise in political science. Political Studies Review, 2009. 7(1): p. 3-17. de Andrade, J.B. and F. Galembeck, Qualis: quo vadis? Quimica Nova, 2009. 32(1): p. 5-5. Egghe, L., Mathematical study of h-index sequences. Information Processing Management, 2009. 45(2): p. 288-297. Egghe, L., Time-dependent Lotkaian informetrics incorporating growth of sources and items. Mathematical and Computer Modelling, 2009. 49(1-2): p. 31-37. Fuller, C.D., M. Choi, and C.R. Thomas Jr, Bibliometric Analysis of Radiation Oncology Departmental Scholarly Publication Productivity at Domestic Residency Training Institutions. JACR Journal of the American College of Radiology, 2009. 6(2): p. 112-118. Gisbert, J.P. and J. Pans, Scientific publication, bibliometric indicators, and Hirsch's h-index. Publicacin cientfica, indicadores bibliomtricos e ndice h de Hirsch, 2009. 32(3): p. 140-149. Glanzel, W., The multi-dimensionality of journal impact. Scientometrics, 2009. 78(2): p. 355-374. Guan, J.C. and X. Gao, Exploring the h-lndex at patent level. Journal of the American Society for Information Science and Technology, 2009. 60(1): p. 35-40. Guns, R. and R. Rousseau, Simulating Growth of the h-Index. Journal of the American Society for Information Science and Technology, 2009. 60(2): p. 410-417. Guns, R. and R. Rousseau, Real and rational variants of the h-index and the g-index. Journal of Informetrics, 2009. 3(1): p. 64-71. Haberhausen, M. and C. Bachmann, Impact factors and publication time spans of child and adolescent psychiatry journals. Zeitschrift Fur Kinder-Und Jugendpsychiatrie Und Psychotherapie, 2009. 37(1): p. 51-56. Hartemink, A.E., Publications for evaluations: The impact of soil science and soil scientists. Journal of Soil and Water Conservation, 2009. 64(1): p. 18A-19A. Jared DuPree, W., et al., Evaluating Scholarship Productivity in COAMFTE-Accredited PhD Programs. Journal of Marital and Family Therapy, 2009. 35(2): p. 204-219. Jasienski, M., Garfield's demon and surprising or unexpected results in science. Scientometrics, 2009. 78(2): p. 347-353. Jensen, P., J.B. Rouquier, and Y. Croissant, Testing bibliometric indicators by their prediction of scientists promotions. Scientometrics, 2009. 78(3): p. 467-479. Johnston, R., The extent of influence: An alternative approach to identifying dominant contributors to a discipline's literature. Scientometrics, 2009. 78(3): p. 409-420. Jokic, M., H-index as a new scientometric indicator. Biochemia Medica, 2009. 19(1): p. 5-9. Levitt, J.M. and M. Thelwall, The most highly cited Library and Information Science articles: Interdisciplinarity, first authors and citation patterns. Scientometrics, 2009. 78(1): p. 45-67. Marx, W., The anatomy of the International Journal of Materials Research in the light of bibliometry. International Journal of Materials Research, 2009. 100(1): p. 11-23. Moed, H.F., New developments in the use of citation analysis in research evaluation. Archivum Immunologiae Et Therapiae Experimentalis, 2009. 57(1): p. 13-18. Narukawa, Y. and V. Torra. Multidimensional generalized fuzzy integral. in 4th International Summer School on Aggregation Operators. 2009. Ghent, BELGIUM. O'Leary, D.E., The most cited IEEE software articles. IEEE Software, 2009. 26(1): p. 12-14. Pendlebury, D.A., The use and misuse of journal metrics and other citation indicators. Archivum Immunologiae Et Therapiae Experimentalis, 2009. 57(1): p. 1-11. Perianes-Rodrguez, A., et al., Synthetic hybrid indicators based on scientific collaboration to quantify and evaluate individual research results. Journal of Informetrics, 2009. 3(2): p. 91-101. Quesada, A., Monotonicity and the Hirsch index. Journal of Informetrics, 2009. 3(2): p. 158-160. Schubert, A., Using the h-index for assessing single publications. Scientometrics, 2009. 78(3): p. 559-565. Schubert, A., A. Korn, and A. Telcs, Hirsch-type indices for characterizing networks. Scientometrics, 2009. 78(2): p. 375-382. Skilton, P.F., Does the human capital of teams of natural science authors predict citation frequency? Scientometrics, 2009. 78(3): p. 525-542. Sorensen, A.A., Alzheimer's Disease Research: Scientific Productivity and Impact of the Top 100 Investigators in the Field. Journal of Alzheimers Disease, 2009. 16(3): p. 451-465. Swaan, P.W., Science Beyond Impact Factors. Pharmaceutical Research, 2009. 26(4): p. 743-745. Thompson, D.F., E.C. Callen, and M.C. Nahata, Publication Metrics and Record of Pharmacy Practice Chairs. Annals of Pharmacotherapy, 2009. 43(2): p. 268-275. Uzunboylu, H. and Z. Ozcinar, Research and Trends in Computer-assisted Language Learning during 1990-2008: Results of a Citation Analysis. Egitim Arastirmalari-Eurasian Journal of Educational Research, 2009. 8(34): p. 133-150. 附件下载: h指数研究外文参考文献(点击下载)
个人分类: h指数|11847 次阅读|0 个评论
h指数研究有多热?另一个证据
zhaoxing 2009-3-28 16:32
赵星 2009-3-28 http://www.sciencenet.cn/u/zhaoxing/ 2005 年, Hirsch 提出作者 h 指数用于测评学者个人的科研绩效,现已成为国际信息计量学最主要的新兴热点 。 h 指数研究到底有多热?这里以两种重要期刊的 Web of Science 的数据,给出另一个证据(如表所示)。 两种相关领域重要刊物 2005 年后刊发文章被引频次 TOP5 (截止到 2009 年 3 月) Journal of The American Society for Information Science and Technology 序号 论文信息 被引频次 1 Cronin B, Meho L. Using the h-index to rank influential information scientists. 2006, 57(9): 1275-1278. 51 2 Bornmann L, Daniel H D. What do we know about the h index?. 2007, 58(9): 1381-1385. 31 3 Leydesdorff L, Vaughan L. Co-occurrence matrices and their applications in information science: Extending ACA to the Web environment. 2006, 57(12): 1616-1628. 31 4 Jansen B J, Spink A, Pedersen J. A temporal comparison of AltaVista Web searching. 2005, 56(6): 559-570. 31 5 Chen C M. CiteSpace II: Detecting and visualizing emerging trends and transient patterns in scientific literature. 2006, 57(3): 359-377. 28 Scientometrics 序号 论文信息 被引频次 1 Van Raan A. Comparison of the Hirsch-index with standard bibliometric indicators and with peer judgment for 147 chemistry research groups. 2006, 67(3): 491-502. 59 2 Egghe L. Theory and practise of the g-index. 2006, 69(1): 131-152. 55 3 Glanzel W. On the h-index - A mathematical approach to a new measure of publication activity and citation impact. 2006, 67(2): 315-321. 48 4 Egghe L, Rousseau R. An informetric model for the Hirsch-index. 2006, 69(1): 121-129. 41 5 Batista P D, Campiteli M G, Kinouchi O, et al. Is it possible to compare researchers with different scientific interests?. 2006, 68(1): 179-189. 38 为 h 指数研究文献 《 Journal of The American Society for Information Science and Technology》(JASIST)也许是情报学最重要刊物,《Scientometrics》也许是科学计量学最重要刊物。由表可见,在h指数出现后,《JASIST》刊发的最有影响力的5篇文章中,有两篇都是h指数研究。而《Scientometrics》被引频次TOP5则全部被h指数研究囊括。实际上,此期间《JASIST》被引频次6-10位中的第6和第7篇论文也与h指数有关,《Scientometrics》被引频次6-10位中还有3篇论文是h指数主题。 参考文献: Hirsch J.An index to quantify an individuals scientific research output. PNAS ,2005,102(46):16569-16572 赵星 , 高小强 , 郭吉安 , 陶乃航 . 基于主题词频和 g 指数的研究热点分析方法 . 图书情报工作 ,2009,53(2): 31-34
个人分类: h指数|6208 次阅读|0 个评论
从吾所好
flowerofmay 2009-3-9 16:19
从吾所好 (按语:此文为看到 科学网 陈安先生博文《 什么才是正确的论文发表观 兼说 快乐 科研 》一文而作。) 一息尚存,从吾所好! (范曾语)这样的境界是人生之幸福。它来自个人的选择,也有环境所能赋予的自由。 从吾所好 也应是真正科研工作者的追求 即陈安先生博文中所说的 快乐科研 就像今天我们愿意在网上花费时间精力写自己的博客! 实行预算制的法国的科研环境尤其适合 从吾所好 的基础研究者,令其诺贝尔奖获得者层出不穷(法国 2005 年、 2007 年和 2008 年几乎连续三年获得诺贝尔奖)。但其宽松也滋养了一些滥竽充数人员,其公共科研体系也面临改革。 每个国家的科研体系都想通过养很多人来获取可能的科研成果。但是,人之初,性本惰。在任何环境当中,人都可以根据其惰性分出层次。进入科研队伍的人有是 从吾所好 的,更多的可能只是 养家糊口 或 沽名钓誉 之人。为鞭打懒牛,因此诞生了论文评价体系。 然而,希望快出成果的论文评价体系几乎使所有的人都感到窒息,包括那些宝贵的 从吾所好 的科研人员。 也许,今天中国的学术环境对 从吾所好 的科研人员的伤害程度远比通过论文评价体系获得的成果多(多数成果也许只是应景的假象),因此,越来越多的学者想通过改变这个评价方式改变科研环境现状。对此,我非常赞同。 保护 从吾所好 的科研人员 可能比调动 懒牛 更重要。何况,错误的评价体系标准让更多的人从事 无用功 工作(如《医生要 SCI 干什么》,对人的生命和社会资源的浪费是无法用论文计数的。 对这个问题,希望以后有更深入的思考。
个人分类: 生活点滴|5492 次阅读|3 个评论
科研评价、期刊评价与论文评价的互动关系
rbwxy197301 2009-2-13 14:15
最近读了 武夷山 老师的博文 写一篇高质量论文需要多长时间? ,很有感触,也激发了我对科研评价、期刊评价与论文评价的互动关系这个问题的感悟,提出自己一些不成熟的看法,与大家分享。   科研评价的内容很广,这儿我想讨论的主要是指科研管理部门对科技人员在期刊论文产出方面的评价。   我们学校的科研管理制度当中,首先对论文发表所在学术期刊(报纸、论文集、增刊暂不考虑,下面未列出)进行了一个分类,具体依次分为:nature、science等十种期刊(都是国外权威学术期刊);《求是》、《中国社会科学》、《中国科学》;《哲学研究》、《经济研究》、《管理世界》等十种期刊;《国外社会科学》等34种期刊;国家重点报纸杂志(安徽省教育厅核定);一般国家级学术期刊;国内公开出版的期刊(含港澳台、除外语专业类报刊)中发表的外文学术论文以及已经列入CSSCI(《社会科学引文索引》)、CSCD(《中国科学引文数据库》)、CSCI(《中国科学引文索引光盘数据库》)来源期刊但不属于安徽省教育厅所确定的国家级刊物;一般省级学术刊物、港澳台公开出版的学术刊物(经当地主管部门批准);被经批准且公开发行无纸质版的电子刊物;省级以上(含省级)新闻出版主管部门批准出版的内部刊物(不含内部资料)、被经批准且公开发行的无纸质版的电子刊物。不同级别上发表论文给予不同的科研积分,同时还在论文字数及被文摘类刊物转摘进行了限定和说明。   这个结果实际上参考了国内外有关学术期刊评价结果制定出来的。从这个角度来看,科研管理部门是通过科研人员论文发表的期刊级别来判定其成果的质量。期刊评价结果的合理性、科学性对科研人员评价结果的影响非常关键,它是对个人科研绩效评价的基础。其好处是操作性强,容易统计;大部分科研人员容易接受;评价结果的数据透明;评价成本低。   这种以刊论文评价会使高质量的论文分布呈现一个先国外、后国内;先重点、后一般的结果。一些科研人员的成果通过学术期刊传播时,在平衡权威性和时效性时偏向于前者,进而使一些科研成果不能及时传播。一般情况下,优秀学术期刊上的论文从投稿到正式发表时间较长。   这种评价常常是逐年来统计科研人员科研工作量的,可能会造成一种重数量,轻质量的结果。   这种评价模式对国内学术期刊发表的整体发展会有影响,一些好的学术期刊高质量的投稿会很多,而一般性的期刊为了自身的发展,从经济效益的角度考虑会发生以钱发文的现象。   总之,我觉得科研评价、期刊评价与论文评价是一个三角关系,相互影响和相互作用。其中科研评价是一个指挥棒,它常会影响科研人员向哪些期刊投稿;期刊评价是一个中介,它一方面为科研评价的一个基础;另外它也常常会决定和影响一篇论文的传播效果。论文评价是最底层,也是最重要的一环。只有能够对科研论文有一个科学的评价,才能提升学术期刊的质量,进而影响它的评价结果。这三者之间处于一个动态平衡的状态,一方面的改变通常会使另个两方面的情况发生变化。   最后,我想提出一个和大家一起思考的问题:我们为什么来写文章?
个人分类: 科研评价|4129 次阅读|3 个评论
给一个拒绝的理由
热度 1 rbwxy197301 2009-2-7 13:53
收到南京理工大学章成志博士在科学网上开博客的建议很久了,在年前注了册,但是一直没有发表什么博文。今天收到科学网总编辑赵彦老师上传博文的邀请,心里很是惭愧。我常登录科学网阅读别人的博文,但是自己却只是占了一个空间,却没有把自己的东西与大家分享。今后,我会好好经营自己的博客,希望能与学术同行进行更多的交流。对得起好朋友、好编辑对自己的关注。   今天想写的一点内容是自己在向学术期刊投稿和科研项目申请过程中遇到一个问题。一篇文章投到编辑部,来来回回很长时间,最后被拒稿时,能够得到的信息反馈很少,有时只是一个程式化的通知。申请科研项目同样如此,花了不少精力去写好的申请书,上交后如果没有通过,连个通知都没有,更别说拒绝的理由。只是在申请成功的列表中没有自己的名字和项目的名称。于是我常常想这样一个问题,那就是请给一个拒绝的理由。   学术期刊在知识传播的过程起着非常重要的作用,现在它还兼负了一个科研评价的功能。一个人、一个学校、一个机构科研能力的强弱,他在专业领域权威期刊发文的数量是一个非常重要的标志。学术期刊为科研管理部门做了非常重要的前期工作,科研管理人员在对科研工作才进行科研评价时,把一些数字简单的相加就可以有一个被大家普遍接受的结果。但是,我觉得学术期刊社应该重视一下信息反馈这个问题,加强与投稿人的沟通的交流。无论对于期刊社,还是投稿人,再到知识的传播,这都应该是一件好事。   很多学术期刊在其投稿说明中都会有这样一个内容,收稿后n个月内如果没有回复,请作者自行处理自己的稿件。所以,一篇文章投出去之后,投稿人就要耐心地等待n个月。这期间,如果着急,就要常打电话给编辑部询问情况,写邮件基本是不会回的。这种状况,随着一些编辑部自动投稿系统的应用有了一些改变,如《图书情报工作》、《情报杂志》的网络投稿系统如果经常登录,可以了解到自己稿件被处理的情况。我们理解编辑的辛苦,他们收到的稿件是数以千记,工作量很大。但不管怎样,我们希望无论是稿件采用还是拒绝,都能够给投稿人一个明确而具体的理由。不要只是一句:你的文章没被采用,请改投他刊。一稿多投是学术界普遍不认可的,但是目前稿件处理的速度、科研管理制度和投稿人心里预期之间的矛盾却不能够得以平衡。所以我觉得可以一稿多投,但是不一稿多发。   科研项目申请与给学术期刊投稿存在同样的问题。相比而言,科研管理部门更处于一个强势的地位,所以他们更表现的高高在上。他们做出了拒绝的决定,但是常常不会给申请者拒绝的理由。   平等是我们常常去追逐的目标,而这种给予一个拒绝的理由应该是实现平等的具体表现。理由是信息公开的最好诠释。在追求科学知识的大道上,为了少走些弯路,为了少些重复,我想无论是学术期刊编辑部,还是科研项目评价机构,最好能够给一个拒绝的理由,一个具体的理由。这是对投稿人、申请者应有的尊重,也是科学活动中很有价值的事情。   一个知谐的社会需要理解,也需要大家一起来努力!
个人分类: 生活随想|6343 次阅读|5 个评论
澳大利亚的研究人员评价指标
whocj 2009-2-6 15:22
澳大利亚研究委员会(Australian Research Council-ARC)有点类似于我国的自然科学基金委,近日为了其The Excellence in Research for Australia (ERA) 计划发布了对研究人员进行考量的评价指标。 有兴趣的朋友请自行前往( http://www.arc.gov.au/era/indicators.htm )观看吧,我这里就不搬砖头了。
个人分类: 未分类|4010 次阅读|0 个评论
[转]计算机科学研究评价
furaibo 2009-1-22 08:10
转发日本朋友发过来的一个幻灯片。定量分析了对计算机科学研究的评价与物理和化学如何不同,指出SCI和h-index的片面性。 计算机科学研究评价
个人分类: 书斋小记|4608 次阅读|3 个评论
假如沈天民不是个农民
张显峰 2009-1-14 16:52
沈天民是个农民,但是上周五他和很多院士一起站在了国家科技奖领奖台上。 有记者就问:你是农民,没有文凭,为什么能干出成果? 因为没有业务上的领导,沈天民的回答很实在,我自己一个人干,没有行政上的压力,干成了就成,不成也正常。所以,我能够花 20 年的时间垫底打基础,找一种材料。( 1 月 10 日 《科技日报》) 这个回答简直太土太农民了,我估计有些领导一定不会满意。怎么着你也应该说,如果没有领导的关怀,没有 XX 项目的支持,就没有我沈天民的今天。你以后还得可是转念一想,大约正因为几十年来他没这么想过,心无旁骛地做自己喜欢的事,才有底气实话实说、实事实做。 读罢沈天民的事迹,我在想,假如他曾经被某个研究所收编,那么,他大约不外乎如下几个归宿: 一个就是适应研究所的管理。那他就得不停地迎接领导检查、写汇报材料,以他的理论功底,可能还得从头开始学习如何制作论文、申请项目,那么做育种研究的时间就所剩寥寥了,最终可能一事无成。 一个就是被体制淘汰。他连中学都没毕业,肯定评不上职称了,如果他还凭兴趣来,几年做不出成果、发不了论文,那你说,一个没有职称又出不了成果的人,研究所还养着你干什么。 最后一个归宿,就是只好离职,回到自己的种业公司了。当然,这是最适合他的了,也是最幸运的了。 但是相比起来,今天绝大多数科学家难有沈天民这份潇洒和幸运。我接触过很多科学家,他们也很有成就,但是他们因为活在体制内,不得不承受行政上的压力,干成了就成,不成也得成。所以他们一方面必须要在较短的时间内(科学研究是一个缓慢积累的过程)拿出成果来,一方面还要接受各个方面的检查、评比,真正能静下心来做研究的时间少得可怜。 可以想象这样做的后果,本来能出大成果的科学家,出了一堆小成果谁都知道,大成果并不是小成果的简单叠加;本来可以等出了成果之后扎扎实实写篇论文,但为了应付评比验收、评职升迁,不得不粗制滥造,甚至抄袭剽窃。 有人会说,国家的投入总得有回报啊,如今学界急功近利,倘若不这么管着,成果更少,抄袭剽窃更甚。试问一下,一个真正献身科学事业的科学家,有几个人不希望出成果的,但是这也得讲究水到渠成吧?一个真正凭兴趣做研究的科学家,又有几个会荒唐到剽窃论文去欺骗自己?但当坚持这些危及他们的生计时,我们又如何保证他们不浮躁? 不能否认,我们绝大多数科技成就都是体制内的科学家创造的。但是有没有想过,如果没有诸多束缚,他们也许会做得更好;我也不否认,科技界像陈进这样的钻营分子不乏其人,但那是另一种制度的失败。 美国科学院前院长布鲁斯艾伯茨结合自己的管理经验,谈过一个观点:只有人的思想不受制于任何人和事的时候,科学的发展才会更快。这句话印证了一个真理:最聪明的管理,就是解放人,解放人的智慧,而不是管制。那么,就让科学家们做个沈天民这样的农民吧。
个人分类: 显峰冷言|4360 次阅读|4 个评论
SCI: Stupid Chinese Idea
panfq 2008-12-7 10:45
SCI: Science Citation Index, but now in China, it stands for Stupid Chinese Idea. Many Universities and colleges rate academic research level according to SCI and Awarding faculty according to it. Much money flows to those subjects which can be easily cited by SCI. Such system surely do harm to the facultys zeal in some fields. SSCI. Social Science Citation Index, if not treat it correctly, will become SCISS (Stupid Chinese Idea in Social Science). CSSCI . Chinese Social Science Citation Index, also means to Correct Sense of Stupid Chinese Idea, and build the rating system of its own. 中国大学论文的指标 SCI :《科学引文索引》( Science Citation Index )是美国科学情报研究所出版的一种综合性科技引文检索刊物。它是目前国际上最具权威性的、基础研究和应用基础研究成果评价的重要工具。 EI :《工程索引》( The Engineering Index ),是美国工程信息公司出版的著名工程技术类综合性检索工具。 SSCI: 《社会科学引文索引》( Social Science Citation Index )为美国科学情报研究所建立的综合性社科文献数据库。 其他数据 根据中科院的统计, 2004 年中国发表的论文总数是世界第 9 位,但是平均每篇论文被引用的次数仅排在世界第 124 位。 1996 年我国的 SCI 论文数量排名世界第 14 位。 2005 年,按 SCI 所收录的论文数排序,我国排在世界第 5 位 , 仅次于美国、英国、德国和日本。 有数据显示,每年国家统计的数万项科研 成果 中, 90% 以上未产生实际价值。
个人分类: 科学与技术|7796 次阅读|0 个评论
纵使评不上教授,也懒得做商业交易
panfq 2008-12-7 08:05
今年职称评审有点吊胃口的意思。 由于学校教授数额已接近省上的数额要求,今年严加控制。听说只有十个名额,而申报的却有 50 多个,除此以外,还有更多的到了正常晋升年限的副教授自觉无望而放弃申报的。虽然是一个省属院校,但竞争激烈。因为前几年评审权利下放后,教授评审不再送到省一级学科组,学校趁此机会了上了一大批教授,包括一些非专职教学科研人员。学校自从2002年改革以后,不再有研究员系列的职称,这也在客观上导致一部分处级以上干部挤占教授岗位。 这次评审,其中一条就是要有10篇核心期刊,而且每篇必须是第一作者。 我正好就在核心期刊上出了点问题。有一家期刊,我在它上面先后发了两篇文章,可它03年不是核心,04年就成了核心。还有一篇文章发在另一期刊上,可它03 年是核心,04年发了文章却不是核心了。 至今手头还存有二三年前的几篇文章的用稿通知单,其中有核心期刊的,也有非核心的,但凡是收版面费的,我一概不发。我宁可把文章发表在不收费的一般期刊上,而且( 正如下文)还非议了一些期刊收费的做法。也算是种豆得豆吧,今天终于轮上我在这方面要得到报应了,首位核心差一篇(当然超过十篇也不一定评得上)!我虽然有五篇CSSCI期刊的文章,但学校评职称只看核心数量,也不会在核心期刊内再分高低,也没有职称评审中“代表作”制度。这样那些愿出钱买核心者,和只要交钱就给发文章的期刊,就能各取其利。由于近日来“核心”二字在心头徘徊良久,且在此打字时不小心打出“黑心”两字。 (核心——黑心?) 虽然从1997年就开始到这所学校任教教育心理学科,是11年前该校的第一个教育硕士,2005年从浙江大学毕业,又是该学科的第一个博士,所发论文数量和档次也是该学科居先的。如果教授按学科设岗,或许有点机会。但横向比较,就无缘了。无缘于SCI,EI,SSCI,只能与CSSCI有点缘分,至于职称评审中所列的科研经费的数量指标,就更不能提及,山东省几年来的教育类课题就没有经费,我到哪里去得到5万元的经费指标。我又不能托关系让某个企业老板给我打进一笔经费,等赚了学校的科研奖励再去回报老板,因而名利双收。学校的边缘学科与正宗的理工科无法横向比较。 说起来也是运气不好,一步赶不上,步步赶不上。轮到自己评职称的时候总是要遇到“改革”政策。评副教授的时候,学校出台改革政策,那一年整个学校的评审没有进行。等五年后科研积分达到了要求,该到评教授的时候了,学校又要改革,又要评审推后、条件拔高、名额受限。 在此把几年前写的一点感受粘贴到这里: 学术期刊收费,各有说道 突然发现有人在我的博客后留言: 权威杂志论文刊登 职称论文代发机构 -- 快速发表职称论文。联 系:*编辑 投稿邮箱: *** @163.com 个工作日内回复)欢迎你咨询投稿! (2 这位编辑竟然知道我的心痛和需要。于是发邮件问问情况,回信如下: 亲爱的朋友: 您好!我是《科学决策》*编辑,我们刊物是国家级的核心刊物,在权威网站都是可以查到的,我们版面费是 3000 字内 900 ,您要是还有什么不理解的可以加我工作 QQ**** 。 感谢这位坦诚的编辑,他至少能公开声明自己的收费。这样就免去了我向他投稿的功夫。 如今交费发文章,已成为家常便饭。有许多专业学术期刊、大学学报已开始公开收费。前几天去邮局寄稿,正好发现一位同事把一千多元寄往一家期刊,我真替他心疼。我有好几年不这样寄钱了,正是出于吝啬,这几年也未发几篇文章。有好几篇收费通知单都让我扔进了垃圾桶。 我为几年前写过的几句话惭愧。不过我当初的意思不是更多地抱怨收费,而是期望有一条途径,如何让投稿者及时知道哪 些杂志收费,免得我投稿浪费时间。收费期刊编辑部至少要在邮箱设一自动回执,“本刊收费,如不同意敬请他投!” 为此我在光明网上先以这样的题目发表类似的看法: 学术期刊如果收费,能否提前广而告之。 ( http://www.gmw.cn/content/2004-08/27/content_89025.htm ) 后来又结合教育部的文件换了一个题目: 学术规范:学术期刊的收费要不要规范 红网 2004-9-3 8:55 :12 转载 中国江苏新闻 史学评论网 最近,教育部发布了我国建国以来的第一部《高等学校哲学社会科学研究学术规范(试行)》,对高校哲学社会科学研究的基本规范、学术引文规范、学术成果规范、学术评价规范和学术批评规范都作了明确的规定。这对明确学术要求、保证学术质量、维护学术尊严、纯化学术环境,具有重要作用。我在此要强调的是学术环境的纯化,例如如何防止官、学混一体制下的权学交易、功利诱导下的学术,等等。在这里我要谈的一个问题是,学术规范要不要规范学术期刊的收费。  近几年一些学术期刊收费现象日益显著,名曰 “ 学会生存 ” 。如果说一些学术期刊编辑有苦衷,为了生存不得已而收取作者的 “ 编审费 ” 、 “ 版面费 ” 之类,可以谅解,但是有些期刊收取的收费已远远超过其成本,很明显有 “ 创收 ” 的味道。由于有些学者鄙视这股风气,不愿交钱,那么交钱者不管其文质量高低,编辑基本上都给以发表。编辑也算理解学者的处境,即 “ 不发表就消亡 ” ( publish or perish )的道理,于是一方为了创收、另一方为了评职称而发文章这样的 “ 周瑜打黄盖,一个愿打、一个愿挨 ” 的情况就出现了。 但是,也请体谅一下某些作者的苦衷:一位初入学道的作者,他不愿进行那种商业交易,他辛辛苦苦写完一篇论文,恪守诚信等待三个月后,竟是一张近千元的催款单。也就是说,作者不知道哪些杂志要收费,收多少。收费的杂志中有些甚至是公认的有一定影响的核心期刊。如果知道收费,他是不愿意投向这家期刊去浪费时间和金钱的。 有些期刊看似负责,要求作者删减字数,等到修改完以后,答复仍然是 “ 请交费 ” 。如果不删减,超过字数另收费。你看这不是白忙活了吗? 在这种情况下,作者只有自己判断,投稿前自己看看所投杂志的质量。那些印刷字体、行间距很小,一份杂志上密密麻麻挤满了近百篇文章的有可能是收费杂志。但这种判断不是绝对的,也往往令你失望。 而且,收费标准也不统一。如果说收的是出版成本,那有些杂志收取的何止是成本,简直是大发其财。文章短论篇收,文章长则按字数收。一家核心杂志 200 元一版面,另一家普通杂志可能成倍收取,可出版以后你发现它把按 5000 字收费的文章缩印到一个版面上。 有同事告诉我,有的杂志同一期出两份,一份公开发行,一份内部发行,等你跑到图书馆去查询,方知上当。有的杂志劫贫济富,令初入学道者寒心。 莫非学术 期刊收费现象也是一种目前一些西方学者颇有非议的 “ 学术资本主义 ” ( academic capitalism ) ?一旦这种现象泛滥,学术的质量堪忧。笔者认为,期刊一旦收费,即具有了企业行为,编辑和作者的关系已成为企业与顾客的关系,顾客有消费知情权,期刊应事先明码标价、广而告之,不必遮遮掩掩,且让作者知道最终印刷的结果式样。这样,投稿与否,发表与否,作者才能自己做出判断。 ————————————————————— 当然,作为编辑们也有自己的苦衷: 学术期刊 :我们也不想 收费 出版经费捉襟见肘 交钱发论文?再议 收费学术期刊 现状 曾经也有过另类感叹: 由教师受骗看教师的心理压力 ——《学术刊物副主编造假刊敛财教师警惕假刊陷阱〉读后 原载光明网 http://www.gmw.cn/content/2004-08/20/content_83280.htm 看到《学术刊物副主编造假刊敛财教师警惕假刊陷阱 》(http://www.china.com.cn/chinese/2004/Aug/636870.htm ), 我想起1999年初媒体报道的的一桩诈骗案,浙江绍兴几个无业游民以“素质教育征文”收取版面费为名,骗取中小学教师的钱财,上当受骗者波及全国二十几个省市。从无业游民行骗到刊物副主编,其行骗伎俩之所以能轻易得逞,看来是充分了解教师眼前的处境和心理,即部分教师为评职称要急于发表文章。 教师在评聘职称时要有教学科研成果。可是在实际的操作中,好像平凡的教学难以区分高低,于是公开发表的文章就成了教师竞争有限名额的硬性指标。许多中小学教师教育学生很有一套办法,也有自己的思考成果,但要在刊物上发表确实有许多困难,况且这些杂志一向是“版面极为紧张”。而职称对教师又那么重要,它标志着自己的工作水平和成就。正在为难之时,有人插起“征文”旗,于是便有了“上当”人。由此我们不得不正视教师的心理压力问题。   心理压力是一种复杂的现象,对它的研究和界定有许多不同的方法。一般来说,压力开始于一些特别的需求,一项特殊的需求是否产生压力取决于个人对需求的理解。如果个人没有体力、精神或情感方面的资源去满足需要,需要就被认为是潜在的压力因素。我们知道,教师在其工作生活中要承担多种角色,诸如知识传授者、父母的形象、课堂纪律的管理员、榜样、心理治疗学家、人际关系的艺术家等,有时还要充当替罪羊。承担角色的多样性使得教师具有比别人更多的情感冲突,更多的心理压力。国内已有学者用SCL-90精神卫生量表对教师的心理健康进行了研究,如上海市小学教师心理健康状况调查(高峰、袁军,1995),高校青年教师心理健康状况调查分析(柳友荣,1998),结果都显示了教师中普遍存在的心理健康问题及工作带来的心理压力。心理过于紧张,必然影响到教师的工作满意和身心健康,进而影响到下一代的身心发展。   学校工作是一种规范性、重复性的工作,提倡教师进行科研可适当避免教师工作中的单调乏味,可促使教师发现隐藏在表层工作之后的深层工作的乐趣。与其他行业的劳动者相比,教师往往面临着这样的需求冲突,即他们大都具有较高的自我成就感,期望有较大的成就是教师的普遍心态。但现实是多数中小学教师被局限于职业实践者(professionalpractitioner)的工作范围内,他们日复一日地从事重复性劳动,缺少必要的科学研究条件、时间,即使有一些教育、教学体验,要总结、整理也甚艰难。因此,除极少数的教师完成了向科学家实践者(scientistpractitioner)的转化,实现自己为人类作更多贡献的理想外,大多数人多少有些“壮志未酬”的遗憾。尽管如此,我们还是提倡教师要有科研意识,但对大多数中小学教师来说科研主要是结合课堂教学实践进行的教学改革,过分注重定期发表这一点,就可能给他们带来额外的压力,出现忽略教学、生拼硬凑等不良现象。比起中小学教师,大学教师具有较好的研究条件,但仍然不能排除压力带来的负面影响。目前学术界某些人论文专著成堆,有价值的却很少。研究发表的压力使一些人走向浮躁,而个别从事难度较大的课题的研究者,可能会象1982年诺贝尔物理学奖获得者威尔逊教授一样,因短期内没有发表的成果而面临被解聘的危险。国外一调查研究表明,许多大学教师认为工作是导致生活压力的最主要的原因,而搞研究又是工作压力的首要原因,其中讲师一组压力最大。能否有效的减轻压力又直接影响到教师的工作满意(Abouserie,1996)。   生活工作中不能没有压力。压力是动力,但如果不适当适度,或不能有效解决,就有可能影响到教师的身心健康和工作质量。问题不在于取消导致竞争的改革措施,而是希望教育管理部门和人员意识到教师的心理压力问题,并寻求办法减轻工作压力,特别是理解青年教师的苦衷和处境,创造一个融洽、温馨、积极进取的环境。 (谢绝转载)
个人分类: 高等教育|1676 次阅读|6 个评论
科研经费分配:是雪中送炭还是锦上添花?
scaukzcai 2008-11-21 13:03
目前大学排名、科研项目评价、学者评价等均将主持多少科研经费、发表多少论文作为产出的重要指标,并且把主持项目多的、发表文章多的排在前面,影响力也大。可是如果从产投比、单位经费的产出来看,说不定又是另外一种排列结果。 不少大专家主持许多国家级重大或重点项目,掌握大量的科研经费,有的甚至同时拥有其中的几项,除了极少数在国内外确实比较优秀的创新团队外,实际上做的都是差不多相似内容,同样的产出都可以向不同的项目交差,如果把他的所有科研经费与所有实际产出进行比较,我想那些产出可能付出的代价要昂贵很多。而许多年轻学者,他们在经费方面紧张的情况下做了不少工作,他们经常为廉价的实验费和论文版面费而着急。而那些经费很多的专家每到项目结题时,一个头疼的问题是要忙着怎么把钱花完。 举个简单的例子: 一个大专家目前有500万经费,这500万元的科研产出是15篇SCI文章,后来他又得到500万元经费,那他所有经费的产出可能是增加5篇左右,达到20篇(平均25万元1篇),不可能翻一倍变为30篇(除非买文章)。也就是当他处于某个研究阶段时,他的产出基本维持在一定水平,与经费的增加没有显著相关关系。 而一些刚毕业的年轻科研工作者,对经费是非常渴望的,也许给他10万元,他的产出是2篇SCI文章(平均5万元1篇),这个绩效比要比上面的高很多。 思考: 在经费分配上到底锦上添花(大专家)还是雪中送炭(年轻者),值得大家深思。在实际科研研究工作中,我们发现马太效应非常普遍,有的经费用不完,有的不够用。 再举个例子:我听到有许多学者议论过,北大产出是很多,可如果与相应大量的投入相比,则产出的代价就太昂贵了,这个产投比比很多大学都要低很多。我也曾经亲自听到北大副校长的话北大的钱怎么都花不完,变个法子就可以要到钱。 因此,在对学术评价、科研评价时,除了部分确实需要长期积累的研究成果外, 是否应更重视产投比,更多地关注 年轻学者,他们是未来的希望 。就好像要提高粮食产量,主要途径是提高单产,而农田有高产田、中产田、低产田,高产田增产效果很有限,而中产田和低产田增加的潜力很大。 以上是自己的一点思考,不对的地方请大家指正。
个人分类: 学术感悟|6101 次阅读|21 个评论
如何甄别最优秀的,是问题的关键
大毛忽洞 2008-11-4 08:10
如何甄别最优秀的,是问题的关键 《科学》总编布鲁斯艾伯茨教授: 最先进的科学产生于互动中,让最好的想法、最优秀的科学家得到资金支持。 问题的关键是,美国如何甄别谁是最优秀的,谁不是最优秀的? 中国在支持最优秀的方面,做得非常到位,那些最优秀的他们有很多的资金。只是在过了 10年或20年后才知道,原来那些最优秀的并不是最优秀的。 例如,我们曾经引入美国的 SCI体系来评价和甄别最优秀的,不久中国就冒出了年产200(300)篇文章的SCI大户,硬把美国的SCI变成了Stupid Chinese Idea. 后来,又用 Nature 和 Science 来判断谁是最好的,结果有好几起黄禹锡疑似案例,是真的,还是假的,最后不了了之,这又搞坏了一把尺子。 有关部门也不会公布一份名单:那些曾经是最优秀的得到了多少资金,下了些什么蛋。 进口的仪器设备,一般都还挺好用。然而引进的评价人才的尺子,用不了多久就被弄坏了,尺子坏了,度量也就不准确了。 接着读新闻吧: 科学新闻: 您以前把美国在科学上领先世界的重要原因归结为二战中美国免于战火,进而使得欧洲的许多科学家去美国避难,由此导致美国的科研力量日益强大。但自二战以来,美国在科技发展方面一直久盛不衰,是不是还有其他方面的原因? 布鲁斯艾伯茨: 在二战之前,没有一个政府支持科学研究。二战促进了政府对应用于战争的科学的需要,开始对科学投入。其意义在于:政府允许科学家提出任何新想法,物理、化学、生物各个领域都对新奇想法敞开大门。 科学无法在隔绝中发展,而是通过不同学科科学家之间互动和分享技术、想法不断前进,因此,美国建立了研究型大学提供互动和交流的平台。美国与中国的不同在于国家科学院并没有研究中心,而主要设在大学,有大约 60到100个主要的研究型大学请求美国政府的资助。 研究型大学中的许多科研活动是从互动、从教学过程、从不同想法中激发灵感的,这就是科学协作的优点。 除了互动,还应该存在合理的竞争,让最优秀的科学家在公平竞争中胜出,得到资源和资金进行科学研究。 我不太清楚中国的大学体系,但我十分赞赏中国科学院的做法,敢于提拔年轻人,给最好的人最充足的资源。
个人分类: 思想和方法|4798 次阅读|15 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-28 10:27

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部