科学网

 找回密码
  注册

tag 标签: 深度

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

征答:通往地球中心的水管里的水压是如何分布的?!
热度 9 zhangxw 2016-4-9 16:02
征答:通往地球中心的水管里的水压是如何分布的?! 张学文, 2016/4.9 Ø 遗憾物理学没有学透,就出来这样一个自己不能回答的问题,向各位请教了,希望不吝赐教。 Ø 我们知道水越深,哪里的压力越大,所以潜水艇一定要忍耐高压。现在设想有一个(与外界绝热)很长 很长的管子(前端密封)从地面一直通向地下。我们现在向这个管子注水。于是管子的深处的水压就逐步加大。 Ø 我的问题是从地面开始水管子里的水压是随深度而变化的,可水压它如何变化,为什么。 Ø 我总觉得在地心,水压应当 =0(各个方向的引力相同) ,在地面也 =0 ,那么水压最大值在那里,为什么? 2016.4.13补充说明, 1.4月10日我自己给了一个计算分析,得出了在0.5个地球半径处最大 http://blog.sciencenet.cn/blog-2024-969073.html 。后来评论者zhangzailang 先生给出了一个积分结果,是在地心处压力最大。 2.11日我也认识到zhangzailang 先生的分析计算正确。我在自己的错误博客开头处,承认了我的计算错误也认可了他的计算结果。 3.这些有关文字请看如下博客的开头部分 http://blog.sciencenet.cn/blog-2024-969073.html 4.本应当写个仔细的说明文字,但是我的事情乱,人也懒。没有写。欢迎有人再细说,系统化一些。
个人分类: 一般科技.2.|3934 次阅读|34 个评论
安全学科的论文,评审时,请追求安全科学的深度
热度 4 Greg66 2015-5-12 18:25
安全学科的论文,评审时,请不要追求所使用的数学工具的深度,请追求安全科学的深度。 安全科学的研究目的是预防事故,只要能预防事故的,只要是在预防事故上有深入、系统研究的,那就是好论文,就是高水平论文。 安全科学研究中,用的最多的就是(事故或者伤害)统计,而统计,在很多时候是不难的数学工具。只要研究结果对事故预防有实质性应用意义,我看比弄一大堆云里雾里的数学公式(哪个评审者也不会去推导它的正确性,对不对只有天知道,作者你可以大胆蒙人!不过你蒙不蒙,不影响我的判断)、数值模拟而无以在预防事故方面有所贡献的论文好得多。 我们搞安全的人,一份责任心很重要,看看那些伤者、死者, TA 们家属的状态,我相信你已经没有心思玩“高深”的数学了。 不是吗?
个人分类: 1|2816 次阅读|4 个评论
好毕业论文为什么只能有一个主题?
热度 2 youhegao 2014-5-30 12:36
到了答辩的季节,老问题总是不断听到:你的论文结构不紧凑,没有围绕一个中心,都写不出一个题目,像是拼盘拼凑出来的。 好像大家评价研究的深度比研究的广度更高些。 从感觉上,我反而觉得其实有广度更多开创,更有意义,更难,对学生的训练也更全面。多开拓了一个小领域,多想了一个主意,多选了几次题肯定比只选一个题一直干下去更有趣味和意义。对研究生来说这甚至是更有价值的训练。我甚至觉得评价研究生可以考虑他能力所能覆盖领域的大小和领域的多少。 深度固然重要,可是一个这么大国家的这么多课题组,多元的价值观可能更重要。 不知道有多少老师和同学也有同样的感受?
3328 次阅读|4 个评论
[转载]深度学习
czcx 2013-5-21 01:30
深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习是 无监督学习 的一种。 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。 深度学习的概念由Hinton等人于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。 一、Deep Learning的前世今生 图灵在 1950 年的论文里,提出图灵试验的设想,即,隔墙对话,你将不知道与你谈话的,是人还是电脑 。 这无疑给计算机,尤其是人工智能,预设了一个很高的期望值。但是半个世纪过去了,人工智能的进展,远远没有达到图灵试验的标准。这不仅让多年翘首以待的人们,心灰意冷,认为人工智能是忽悠,相关领域是“伪科学”。 2008 年 6 月,“连线”杂志主编,Chris Anderson 发表文章,题目是 “理论的终极,数据的泛滥将让科学方法过时”。并且文中还引述经典著作 “人工智能的现代方法”的合著者,时任 Google 研究总监的 Peter Norvig 的言论,说 “一切模型都是错的。进而言之,抛弃它们,你就会成功” 。 言下之意,精巧的算法是无意义的。面对海量数据,即便只用简单的算法,也能得到出色的结果。与其钻研算法,不如研究云计算,处理大数据。 如果这番言论,发生在 2006 年以前,可能我不会强力反驳。但是自 2006 年以来,机器学习领域,取得了突破性的进展。 图灵试验,至少不是那么可望而不可即了。至于技术手段,不仅仅依赖于云计算对大数据的并行处理能力,而且依赖于算法。这个算法就是,Deep Learning。 借助于 Deep Learning 算法,人类终于找到了如何处理 “抽象概念”这个亘古难题的方法。 于是学界忙着延揽相关领域的大师。Alex Smola 加盟 CMU,就是这个背景下的插曲。悬念是 Geoffrey Hinton 和 Yoshua Bengio 这两位牛人,最后会加盟哪所大学。 Geoffrey Hinton 曾经转战 Cambridge、CMU,目前任教University of Toronto。相信挖他的名校一定不少。 Yoshua Bengio 经历比较简单,McGill University 获得博士后,去 MIT 追随 Mike Jordan 做博士后。目前任教 University of Montreal。 Deep Learning 引爆的这场革命,不仅学术意义巨大,而且离钱很近,实在太近了。如果把相关技术难题比喻成一座山,那么翻过这座山,山后就是特大露天金矿。技术难题解决以后,剩下的事情,就是动用资本和商业的强力手段,跑马圈地了。 于是各大公司重兵集结,虎视眈眈。Google 兵分两路,左路以 Jeff Dean 和 Andrew Ng 为首,重点突破 Deep Learning 等等算法和应用 。 Jeff Dean 在 Google 诸位 Fellows 中,名列榜首,GFS 就是他的杰作。Andrew Ng 本科时,就读 CMU,后来去 MIT 追随 Mike Jordan。Mike Jordan 在 MIT 人缘不好,后来愤然出走 UC Berkeley。Andrew Ng 毫不犹豫追随导师,也去了 Berkeley。拿到博士后,任教 Stanford,是 Stanford 新生代教授中的佼佼者,同时兼职 Google。 Google 右路军由 Amit Singhal 领军,目标是构建 Knowledge Graph 基础设施。 1996 年 Amit Singhal 从 Cornell University 拿到博士学位后,去 Bell Lab 工作,2000 年加盟 Google。据说他去 Google 面试时,对 Google 创始人 Sergey Brian 说,“Your engine is excellent, but let me rewirte it!” 换了别人,说不定一个大巴掌就扇过去了。但是 Sergey Brian 大人大量,不仅不怪罪小伙子的轻狂,反而真的让他从事新一代排名系统的研发。Amit Singhal 目前任职 Google 高级副总裁,掌管 Google 最核心的业务,搜索引擎。 Google 把王牌中之王牌,押宝在 Deep Learning 和 Knowledge Graph 上,目的是更快更大地夺取大数据革命的胜利果实。 Reference Turing Test. http://en.wikipedia.org/wiki/Turing_test The End of Theory: The Data Deluge Makes the Scientific Method Obsolete http://www.wired.com/science/discoveries/magazine/16-07/pb_theory Introduction to Deep Learning. http://en.wikipedia.org/wiki/Deep_learning Interview with Amit Singhal, Google Fellow. http://searchengineland.com/interview-with-amit-singhal-google-fellow-121342 二、Deep Learning的基本思想和方法 实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像等),首先必须做的事情是如何来表达一个对象,即必须抽取一些特征来表示一个对象,如文本的处理中,常常用词集合来表示一个文档,或把文档表示在向量空间中(称为VSM模型),然后才能提出不同的分类算法来进行分类;又如在图像处理中,我们可以用像素集合来表示一个图像,后来人们提出了新的特征表示,如SIFT,这种特征在很多图像处理的应用中表现非常良好,特征选取得好坏对最终结果的影响非常巨大。因此,选取什么特征对于解决一个实际问题非常的重要。 然而, 手工地选取特征是一件非常费力、启发式的方法,能不能选取好很大程度上靠经验和运气 ;既然手工选取特征不太好,那么能不能自动地学习一些特征呢?答案是能!Deep Learning就是用来干这个事情的,看它的一个别名Unsupervised Feature Learning,就可以顾名思义了,Unsupervised的意思就是不要人参与特征的选取过程。因此,自动地学习特征的方法,统称为Deep Learning。 1)Deep Learning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为: I =S1=S2=…..=Sn = O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失,保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。现在回到我们的主题Deep Learning,我们需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设我们设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,…, Sn。 另外,前面是假设输出严格地等于输入,这个限制太严格,我们可以略微地放松这个限制,例如我们只要使得输入与输出的差别尽可能地小即可,这个放松会导致另外一类不同的Deep Learning方法。上述就是Deep Learning的基本思想。 2)Deep Learning的常用方法 a). AutoEncoder 最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重,自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征,在研究中可以发现,如果在原有的特征中加入这些自动学习得到的特征可以大大提高精确度,甚至在分类问题中比目前最好的分类算法效果还要好!这种方法称为AutoEncoder。当然,我们还可以继续加上一些约束条件得到新的Deep Learning方法,如如果在AutoEncoder的基础上加上L1的Regularity限制(L1主要是约束每一层中的节点中大部分都要为0,只有少数不为0,这就是Sparse名字的来源),我们就可以得到Sparse AutoEncoder方法。 b). Sparse Coding 如果我们把输出必须和输入相等的限制放松,同时利用线性代数中基的概念,即O = w1*B1 + W2*B2+….+ Wn*Bn, Bi是基,Wi是系数,我们可以得到这样一个优化问题: Min |I – O| 通过求解这个最优化式子,我们可以求得系数Wi和基Bi,这些系数和基础就是输入的另外一种近似表达,因此,它们可以特征来表达输入I,这个过程也是自动学习得到的。如果我们在上述式子上加上L1的Regularity限制,得到: Min |I – O| + u*(|W1| + |W2| + … + |Wn|) 这种方法被称为Sparse Coding。 c) Restrict Boltzmann Machine (RBM) 假设有一个二部图,每一层的节点之间没有链接,一层是可视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的节点都是二值变量节点(只能取0或者1值),同时假设全概率分布p(v, h)满足Boltzmann 分布,我们称这个模型是Restrict Boltzmann Machine (RBM)。下面我们来看看为什么它是Deep Learning方法。首先,这个模型因为是二部图,所以在已知v的情况下,所有的隐藏节点之间是条件独立的,即p(h|v) =p(h1|v)…..p(hn|v)。同理,在已知隐藏层h的情况下,所有的可视节点都是条件独立的,同时又由于所有的v和h满足Boltzmann 分布,因此,当输入v的时候,通过p(h|v) 可以得到隐藏层h,而得到隐藏层h之后,通过p(v|h) 又能得到可视层,通过调整参数,我们就是要使得从隐藏层得到的可视层v1与原来的可视层v如果一样,那么得到的隐藏层就是可视层另外一种表达,因此隐藏层可以作为可视层输入数据的特征,所以它就是一种Deep Learning方法。 如果,我们把隐藏层的层数增加,我们可以得到Deep Boltzmann Machine (DBM);如果我们在靠近可视层的部分使用贝叶斯信念网络(即有向图模型,当然这里依然限制层中节点之间没有链接),而在最远离可视层的部分使用Restrict Boltzmann Machine,我们可以得到Deep Belief Net (DBN) 。 当然,还有其它的一些Deep Learning 方法,在这里就不叙述了。总之, Deep Learning能够自动地学习出数据的另外一种表示方法 ,这种表示可以作为特征加入原有问题的特征集合中,从而可以提高学习方法的效果,是目前业界的研究热点。 三、深度学习(Deep Learning)算法简介 查看最新论文 Yoshua Bengio, Learning Deep Architectures for AI, Foundations and Trends in Machine Learning, 2(1), 2009 深度(Depth) 从一个输入中产生一个输出所涉及的计算可以通过一个 流向图(flow graph) 来表示:流向图是一种能够表示计算的图,在这种图中每一个节点表示一个基本的计算并且一个计算的值(计算的结果被应用到这个节点的孩子节点的值)。考虑这样一个计算集合,它可以被允许在每一个节点和可能的图结构中,并定义了一个函数族。输入节点没有孩子,输出节点没有父亲。 对于表达 的流向图,可以通过一个有两个输入节点 和 的图表示,其中一个节点通过使用 和 作为输入(例如作为孩子)来表示 ;一个节点仅使用 作为输入来表示平方;一个节点使用 和 作为输入来表示加法项(其值为 );最后一个输出节点利用一个单独的来自于加法节点的输入计算SIN。 这种流向图的一个特别属性是深度(depth):从一个输入到一个输出的最长路径的长度。 传统的前馈神经网络能够被看做拥有等于层数的深度(比如对于输出层为隐层数加1)。SVMs有深度2(一个对应于核输出或者特征空间,另一个对应于所产生输出的线性混合)。 深度架构的动机 学习基于深度架构的学习算法的主要动机是: 不充分的深度是有害的; 大脑有一个深度架构; 认知过程是深度的; 不充分的深度是有害的 在许多情形中深度2就足够(比如logical gates, formal neurons, sigmoid-neurons, Radial Basis Function units like in SVMs)表示任何一个带有给定目标精度的函数。但是其代价是:图中所需要的节点数(比如计算和参数数量)可能变的非常大。理论结果证实那些事实上所需要的节点数随着输入的大小指数增长的函数族是存在的。这一点已经在logical gates, formal neurons 和rbf单元中得到证实。在后者中Hastad说明了但深度是d时,函数族可以被有效地(紧地)使用O(n)个节点(对于n个输入)来表示,但是如果深度被限制为d-1,则需要指数数量的节点数O(2^n)。 我们可以将深度架构看做一种因子分解。大部分随机选择的函数不能被有效地表示,无论是用深地或者浅的架构。但是许多能够有效地被深度架构表示的却不能被用浅的架构高效表示(see the polynomials example in the Bengio survey paper)。一个紧的和深度的表示的存在意味着在潜在的可被表示的函数中存在某种结构。如果不存在任何结构,那将不可能很好地泛化。 大脑有一个深度架构 例如,视觉皮质得到了很好的研究,并显示出一系列的区域,在每一个这种区域中包含一个输入的表示和从一个到另一个的信号流(这里忽略了在一些层次并行路径上的关联,因此更复杂)。这个特征层次的每一层表示在一个不同的抽象层上的输入,并在层次的更上层有着更多的抽象特征,他们根据低层特征定义。 需要注意的是大脑中的表示是在中间紧密分布并且纯局部:他们是稀疏的:1%的神经元是同时活动的。给定大量的神经元,任然有一个非常高效地(指数级高效)表示。 认知过程看起来是深度的 人类层次化地组织思想和概念; 人类首先学习简单的概念,然后用他们去表示更抽象的; 工程师将任务分解成多个抽象层次去处理; 学习/发现这些概念(知识工程由于没有反省而失败?)是很美好的。对语言可表达的概念的反省也建议我们一个稀疏的表示:仅所有可能单词/概念中的一个小的部分是可被应用到一个特别的输入(一个视觉场景)。 学习深度架构的突破 2006年前,尝试训练深度架构都失败了:训练一个深度有监督前馈神经网络趋向于产生坏的结果(同时在训练和测试误差中),然后将其变浅为1(1或者2个隐层)。 2006年的3篇论文改变了这种状况,由Hinton的革命性的在深度信念网(Deep Belief Networks, DBNs)上的工作所引领: Hinton, G. E., Osindero, S. and Teh, Y., A fast learning algorithm for deep belief nets .Neural Computation 18:1527-1554, 2006 Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle, Greedy Layer-Wise Training of Deep Networks, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007 Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007 在这三篇论文中以下主要原理被发现: 表示的无监督学习被用于(预)训练每一层; 在一个时间里的一个层次的无监督训练,接着之前训练的层次。在每一层学习到的表示作为下一层的输入; 用无监督训练来调整所有层(加上一个或者更多的用于产生预测的附加层); DBNs在每一层中利用用于表示的无监督学习RBMs。Bengio et al paper 探讨和对比了RBMs和auto-encoders(通过一个表示的瓶颈内在层预测输入的神经网络)。Ranzato et al paper在一个convolutional架构的上下文中使用稀疏auto-encoders(类似于稀疏编码)。Auto-encoders和convolutional架构将在以后的课程中讲解。 从2006年以来,大量的关于深度学习的论文被发表,一些探讨了其他原理来引导中间表示的训练,查看Learning Deep Architectures for AI 四、拓展学习推荐 Deep Learning 经典阅读材料: The monograph or review paper Learning Deep Architectures for AI (Foundations Trends in Machine Learning, 2009). The ICML 2009 Workshop on Learning Feature Hierarchies webpage has a list of references. The LISA public wiki has a reading list and a bibliography. Geoff Hinton has readings from last year’s NIPS tutorial. Deep Learning工具—— Theano: Theano是deep learning的Python库,要求首先熟悉Python语言和numpy,建议读者先看Theano basic tutorial,然后按照Getting Started 下载相关数据并用gradient descent的方法进行学习。 学习了Theano的基本方法后,可以练习写以下几个算法: 有监督学习: Logistic Regression - using Theano for something simple Multilayer perceptron - introduction to layers Deep Convolutional Network - a simplified version of LeNet5 无监督学习: Auto Encoders, Denoising Autoencoders - description of autoencoders Stacked Denoising Auto-Encoders - easy steps into unsupervised pre-training for deep nets Restricted Boltzmann Machines - single layer generative RBM model Deep Belief Networks - unsupervised generative pre-training of stacked RBMs followed by supervised fine-tuning 最后呢,推荐给大家基本ML的书籍: Chris Bishop, “Pattern Recognition and Machine Learning”, 2007 Simon Haykin, “Neural Networks: a Comprehensive Foundation”, 2009 (3rd edition) Richard O. Duda, Peter E. Hart and David G. Stork, “Pattern Classification”, 2001 (2nd edition) 五、应用实例 1、计算机视觉。 ImageNet Classification with Deep Convolutional Neural Networks, Alex Krizhevsky, Ilya Sutskever, Geoffrey E Hinton, NIPS 2012. Learning Hierarchical Features for Scene Labeling, Clement Farabet, Camille Couprie, Laurent Najman and Yann LeCun, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013. Learning Convolutional Feature Hierachies for Visual Recognition, Koray Kavukcuoglu, Pierre Sermanet, Y-Lan Boureau, Karol Gregor, Michaeuml;l Mathieu and Yann LeCun, Advances in Neural Information Processing Systems (NIPS 2010), 23, 2010. 2、语音识别。 微软研究人员通过与hintion合作,首先将RBM和DBN引入到语音识别声学模型训练中,并且在大词汇量语音识别系统中获得巨大成功,使得语音识别的错误率相对减低30%。但是,DNN还没有有效的并行快速算法,目前,很多研究机构都是在利用大规模数据语料通过GPU平台提高DNN声学模型的训练效率。 在国际上,IBM、google等公司都快速进行了DNN语音识别的研究,并且速度飞快。 国内方面,科大讯飞、百度、中科院自动化所等公司或研究单位,也在进行深度学习在语音识别上的研究。 3、自然语言处理等其他领域 很多机构在开展研究,但目前深度学习在自然语言处理方面还没有产生系统性的突破。 六、参考链接: 1. http://baike.baidu.com/view/9964678.htm?subLemmaId=10105430fromenter=deep+learning 2. http://www.cnblogs.com/ysjxw/archive/2011/10/08/2201819.html 3. http://blog.csdn.net/abcjennifer/article/details/7826917
个人分类: 科研笔记|1 次阅读|0 个评论
生命科学行业深度观察----汤森路透
xupeiyang 2013-5-7 12:46
​ 订阅《聚焦》 | 退订《聚焦》 ​ ​ ​ Cortellis竞争情报 | Thomson Reuters Integrity | Newport Premium | IDRAC | GENEGO 热点推荐 治疗H7N9的药物帕拉米韦(Peramivir)全球概览 值此禽流感疫情威胁之际,针对治疗H7N9的药物帕拉米韦(Peramivir),汤森路透利用其全球领先的生命科学信息数据库平台Cortellis for Competitive Intelligence(简称Cortellis for CI),公开发布帕拉米韦药物的全球研发/上市情况,为药物研究工作者提供有价值的参考信息,助力人类健康事业的发展! 查看报告全文 《药业新观察》2012年第四季度 在 2012年10月–12月的本期报道汤森路透凭借其先进的生命科学信息——Thomson Reuters Cortellis for Competitive Intelligence提供的战略数据和对行业的洞察力,针对不同的治疗领域,对行业投资和研发重大领域中的关键市场博弈者及交易亮点给出了专家评议。 本期聚焦以下5个疾病领域,给出了已经面市或正在审批的最具前景药物品种: 脂蛋白脂酶缺乏(Glybera) 非胰岛素依赖糖尿病(Forxiga)。 症状性玻璃体黄斑粘连(Jetrea) 类风湿关节炎(Xeljanz)。 慢性髓细胞白血病/Ph+ 急性淋巴母细胞白血病(Iclusig)。 查看本季度全球药物研发重大进展报告 汤森路透Cortellis在线大讲堂 吸金大法——之扩大原料药销售篇:快速追踪潜在客户和竞争对手 ( 仿制药专场 ) 时间:2013年5月10日(周五),下午14:30 主讲人: 张辉,汤森路透产品与解决方案专家 形式:WebEx网络培训(免费 ) 注册报名 药物研发中化学的角色转化 (前沿专题研讨会 ) 时间:2013年6月7日(周五),下午14:30 主讲人: 李寅(博士,英国皇家化学会会员),汤森路透科学与解决方案顾问 形式:WebEx网络培训(免费 ) 注册报名 最新动态 科技部启动人感染H7N9禽流感应急防控研究 国药中生紧急启动人用H7N9禽流感疫苗研制工作 工信部:今年五大专项扶持生物医药产业 中国医药产业发展历程及近期发展趋势 2013天士力今年11个产品将销售过亿 汤森路透知识产权与科技 汤森路透-知识产权与科技,全球领先的专业信息服务机构,提供国际一流的学术信息,知识产权专业信息和医药研发的智能信息平台,推动一流的学术研究与科技创新。 汤森路透微博 生命科学 官微 新浪官方微博 腾讯官方微博 联系我们 电话:010-57601200 传真:010-82862088 ts.info.china@thomsonreuters.com ip-science.thomsonreuters.com.cn 北京市海淀区科学院南路 2 号 融科资讯中心 C 座 北 楼 610 单元 , 100190 1500 Spring Garden Street, Fourth Floor, Philadelphia, PA 19130 USA 77 Hatton Garden, London EC1N 8JS, UK 管理您希望订阅的email内容 取消所有email订阅 隐私策略 订阅此内容 为了确保我们的电子邮件有送达您的收件箱,请将我们的电子邮件地址加入至您的通讯簿。 Copyright 2013 汤森路透
个人分类: 科研动态|2002 次阅读|0 个评论
[转载]ZT: 2013突破性科学技术之“深度学习”
热度 1 liwei999 2013-4-29 08:48
【立委按】深度学习(deep learning) 目前在机器学习界最热,整个领域随着它在转,说是革命性突破, 值得关注。报道说在语音识别、图形识别等传统机器学习领域,深度学习使得精准度大幅度提高,已经投入应用。本篇提到深度学习在自然语言理解上的前景,听上去太过乐观,几乎就是当年日本高唱第五代人工智能电脑高调的翻版。当时所仰仗的技术革命基础是 Prolog 语言及其预备在其上建立的类似于 cyc 的人工智能系统。五代机可以说是完败。这次的调子虽然耳熟,但其技术基础是几十年来在不同方面(如语音、机器翻译等)显示了实力的机器学习。值得谨慎期待。 即日起,小编将为各位读者带来麻省理工学院TechnologyReview(《科技评论》)杂志评选出的“2013突破性科学技术”系列文章,本篇为全系列第一篇。 2012年7月,雷·库兹韦尔与Google总裁拉里·佩奇会面,那时他不是来求职的。库兹韦尔,鼎鼎大名的机械智能学家,他告诉佩奇自己对打造全智能计算机颇有研究,已经有了初步的计划,准备开始设立公司打造这样的计算机。他所述的全智能计算机指的是能够自己理解语言,自己进行推论,自己做决定的计算机。 要完成这项工作,自然要用到Google的数据和计算能力。“我可给帮你弄到数据和服务器,但是要靠一家公司完成,太难了,”佩奇对他说,于是建议从来没有为别人打过工的库兹韦尔加入Google公司。经过6个月的挣扎,库兹韦尔最后还是选择了以工程总监的身份加入Google。他说:“这是我50多年来研究人工智能的顶峰。” 吸引库兹韦尔加入Google的不仅仅是Google独有的数据和强大的超级计算机,而是Google公司内部一个正在闪闪发光的人工智能分支部门“深度学习”。Google公司的深度学习软件尝试模仿人的大脑皮层中的神经层活动(该区域负责人脑80%的思维)。这个软件可以识别数字化的声音、图片和其他数据片段。 神经网络这一基本思想已经出现了几十年,但是却没有取得多少突破。不过,借助算法的改进和计算机性能的猛增,科学家现在可以模拟更多的神经层神经活动。 借助深度学习,他们在语音识别、图像识别领域取得了突飞猛进的进步。2012年6月,Google公司的深度学习系统在识别物体的精确度上比上一代系统提高了一倍,并且大幅度削减了Android系统语音识别系统的错误率。2012年12月,微软亚洲研究院展示了中英即时口译系统,错误率仅为7%,而且发音十分顺畅。( 点此观看视频和文章 )同样在12月,一群大学生和两名教授组成的团队利用深度学习软件完成分子识别,可用于发现治病新药。 Google目前正成为一块写着“深度学习”的吸铁石,吸引着来自全世界的高端、专业人士。2013年3月,Google公司收购了一家深度学习企业。这家企业由多伦多大学计算机科学教授杰弗里·希顿(Geoffrey Hinton)创立,曾获默克大奖。希顿目前已经把自己的时间一分为二,一半给了大学,一半给了Google。他的计划是“将大学中的理论拿出来,应用在现实问题上”,比如说 图像识别、搜索、自然语言理解等有关人工智能。 上面提到的应用领域时刻在提醒着人工智能研究者:科幻电影里智能机器很有希望出现在现实生活中。确实,机器智能的应用领域正从交流、计算转向医疗、制造业和运输。比如,IBM公司的深度学习技术正用于训练医师,帮助他们做出正确的选择;微软的深度学习技术则应用于Windows Phone和Bing语音搜索中。 然而,要将深度学习应用领域从图像和语音识别扩大到其他领域需要在概念和软件上做更大的突破,而且还需要计算机的计算能力进一步提高。也许几年之内,我们还见不到全智能计算机,但是几十年内出现这样的计算机是没有问题的。微软美国研究院的院长Peter Lee说:“深度学习激起了人工智能领域新的挑战。” 建造大脑 有挑战,就有解决方法。首先是软件编程需要大量人力,其次是混乱的数据结构,再就是应用领域的短缺。 紧跟人工智能思想的出现,上世纪50年代的神经网络也进入了人们视野,神经网络尝试以简单的形式来模拟人脑的运行。今天的一些人工神经网络已经可以训练自己来识别复杂的物体。但是早期的神经网络智能模拟有限的神经元,物体或者模块以复杂,就无法识别。逐渐在上世纪70年代末落。到了80年代中期,希顿和同事开发出了名为“深层”的模型来更好地利用软件模拟的多层神经网络。但因为那时计算机性能的限制,依旧需要大量人力介入,比如数据需要程序员人工标注等。 直到本世纪头十年,有关深度学习的理论终于取得了突破性的进展。2006年,希顿开发出一种更有效地训练单层神经员的新方法。即,第一层网络学习主要特征,用来识别图像边缘或声音最小单位,确认之后进入第二层去学习更负责的特征,比如说边缘角度和声音单位的组合等。这一过程将持续进行下去,直到系统可以准确识别图像和声音未知。 去年6月,Google演示了有史以来最大的神经网络,这一网络上拥有超过10亿个节点,并成功从YouTube视频中提取了1000万张画面上带猫的图片。如果没有深层学习,也就没有这么强大的功能。 深度学习让人工智能专家震惊的是其在图像识别上的进步。深度学习系统可以准确的将物体分类并添加主题,使YouTube视频分类达到16%的准确度。这个数字虽然看起来很小,但是已经比上一代系统提高了70%。需要注意的是,YouTube的系统所用的深度学习是将视频分到22000个分类中,许多分类连常人无法区分。而当把分类缩小到1000个时,系统识别的准确率瞬间提高到了50%。 大数据 为了训练深度学习的多层虚拟神经元系统,Google公司动用了16000个计算机处理器,这样的规模只在开发搜索引擎时才能用到。业内专业表示,最近几年人工智能领域取得的成就有80%要归功于计算机能力的上升。 这就要感谢Google公司强大的数据中心。真是借助强大的计算机性能和智能的任务分配机制,才加速了深度学习神经网络的研发步伐, 深度学习已经提高了智能手机的语音搜索功能。2012年,Google的Android操作系统中的语音识别突飞猛进,正是因为深度学习的关系。因为深度学习神经网络允许对语音做更精确的训练,所以使语音识别的成功率大大提高,尤其是在嘈杂的环境中,语音搜索结果也有了不小的改善。一夜之间,智能手机语音识别系统的错误率就下降到了25%,这让不少评论人士觉得Android手鸡的语音搜索要比苹果的Siri更智能。 尽管有了实质性的突破,人们还是认为深度学习的人工智能不能超越人脑。有人认为机器无法超越人脑的计算能力。 未来路向何方? Google对深度学习的态度是坚定的。首先,可以为YouTube提供更好的图像识别功能,为语音搜索提供更快更精准的识别,为自驾驶汽车提供更复杂的图像识别系统,以及优化搜索和广告投放等等。 文章开头的库兹韦尔算是一个奇人,他发明了计算机历史上的多个第一:第一个可以识别打印文字并阅读的机器,第一个可以扫描文质并保存文本的软件,第一个音乐合成器,第一个具备大型词典的对话识别系统。 库兹韦尔当前的目标就是帮助计算机理解自然语言并以自然语源与用户对话。他希望将深度学习算法用到解决自然语言的问题上,让计算机能够发现语言的问题,解决语言的问题。虽然库兹韦尔的目标还要很多年才能实现,但是深度学习的其他应用领域,如图像、声音识别已经越来越成熟。 在模拟人脑的科学尝试中,没有一种方法可以解决所有问题。但是就现在来讲,深度学习是研究人工智能最先进的方法。 文章来源: Technology Review 【相关篇什】 【科普随笔:NLP的宗教战争?兼论深度学习】
个人分类: 其他杂碎|6350 次阅读|4 个评论
大深度饱和潜水
热度 1 孙学军 2013-4-18 18:01
刚才写了关于潜水和水温的问题,接着这个介绍一下最近比较重要的一项潜水技术,以引起科学家们关注此技术。 Saturation Diving 地球总面积的 70.8% 是海洋,海洋的平均深度为 3800 米,最深的地方是马利亚纳海沟,深达 11034 米。当今海洋已经不再是令人望而生畏、敬而远之的地方,而成为兵家必争之地。因为海洋不仅是一个巨大的宝库,水产、石油等矿产等资源极为丰富。而且也具有十分重要的军事战略意义。 呼吸、低温等都潜水遇到十分重要的关键医学问题,但最重要的一个问题是高气压带来的减压问题。潜水为什么需要减压?因为气体在液体中溶解的量和环境压强有关,压强越大,溶解的越多,所以在水下,如果呼吸高压空气,则氮气在血液和组织中溶解的就比较多,如果潜水一段时间迅速返回水面,由于被溶解的气体不能马上释放,就会在血液中形成气泡,就产生了潜水减压病。所以潜水的时候,进入水的过程可以很快,但返回就需要进行减压。所谓减压就是按照一定程序,缓慢上升出水的过程。这个过程和潜水时间和深度有关,如果深度比较小,可以不停留直接出水,如果深度很大,这个时间会很长。这导致一个很大的问题,就是潜水作业的效率随着深度的增大而而降低,超过 100 米的常规潜水作业效率已经十分低下。为了解决这个问题,上个世纪 50 年美国海军军医邦德(不是 007 )提出一种新的概念,就是饱和潜水。 所谓饱和潜水,是指潜水员在水下某一深度或者相当于该深度水压的高气压环境中,持续停留到惰性气体在机体各类组织中达到完全饱和( 24 小时以上),然后无论停留多久,减压时间并不会因为潜水时间延长而再增加,这样的潜水方式,叫做饱和潜水。 饱和潜水由于解决了水下持续作业的问题,巨大地提高了潜水作业效率,一提出就受到国际同行的重视,并很快进入了实际应用。现在,饱和潜水技术仍是大深度潜水打捞的标准技术。 饱和潜水不是 Bond 上校凭空想象出来的,而是根据惰性气体在体内的运行规律,是在 Haldane 理论的基础上提出来的。根据 Haldane 理论,惰性气体一旦在体内达到完全饱和,体内的惰性气体的量就不再增加,因而不管在相同的深度再停留多久,减压时间也不再延长。这就是饱和潜水的理论依据。比如 100 米深度的饱和潜水,在 100 米处停留 24 小时需要的减压时间为 5000 分钟(约 83.3 小时);如果在 100 米处连续停留一周、或者一个月,其减压时间仍然为 5000 分钟。虽然减压时间很长,但潜水效率却很高,而且作业效率随着水下停留时间的延长而增高。 饱和潜水的实施方法。根据饱和潜水的基本原理和水下作业的具体情况,人们曾经设计了许多种饱和潜水设备,提出了相应的实施方法。归纳起来主要有两大类:水下居住舱饱和潜水 (underwaterhabitat saturation diving) 和下潜式加压舱 - 甲板加压舱饱和潜水( SCC-DCCsaturation diving )。第一种技术本质上就是让潜水员在海底居住的技术,由于对水面保障的要求非常高,而且存在许多缺点,目前已经被淘汰。 SCC-DCC 是现代饱和潜水采用的标准方案。实际上就是让潜水员在水面工作船上高压居住舱内长时间生活,需要作业时候,用特殊的运载工具(潜水钟)把他们送到水下,工作休息时返回水面的居住舱内。整个工作结束后,一次按照规定减压返回正常压力环境。 饱和潜水特殊的医学问题。高压神经综合征 (highpressure nervous syndrome, HPNS) ,实际上是高压本身的效应,潜水员机体受高压( 150 米)作用时出现的一系列的神经系统功能障碍,称为高压神经综合征。 HPNS 主要表现为运动障碍(震颤、肌肉抽搐、惊厥)以及眩晕、恶心、呕吐、嗜睡等,其症状和体征的出现和严重程度,与所加压力值和加压速度有密切关系。当深度 150~250 米时,以手震颤为主;当深度 300 米时,可出现脑电图异常和嗜睡。提高加压速度,可使症状出现得更快更重;而降低加压速度,并分阶段加压(在加压过程中设置若干驻留站),则可使症状减轻,从而可达到较大深度。这一问题产生的原因是压力造成,但对产生的原理仍不清楚。目前比较有效果的预防措施主要是采用降低加压速度,设置加压停留。 作为一项重要技术,上个世纪虽然许多学者做出了很大贡献,但中国一直没有实现实际应用,2006年上海打捞局给这个局面画上句号,最近他们建造了一造价打7亿元的打捞母船,具备300米潜水技术,已经从过去长期垄断中国大深度潜水打捞作业的国外竞争对手中抢回50%以上的生意。相信随着中国大深度饱和潜水技术的不断进步,中国的深水潜水技术将走出亚洲,占领国际市场。
个人分类: 潜水医学|7525 次阅读|2 个评论
深度学习(Deep Learning, DL)的相关资料总结
热度 3 bigdataage 2013-4-12 19:14
深度学习(Deep Learning,DL)的相关资料总结 有人认为DL是人工智能的一场革命,貌似很NB。要好好学学。 0 第一人(提出者) 好像是由加拿大多伦多大学计算机系( Department of Computer Science , University of Toronto ) 的教授Geoffrey E. Hinton于2006年提出。 其个人网站是: http://www.cs.toronto.edu/~hinton/ science上的那篇论文: http://www.sciencemag.org/content/313/5786/504.full 1 中文的资料(不含论文): 百度百科 http://baike.baidu.com/view/9964678.htm CSDN博客-,机器学习——深度学习(Deep Learning) http://blog.csdn.net/abcjennifer/article/details/7826917 深度学习(Deep Learning)综述 http://www.cnblogs.com/ysjxw/archive/2011/10/08/2201819.html “深度学习”是人工智能的一场革命吗? http://article.yeeyan.org/view/371738/341235 科学家称,深度学习是硅谷科技企业的未来 http://www.36kr.com/p/175229.html 深度学习(Deep Learning)算法简介 http://hi.baidu.com/yimizizizi/item/4d32615787772a05e6c4a5e1 程序员杂志201302:深度学习——机器学习的新浪潮 http://blog.csdn.net/datoubo/article/details/8577366 机器学习、大数据、深度学习、数据挖掘、统计、决策和风险分析、概率和模糊逻辑的常见问题解答 http://blog.csdn.net/yihaizhiyan/article/details/8266045 百度深度学习研究院 Deep Learning 教程翻译 http://blog.sina.com.cn/s/blog_46d0a3930101h6nf.html Deep Learning(深度学习)学习笔记整理系列 http://blog.csdn.net/zouxy09/article/details/8775360 Deep learning 非常好的中文学习笔记 http://www.cnblogs.com/tornadomeet/archive/2013/03/14/2959138.html Deep Learning入门之路一、二 http://blog.sina.com.cn/s/blog_9b75a293010176km.html http://blog.sina.com.cn/s/blog_9b75a29301017dd5.html UFLDL教程 http://deeplearning.stanford.edu/wiki/ 机器学习前沿热点–Deep Learning http://blog.sciencenet.cn/blog-315535-663215.html UFLDL教程 (中文版) http://deeplearning.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B Deep Learning学习(开篇) http://www.cnblogs.com/JackOne/archive/2013/02/19/DeepLearning-FirstBoold.html 深度学习: 推进人工智能的梦想 http://www.csdn.net/article/2013-05-29/2815479 2 英文的资料(不含论文): http://deeplearning.net/ (内容很多很丰富) http://en.wikipedia.org/wiki/Deep_learning http://cs.nyu.edu/~fergus/tutorials/deep_learning_cvpr12/ http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial (很好) http://www.iro.umontreal.ca/~pift6266/H10/notes/deepintro.html http://reading-group.net.technion.ac.il/2012/11/27/deep-learning-introduction/ http://www.socher.org/index.php/DeepLearningTutorial/DeepLearningTutorial Reading List: http://deeplearning.net/reading-list/ Learning Deep Architectures for AI: http://ishare.iask.sina.com.cn/f/36110040.html 3 论文(中文和英文): 论浅层学习与深度学习 深度学习研究综述 深度学习结构和算法比较分析 英文的看Geoffrey Hinton和Andrew Ng的论文就够了: http://www.cs.toronto.edu/~hinton/papers.html http://ai.stanford.edu/~ang/papers.php
23135 次阅读|3 个评论
南海区域的水有多深?介绍两种测深方法
热度 2 jlpemail 2012-11-9 15:31
去过海南岛的朋友,当你看到清澈的海水时,它可能会诱惑你下水. 好奇的人会问,海南岛周边,比如三亚的著名海湾亚龙湾地区,海水有多深? 再比如,思路开阔的也许好奇,我们的南海海域的水有多深?有没有准确的 数字? 两种快速大面积测量水深的方法 1 超声波测水深 超声波测深仪是测量水深的主要仪器 。 利用声波发射探头在水中发射声波 , 然后接收该声波从水(河流、湖泊和海洋)底反射回来的回波 , 测出从发射声波开始到接收回波结束的时间 ,然后 算出探头到水底的距离 。 2 机载激光测深 以测量海水深度为例:在飞机上安装一陀螺稳定平台 , 在这个平台安装激光器及其相配套的扫描设备。在计算机统一控制下 , 激光器按照一定的频率 , 通过激光扫描装置 ,按 一定的角度 , 同时向海面发射两种波长的激光 。 一种为波长 1 064 纳米 的红光 , 另一种为波长 532 纳米 的绿光。同时,在飞机上 用仪器 测定激光发射点的空间坐标和飞机的姿态。红色激光垂直向下发射 , 经海面反射 ; 而绿色激光则以一定的角度发射到海水中 , 向海底传播 , 经海底反射。这样 , 用两束光的往返时间差 , 考虑到光在海水中的折射改正 , 即可确定目标点的水深。 一些发达国家已经掌握了这种技术,我国的这种机载激光测深设备正在研制中。 参考文献 1 陈力平, 超声波测深法水深数字化技术探讨,水利水电快报, 2001 2 叶修松 , 黄谟涛 , 任来平 , 李凯锋 , 机载激光测深水深点空间位置的计算方法,测绘工程, 2010
个人分类: 资料库|10317 次阅读|17 个评论
安全专业专业教育的深度和广度
热度 1 Greg66 2012-9-26 00:22
7月31日只给出了这个问题(这篇文章)的摘要 ,现在给出全文。 去问发表在《第24届全国高校安全工程学术年会论文集》上。该集由第24届全国高校安全工程学术年会组委会编,北京:煤炭工业出版社,2012年9月出版。pp1-5. 2012安全工程专业教育的深度和广度.pdf
5197 次阅读|2 个评论
安全工程专业教育的深度和广度
热度 3 Greg66 2012-7-31 00:09
摘要: 正确人认识安全专业的定位可使安全专业人员对职业发展更有信心。笔者认为,安全专业是专门培养事故预防专业人才、而不是培养行业专门技术人才的专业。安全专业教育需要在 安全文化,管理体系及技术、装备等的操作程序,安全技能、安全意识和习惯,不安全动作克服等事故预防专业技能方面大幅度提高深度, 在经济、管理知识,心理乃至艺术教育等各方面也应该具有较好的广度。在我国目前安全科学普及程度的现实条件下,安全专业的教育在行业专门技术上也不能忽视的,以便为学生提供实在的技术发展空间。 结论: ( 1 )安全专业所培养的人才是专门的事故预防人才,不是培养行业专门技术人才的专业。 社会组织应该把事故预防专业人才而不是行业专门技术人才应用到事故预防(安全管理)的专业岗位上 ,这样才能真正提高事故预防效果,较少事故损失。 ( 2 )安全专业教育应该在 安全文化,管理体系及技术、装备等的操作程序,安全技能、安全意识和习惯,安全动作克服等方面大幅度提高专业教育的深度。 ( 3 )安全专业教育也应该在管理、经济、心理乃至艺术等各方面具有相当的广度。 ( 4 )基于我国的现实,安全专业教育也在行业专门技术教育上也不能忽视的,以便为学生提供实在的职业发展空间。 由于是给会议论文集写的文章,大约在一个月后,论文集出版了,才能把全文贴出来。
5440 次阅读|6 个评论
安全工程专业的教学深度和广度
热度 4 Greg66 2012-7-26 12:24
2011年10月14日,我发了一个投票贴,内容是: 安全学科已经变为一级学科,叫做“安全科学与工程”,其下二级学科设置,你的意见是? 第一方案,设置安全工程、安全管理两个二级学科(这里的安全是安全与健康的意思),所有其他行业类安全学科都取消,行业安全问题通过妥善制定培养方案来解决。 第二方案,设置安全工程、安全管理、应急管理、职业卫生等二级学科,所有其他行业类安全学科都取消,行业安全问题通过妥善制定培养方案来解决。 第三方案,在保留安全科学与工程一级学科、设置安全工程、安全管理二级学科基础上,再在38个行业工程学科下设本行业的安全学科,如 化工学科下设化工安全、核工程下设核安全、矿业工程下设矿山安全、在公安技术下设交通安全等等。 到目前为止有117人参与了投票,有33个回帖。投票的人有51.28%的人赞成第三方案,回帖的人几乎没人赞成把安全学科变为一届学科。 我认为这是安全工程专业教学的深度和广度探讨不够引起的。我近日将写这篇文章(也会发在这里),系统阐述观点,供参考。
4532 次阅读|6 个评论
科研:挖深井OR修烟囱?
热度 14 boxcar 2011-7-25 00:13
林中祥老师今天写了一篇非常好的博文“ 科研:挖一口能出水的深井 ”【 1 】,我看后感觉受益匪浅,但马上联想到了郭德纲的相声中曾经说过一段非常搞笑的段子。大概的意思是由于看反了图纸,把 “ 砌烟囱 ” 的活干成了 “ 挖井 ” 的(或者是反过来的)。其实现在做科研的人,大概也有这么两种类型,一种是在地下拼命地挖深井希望出水的,另一种则是砌一个大烟囱等着它冒烟的。从当下的情况看,似乎愿意修烟囱的多于愿意挖井的。 关于挖深井取水,很重要!林老师在他的博文已经说得很到位了,我本不打算再班门弄斧或者画蛇添足了,然而关于修烟囱,我还打算在睡觉前再随便聊上几句。挖井的目的当然是为了取水,修烟囱的目的则是为了排烟,进而加快炉灶中的气体流动使其更好烧。如果类比到学术研究中,挖井是在默默无闻地做有深度的工作,在出水之前,干活的人可能会“埋没”在井坑之中,很长时间(至少在出水之前)多半并不为人所知,而且井挖得越深,可能被人看到的机会越少,所以闷头儿搞基础研究的学者可能埋头钻研得越深,知名度越低。修烟囱则不然,只需把一圈砖磊起来,周围的人就会注意到(除非不想让人知道把工地围起来),而且烟囱修得越高,注意的人会越多,最后高高矗立的烟囱即使不冒烟,很远很远处的人都能看得到,倘若烟囱开始冒烟,那影响力就更大了。从这个意义上看,修烟囱可以类比为那种很有“显示度”、很露脸、很“火”的研究工作。堆积起来的显示度越大,关注的人越多,只要开始出成就(冒烟),科研经费和课题就会像空气一样源源不断地涌来,然后形成“良性循环” ,越来越红火,就像炉子在烟囱好用时越烧越旺一样。 照这么看,似乎“修烟囱”型科研更有出息,其实也未尽然。想修起一座够高的烟囱,只会在地面上码砖恐怕是不够的,如果没有一个好的地基,烟囱不可能修得很高,即使勉强堆了起来,也很不牢固,容易损毁,所以修烟囱之前必须像挖井一样去挖地基。实际科研也是如此,只做浮在表面上的有显示度的研究是不够的,必须要有适当的基础,否则不但达不到高度,也不能维持得太久远。不独科研,在很多领域也都一样,只求大干快上,不注意打基础可能早晚会出问题。 一个人,到底选择挖井还是修烟囱,要看个人爱好和性格特点,也要看他或她当下正处于什么阶段和状态。如果是能静下心来心无旁骛地钻研问题,基础也很好,而且并不急于出那种短平快的成果,则不妨去“挖井”。如果思想和行动都很活跃,比较外向,又等不得慢工细活地钻研艰深的科学难题,却能在比较短的时间内迅速搞定一些东西(成果、申请书之类),可以考虑去“修烟囱”, 还特乐意抛头露面的, 却未必适合去“挖井”(一定去挖,可能会挖出很多浅显的井坑,未必能坚持到一口井出水)。大到整个学术界中,小到某个课题组,人才应该是多样性,不能所有的人都去“挖井”,也不能所有的人都去“修烟囱”,只有把两种类型的人很好地结合起来,彼此取长补短,才能产生最好的效果。 参考: 【1】 林中祥: 科研:挖一口能出水的深井 http://blog.sciencenet.cn/home.php?mod=spaceuid=279177do=blogid=467993
个人分类: 科研|6711 次阅读|26 个评论
三度人格
caoman 2010-9-1 17:13
根据人性格的不同,把人格划分为双重人格、多重人格、九型人格等。而性格的区分是根据其行为表现来判定的,若直接根据其行为表现来划分人格就直观易懂了。这里根据看人和事的维度不同,将人格划分为三度:高度、角度、深度。 就象灯塔,越高照的越远,向不同的方向照去会照到不同的景象,照的远近或深浅不同照到的景象也不同。对人来说,站的越高看的越远,从前后左右看人看到的是人的不同侧面,思考问题的深度不同得到的结论不同。按看人和事的维度不同区分人格是很有意义的。 高度,高度越高看到的越完整。 胸怀大志的人拥有高度人格,做人做事考虑的是集体,甚至行业、国家和人类,做决定时考虑到后几步,甚至未来和持续发展,能赢得更多、更久的支持和资源;目光短浅的人缺乏高度人格,做人做事考虑的是自己、家庭、小团队,做决定时以自己的利益为中心,将失去更多、更久的支持和资源。 角度,角度越广看到的越全面。 看人和事全面的人,做人做事公正合理,会掌握大量素材后才能做评论和决定,而不会轻易行动下结论,成功率高,能赢得尊重;看人和事不全面的人,喜欢从自己熟悉或感兴趣的角度看,犹如盲人摸象,往往断章取义、以点代面,常常走弯路、做错事,分歧多,不成熟,成事不足败事有余。 深度,深度越深看到的越真实。 看人和事深入的人,做人做事能一针见血、抓住本质,决策准确,能从事上看到背后的人,能从一个人看到背后的其他人,脚踏实地,关注结果,效率高;否则,肤浅的人,做事不深入,做人不稳重,不务实,经常一知半解、半途而废,重复率高,考虑问题务虚、不深刻,容易被表面现象迷惑。 高度决定走多远,角度决定走向哪,深度决定走多久;高度决定地位,角度决定价值,深度决定稳固;高度决定赚多少钱,角度决定能怎么赚钱,深度决定拥有多少钱。高度决定胸怀和气度,角度决定快乐和资源,深度决定健康和生命。有高度就有机会,有角度就有办法,有深度就有结果,有三度就有人格魅力。 提高人格魅力,从修炼三度人格开始。
个人分类: 哲学|2392 次阅读|0 个评论
正式入住科学网了!
dyan2 2010-8-27 09:55
我是一个初出茅庐的小子,希望在这里可以结识更多的朋友,提升人生的深度和宽度,谢谢!
个人分类: 生活点滴|2253 次阅读|0 个评论
研究生研究了什么?
aini49311906 2010-4-26 23:24
今天上了刘老师的学术论文写作课,说到现在研究生质量是越来越低了。这说到一个现实的问题,研究生学术研究,水平不高,往往不深入的研究,甚至不研究,还有的学术不端。 本科的时候法制史老师讲课的时候说到在北京:本科多入狗,硕士满街走。这说明一个事实,现在的本科生,研究生数量已经很多了,而且到了不值钱的地步。为何不值钱呢?原因有二。其一、数量多。俗话说:物以稀为贵。诚然。现在的就业形势不好,国家鼓励招生扩招,研究生的数量越来越大,而且有的学院更甚到研究生数量和本科生数量相当。那么庞大的数量,质量自然不敢说都是很高的。其二就是研究生学术水平不高了。中国目前的研究生学术水平不高,甚至说很差是事实。很多的学生,论文写作没有创新,可以说七拼八凑,能拼写成完成的成体系的文章就不错了,并没有深入的研究,自然价值不高。学生就业压力大,很大的精力都放在了找工作上,以至于忽视了学术研究。也有一部分学生,根本就是想毕业混学历来的。学术水平可想而知。这样就业单位在找人才的时候自然会想到这些研究生根本就是高学历,低水平了。从而形成了一个恶性的循环链条。 以前是发学术论文赚稿费,现在是发学术论文交版面费。这是事实,想要改变,很难。中国的学术研究风气不好,要想改变还要经过长期的探索和努力。每个研究生同学,都应该问问自己:我研究了什么?
个人分类: 未分类|2892 次阅读|0 个评论
何谓“深度”男人
ChenFengIUE 2009-10-29 09:01
下面是一则报道的部分内容转载: 深度,彰显的是人生的阅历,胸怀的宽广;是进则天下退则田园的进取与淡薄;是舍我其谁的态度与责任;也是面对世事变迁生命无常的淡定从容。一言以蔽之,男人的深度是一种生命的厚度。没有一个毛头小伙子敢大言不惭地自诩深度。即便再聪颖再努力,没有时间的打凿,生命无法向大海一样深广。 人说四十而知天命,五十而从心所欲。一个深度男人,不光要知性,还能具备生活的智慧,能知天命而不庸人自扰,能从心所欲而在繁杂的世事中能进能退。这才是大丈夫所为。 一个深度男人,还需要一颗对生活感恩的并且乐观从容的心。 这是一个男人承担更多的社会。责任和希望都放在了男人的肩上。于是,成为深度男人,是一种愿望,一个动作,也是一个责无旁贷的目标。 个人觉得把深度男人定义的很有深度
个人分类: 未分类|4400 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-2 14:13

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部