科学网

 找回密码
  注册
科学网 标签 语言 相关日志

tag 标签: 语言

相关日志

[转载]为什么德语不再是学术语言?
热度 1 zhilinyang 2013-1-29 07:35
看看德国人怎么说吧? http://www.welt.de/politik/deutschland/article113150770/Warum-Deutsch-als-Forschungssprache-verschwindet.html#disqus_thread 英语为什么成了世界语言?还是看德国人怎样说。 http://www.welt.de/politik/deutschland/article113150964/Warum-das-Englische-die-Welt-beherrscht.html
4503 次阅读|1 个评论
文化之于语言理解的重要性
热度 3 Bobby 2013-1-28 19:16
一 英国莎士比亚戏剧的中文翻译恐怕以朱生豪的最为出色。即便如此,文学批评家张隆溪在《翻译与文化理解》还是给朱译指出了几个错误。实际上,很多语言理解错误是由于文化理解错误所致。他还转述了海涅的一句话:“近来法国人认为,如果他们接触到德国文学的精品,就可以了解德国了。其实他们只不过是从完全的蒙昧无知,进入到浮浅表皮的层次而已。只要他们没有认识宗教和哲学在德国的意义,对他们说来,我们文学当中的精品就永远只是一些无言的花朵,整个德国精神就只会显得枯涩难解。”德法语言文化的理解尚且如此,遑论其他更远隔的语言文化。 二 我国大翻译家杨宪益从小在天津英国教会学校上学,之后到英国牛津大学研究外国文学。译介了我国很多优秀的古典和现代作品,但他总是与他的夫人戴乃迭合作翻译。在一次采访中说,“我的中文知识比她多一点,她的英文知识比我多一点。”“遇到意见不一致的时候,中文方面,大概都是她听我的;英文方面,一般都是我听她的。”二个的合作翻译可算是珠连壁合,相得益彰。
个人分类: 科学感想|3429 次阅读|4 个评论
救救我们的“语言”
热度 2 dongjifei 2013-1-19 15:05
读过张海霞老师的博文-“救救语文教育,救救我们的中华文化!”,感触良多! 对于语言,有些看法拿来与大家共享。 语言是有精神的,使用它的时候便引入了一种认可、一种精神格调。人类社会进步在于不断的解读,对已有事物的重新解读和对新生事物的理解式解读。世界是模拟的,语言是离散的,不同的语言自是对环境有着不同的关注与理解,伴随着一种精神情感。这可能也是语言翻译之间最大的障碍,不同的文明自是对同一种现象有着各自独特的解读,这是一种精神,一种选择! 语言同时也是有生命的,语言的壮大在于使用者的科技水平与创新能力,同时使用者群体还应该以之为美,希望通过这种艺术来表达自己内心对于世界的理解,古诗便是如此,做到精益求精,方能百嚼不厌,流淌出的是一种美。拉丁文用来命名,估计就是这个意思,它不会被重新解读,所以意思便明确万分。 语言还是有灵魂的,语言的灵魂在于在这个语境中发生的事情,语言之魂可以简化表达,是一种经典的封装。典故就是最真实的魂,语言表达的精炼莫过于此,短短几行,情真意切。中国是个有故事的国家,自是有着丰富的灵魂语言的国度。 拯救语言,如果仅是出于感情的一种挽留,那他离结束恐怕就真的不远了。改变应该从基本做起,严于律己,尚需要大家规范自己的言行,在学术范围上保持自身的严谨,主动地去学习、修缮、使用(古汉语的好处就是如此,学术的文言文表述与生活的白话表达格式不同,更追求精炼);让语言散发出生机还需要一步步走起,从基本思想上做起。只是学术界,大家不在意国内同事的认可,需要拿到国际上对比,需要读英文文献,需要发英文论文;普通的生活中,学好英语可以找份像样的工作,但是学好汉语就难说了,清高的像孔乙己,还是... 我想我们现在还是有两种语言,只不过代表学术的文言文渐渐被英文替代,而生活的白话也渐渐被广告同化,而这又不仅仅是语言的现状,更是民族状态的一种解读、一个缩影,认同感,恐怕愈来愈远,对当代的国人来说! 自己都不认可自己,还想有质的提升,是不是痴人说梦啊! 2013.1.19于南农大
个人分类: 杂谈|4118 次阅读|4 个评论
古今的洗
热度 5 fdc1947 2013-1-18 08:24
前几天华北雾霾,恨不得有一只天大的喷头,用水把弥天的尘霾一洗而空。可惜没有这个本事,只能望着窗外,傻傻地想着古今的洗。 甲骨文、金文是怎样表示洗的,我不知道。篆字的洗,是一个形声字,左边是水,表示用水洗涤,右边是东南西北的西,表音。隶书化以后,就写为“ 洒 ”,就是现在洒水的洒的写法,不过读音为 xǐ (严格地说,其声母是 s ) 。 它的同义词是滌(简化字:涤)。 现在所写的洗字,也是一个形声字,当初,它的读音是先 xiān (严格地说,其声母也是 s ) , 意思是“洒足”即现在的洗脚。也就是说,古人的洗是一个专用词,只用于足,不用于手、脸、衣服等等。《史记·高祖本纪》里说谋士郦食其去见刘邦时,刘邦正“使两女子洗足”,就是古人对洗字的标准用法之一。 古人洗涤不同的东西,往往用不同的动词。例如: 洗手的洗,就用“ 澡 ”,澡手。所以,今天所说的“洗澡”一词,如果放在古代,在古人看来,就是“洗脚洗手”而已,跟躯体无关。 洗脸的洗,就用“ 沬 ”(不是沫,它的右边是未),音 huì , 沬就是“洒面”(现在的脸古人称面,古人的脸仅指现在的脸颊)。司马迁《报任少卿书》中说士兵愿意为李陵死战,“躬自流涕, 沬血 饮泣”。沬血用现在的话就是“以血洗面”表示满脸是血(可对应看“以泪洗面”表示满面是泪)。 洗澡的洗,古人用“ 浴 ”。现在还是这个意思,不过极少一个字单独用。 洗髮(简化字:发)的洗,古人用“ 沐” 。沐就是“濯发”(洗头发)。《史记·屈原列传》:“ 新沐者必弹冠 , 新浴者必振衣 ”。冠是用来护住头发的,它只与头发有关,所以“新沐者必弹冠”;衣才与身体相关,所以,“新浴者必振衣”。沐和浴(即洗头和洗澡)是两件有联系而不同的事情。沐、浴本来的意思分别是洗头和洗澡,现在往往连起来说,沐浴只表示洗澡了(当然,洗澡往往同时洗头,但并非一定要洗头)。古人没有洗发水,洗头往往用洗米水,所以沐字有时也做名词,意思是作洗发水用的洗米水。古人头发长(因为不能剪头,“ 身体发肤,受之父母 , 不敢毁伤” ),洗一次头不容易,要到休息日才可能洗头,所以用“ 休沐 ”表示休假。 洗米的洗,古人用“ 汰 ”(右边最早为“大”字,后来加了一点,成了太),或者用“ 淅 ”或者“ 淘 ”。米里往往会有沙子,要用水冲洗,利用米与沙子比重的不同将沙子与米分开,把沙子淘汰出去(前些年,我在东北,小米中有许多沙子,每次做饭前,都必须要用瓢来“沙( sh à )”米,以去除沙子)。由此,引申出一个现在意义上的词:淘汰。 清洗口腔,称 漱 口。这个漱字,现在还是原意。 洗涤衣物,用的动词是“ 浣” (澣)。美女西施在若耶溪边浣纱,所以这浣纱就与西施联系上了,在如今美女吃香的年月,浣纱一词几乎被西施垄断了。 说起了浣纱女西施,又可以联想到给楚汉相争时穷困落魄的大英雄韩信饭吃的“漂母”。“ 漂 ”的原意是浮,漂浮在水中。漂与潎双声转注,漂就是 潎 (音 pì ) ,潎的意思是“于水中击絮”,于是漂潎就是漂洗。《庄子·逍遥游》中用的是“ 洴澼 ”(音 píng pì ),讲有一个“善为不龟手之药”的宋国人,“世世以洴澼絖为事”。洴澼也就是漂潎。漂母就是一个“浣纱女”,不过比当年的西施年龄大而且已婚。 上面已经说过,在古代,洒字的意思是“洗涤”( xidi ),而灑字的意思才是现在的“洒水”( sashui )。两个字的意思不同,但是,这两个字古音相近,汉代人就常常相互“假借”,借来借去,结果洒与灑就成了一个意思,即成了往地上灑水的灑,读音也成了 s ǎ 。后来,洒就索性替代了灑,成为灑的简化字。 在这个漫长的过程中,洗字则逐渐扩大地盘,不再只是“洗脚”,而是可以洗其他东西,洗手、洗脸、洗衣服等等,成为洗涤用字家族中一枝独秀的霸主,读音成为 xǐ 。 其他的专用字则或者成为洗字的附庸如澡、浴,或者索性被废除如沬、澼、潎。而洗的同义词涤也降为了洗字可怜的附庸,主要的用法只剩下“洗涤”一词。 上面所说的“洗”的一统天下,主要是在北方方言也就是如今的普通话之中。在有些地区,例如吴方言区,情况就有所不同。在吴方言中,洗和死的发音相同或相近,老百姓可不希望成天说死,所以一统天下的字不是洗字,而是用作表示清洗米的动词:汰(右边为大,发音为 da ,下同)。洗东西总是要摇晃、振荡的,所以用汰也是很自然而合理的。于是有了汰衣裳、汰手、汰脚、汰头等等,也就有了侯宝林相声中的“打头”的包袱。 但是,吴方言决不说汰脸,这是什么原因?这是南北方洗涤脸部的方式不同引起的。 我第一次见到北方人洗脸已经是 50 年代后期,我十多岁的时候,家里来了两位北方的客人。他们把洗脸盆放在凳子上,用手把水敷在脸上,然后在脸上涂上肥皂(那时候还没有洗面奶),用手搓洗脸部、耳后、脖子,然后用手撩水洗去肥皂沫,最后用干毛巾擦干。洗完脸,地下一摊水渍。这大概是大部分北方人熟悉的洗脸方式。他们是真正的洗脸,北方风沙大,需要这样的清洗。 苏州人清洗脸部不是这样的。一般情况下,洗脸用较热的温水。先把毛巾放入水中,弯腰把毛巾(不拧干)敷在脸、耳后等部,拧干毛巾,擦脸部、耳后、脖子等部,然后洗干净毛巾,再擦一次,最后,洗净毛巾。清洗完毕,盆外一般只有几滴水渍,南方潮湿,很不希望把木地板弄得湿湿的。一般情况下,每一顿饭后他们都要用温水擦一次脸。他们并没有必要像北方人那样清洗,只是擦脸,所以他们称“ bu 面”。这个 bu 字,我认为就是“敷”。古时没有声母 f ,只有 p 或 b ,吴方言比北方话保守,保留较多的古代声音,如孵小鸡就读 bu 小鸡,等等。古人清洗脸部之后有没有再敷上粉之类的化妆品,我不知道,也有可能吧。敷面现在是很时髦的事情,实际上,从古至今苏州人天天“敷面”。后来,吴方言到了粗俗的上海话时代,就成了“揩面”。一个古音,大家逐渐忘记了。 语言,永远在变化之中。语言,永远是政治上或经济上强者的语言。
个人分类: 谈天说地|7575 次阅读|13 个评论
救救语文教育,救救我们的中华文化!
热度 111 张海霞 2013-1-17 19:19
今天上午,一位编辑约了来谈我们准备结集出版的《奇思妙想的物联网》的第二集,是2012年中国大学生-物联网创新创业大赛的学生获奖作品集锦,我们一页一页地过那些经过我的秘书收集整理的学生写来的作品介绍(一般4页,包括摘要、作品原理、功能实现、市场前景以及参赛感受),越看越气,简直是看不下去:这语文都怎么学的?!都大学生了,写一个自己团队完成的作品(都已经获奖了)的介绍怎么就写不清楚呢?都不要说错别字、用错词和标点符号了,就是整段话能够说的很清楚、完整的都让人感觉到眼前一亮,到处看去都是语言混乱、逻辑不清、颠三倒四、前后矛盾、图文不符、口语化.....一篇4页的文章能够写的通顺、完整、前后逻辑通顺的占到全部稿件的1/3就不错了!这都怎么了?!这可都是大学生啊!都是很不错的孩子,经历了高考、学了20多年汉语的中国土生土长的中国孩子,怎么连汉语都不会用了呢?!最后,我和编辑经过四个多小时的奋战,把每篇文章都改了一个红彤彤的“脸蛋”,让秘书扫描,发回给每个作者修改!务必认真阅读这些修改意见、重新整理好,再发回来修改完善,我跟编辑说:“文章改不好就不要做了,这本书可以不出,但是这汉字的文化不能被玷污!” 送走编辑,心情仍难是难以平复,扪心自问:仅仅是我们的大学生这样吗?不是!我的一个研究生前几天把一个设备弄坏了,我让他写下事故发生过程的详细描述,发来的两页文字也是格式混乱、语言不清,通篇的问题,我都不忍卒读!还有之前写过的那位被我“锯掉”的博士论文、每天都收到的逻辑不清甚至语言混乱的邮件、大街上充斥的充满语言暴力甚至是明显错误的标语口号.....那些花了居多时间用来学习英语而不是汉语的中小学生们......我们到底怎么了?我们的汉语到底是怎么了?这个有着几千年的历史的古老的美好的文字,这个过去几千年里灿烂辉煌并在世界上形成了巨大影响的东方文明的瑰宝,到底怎么了?!怎么到我们现代这些华夏文明的传人这里连自己赖以生存的语言文字都搞不定了呢?我们孩子不仅不会用笔写字,连用汉字写文章、说话都成了问题,这难道不是我们的耻辱吗?更可笑的是,这些汉字不会写、说不好、写不好文章的人,还要花无穷的时间来学习英语,有些人还在到处夸口:“我的英语表达比汉语好!”天哪!我们还是中国人吗?! 我们的语文教学真的是出了大问题了!我们的教育真是出了大问题了,过度的强调数理化等技术学科的教育、英语的教育,而忽视了我们赖以生存的根本——汉语的教育,这是怎样的一个耻辱和溃败呀!当我们在心里默默朗诵着“路漫漫其修远兮,吾将上下而求索”、“床前明月光、疑是地上霜、举头望明月,低头思故乡”、“但愿人长久、千里共婵娟”等名句的时候,我们的心里难道不是满腔的悲愤吗?在我们这几代人的手上,如此灿烂辉煌的汉语文化就这样被我们自己糟蹋没了!如果中国也有一天到处用着“汉字+英文”的混合文字的时候,我们这些中国人该高兴还是悲哀呢?!当我们的孩子都不以自己的语言文字为主要交流语言的时候,我们到底该身安何处、魂归何方呢? 写到这里,不仅落下泪来,为了汉语,为了我们中国人:救救语文教育,救救我们的中华文化吧!等我真的驾鹤西去的时候,希望我的墓碑上能够篆刻着我汉语的名字:张海霞!
个人分类: 科研心得|12335 次阅读|156 个评论
[转载]Scientists Identify a Language Gene 语言基因
carldy 2013-1-15 18:10
Here enclosed a piece of news (old news) about language gene: Scientists Identify a Language Gene Bijal P. Trivedi for National Geographic Today October 4, 2001 Researchers in England have identified the first gene to be linked to language and speech, suggesting that our human urge to babble and chat is innate, and that our linguistic abilities are at least partially hardwired. "It is important to realize that this is a gene associated with language, not the gene," said Anthony Monaco of the University of Oxford, England, who led the genetic aspects of the study. The gene is required during early embryonic development for formation of brain regions associated with speech and language. The gene, called FOXP2, was identified through studies of a severe speech and language disorder that affects almost half the members of a large family, identified only as "KE." Individuals with the disorder are unable to select and produce the fine movements with the tongue and lips that are necessary to speak clearly. "The most obvious feature is that they are unintelligible both to naive listeners and to other KE family members without the disorder," said neurologist Faraneh Vargha-Khadem of London's Institute for Child Health, who studied the family. The members of the family also have dyslexic tendencies, difficulty processing sentences, and poor spelling and grammar. FOXP2 is responsible for the rare disorder seen in the KE family that is a unique mixture of motor and language impediments, said Monaco. But, Monaco cautioned, "FOXP2 is unlikely to be the cause of less severe language deficits that affect approximately 4 percent of schoolchildren. FOXP2 will not be the major gene involved in most of these cases." Their findings are published in the October 4 issue of the journal Nature. Using data from the KE family, researchers narrowed the location of the FOXP2 gene to a region of chromosome 7 that contained about 70 genes. Analyzing these genes one by one is a task that could easily have taken more than a year. But Monaco's team made a breakthrough when researcher Jane Hurst of Oxford Radcliffe Hospital identified a British boy, unrelated to the KE family, who had an almost identical language deficit. The boy, known as "CS," had a visible defect in chromosome 7 that specifically affected the FOXP2 gene. "The defect was like a signpost, precisely highlighting the gene responsible for the speech disorder," said Monaco. The FOXP2 gene produces a protein called a transcription factor, which attaches itself to other regions of DNA and switches genes on and off. In the KE family, one of 2,500 units of DNA that make up the FOXP2 gene is mutated. Monaco suggested that this mutation prevents FOXP2 from activating the normal sequence of genes required for early brain development. "It is extraordinary that such a minute change in the gene is sufficient to disrupt a faculty as vital as language," he said. Although humans have two copies of every gene, just one mutated copy of FOXP2—as in the case of both CS and the KE family—can have devastating effects on brain development, said Vargha-Khadem. Brain imaging studies of the KE family revealed that affected members have abnormal basal ganglia—a region in the brain involved with movement—which could explain difficulty in moving the lips and tongue. Regions of the cortex involved in speech and language also appear aberrant. The discovery of FOXP2 offers Monaco and other geneticists a probe to fish for other genes involved in development—specifically those directly controlled by FOXP2. Also in progress is a collaborative project to study the evolution of the human FOXP2 gene by comparing it with versions in chimps and other primates. Monaco speculates that differences between the FOXP2 gene in humans and chimps may reveal a genetic basis for differing abilities to communicate. http://news.nationalgeographic.com/news/2001/10/1004_TVlanguagegene_2.html A related passage about language gene: 'Languagegene'speedslearning ‘ 语言基因 ’ 让你学的更快 Mouse study suggests that mutation to FOXP2 gene may have helped humans learn the muscle movements for speech. 对老鼠的研究表明: FOXP2 基因变异可能会对人们掌握说话时的肌肉运动有帮助。 A mutation t hat appeared more than half a million years ago may have helped humans learn the complex muscle movements that are critical to speech and language. 50 万年前出现的变异可能一直在帮助人们掌握复杂的肌肉运动,这种肌肉运动对说话和语言至关重要。 The claim stems from the finding that mice genetically engineered to produce the human form of the gene, called FOXP2 , learn more quickly than their normal counterparts. 这一说法源自这样的发现:通过基因改良的老鼠产生了人类具有的基因,这种基因叫 FOXP2 ,这些老鼠比他们的同伙(没有基因改良的老鼠)学的更快。 The work was presented by Christiane Schreiweis, a neuroscientist at the Max Planck Institute (MPI) for Evolutionary Anthropology in Leipzig, Germany, at the Society for Neuroscience meeting this week in Washington DC this week. 德国莱比锡的马科斯普朗克人类进化研究院 (MPI) 的一位神经学家,叫做克里斯汀 - 施瑞斯,在本周出席在华盛顿召开的神经科学协会会议上提交了上述发现。 Scientists discovered FOXP2 in the 1990s by studying a British family known as 'KE' in which three generations suffered from severe speech and language problems 1 . Those with language problems were found to share an inherited mutation that inactivates one copy of FOXP2 . 科学家发现 FOXP2 基因是上世纪 90 年代的事,当时科学家对英国一家代号为 ‘KE’ 的家庭进行研究,这家三代人都有严重的说话和语言障碍。这三代人都遗传了一个变异,这个变异阻止了 FOXP2 基因的复制。 Most vertebrates have nearly identical versions of the gene, which is involved in the development of brain circuits important for the learning of movement. The human version of FOXP2, the protein encoded by the gene, differs from that of chimpanzees at two amino acids, hinting that changes to the human form may have had a hand in the evolution of language. 多数脊椎动物都有几乎一样的 FOXP2 基因形式,这种基因涉及到对掌握运动至关重要的脑部的发育。人类的 FOXP2 基因(该基因编码的蛋白质)与黑猩猩的相比有两个氨基酸不同,这表明人类的这种基因变化可能对语言的进化发挥了作用。 A team led by Schreiweis’ colleague Svante Pbo discovered that the gene is identical in modern humans ( Homo sapiens ) and Neanderthals ( Homo neanderthalensis ), suggesting that the mutation appeared before these two human lineages diverged around 500,000 years ago. 施瑞斯的一个同事叫做塞万提 - 帕博,他领导的一个小组发现了现代人(智人)和穴居人(尼安德特人)的 FOXP2 基因是一样的。这表明在 50 万年前这两支人类先祖分道扬镳之前变异就出现了。 Altered squeaks 变了的叫声 A few years ago, researchers at the MPI Leipzig engineered mice to make the human FOXP2 protein. The ‘humanized’ mice were less intrepid explorers and, when separated from their mothers, pups produced altered ultrasonic squeaks compared to pups with the mouse version of FOXP2. 几年前,德国莱比锡的马科斯普朗克人类进化研究院 (MPI) 的研究人员对老鼠进行了基因改造,让老鼠具有人类的 FOXP2 基因蛋白。这种 ‘ 人类化的 ’ 老鼠变成了胆小的探险者,并且当把它们和它们的妈妈分开时,与带有老鼠原版 FOXP2 基因的小老鼠相比,这些基因改良后的小老鼠会发出变化了的超声波叫声。 Their brains, compared with those of normal mice, contained neurons with more and longer dendrites — the tendrils that help neurons communicate with each other. Another difference was that cells in a brain region called the basal ganglia were quicker to become unresponsive after repeated electrical stimulation, a trait called ‘long-term depression’ that is implicated in learning and memory. 改造后老鼠的大脑与正常老鼠的大脑相比较,含有更多的神经元而且神经元的树突更长。神经元树突是一种须状物,可以帮助神经元相互之间进行通讯交流。另外一个不同是,改造后的老鼠大脑底部神经中枢的脑细胞经过反复的电刺激后,更快进入冷漠状态,这一特征叫 ‘ 长期压抑 ’ ,这种 ‘ 长期压抑 ’ 涉及到学习和记忆。 At the neuroscience meeting, Schreiweis reported that mice with the human form of FOXP2 learn more quickly than ordinary mice. She challenged mice to solve a maze that involved turning either left or right to find a water reward. A visual clue, such as a star, along with the texture of the maze's surface, showed the correct direction to turn. 在神经科学大会上,施瑞斯报告说:具有人类 FOXP2 基因的老鼠比普通老鼠学习的更快。他让老鼠走迷宫,左转或者右转,走对了就奖给老鼠水喝。在迷宫里有诸如星状的可视标记,加上通道的表面的质感,可以指明正确的方向。 After eight days of practice, mice with the human form of FOXP2 learnt to follow the clues to the water 70% of the time. Normal mice took an additional four days to reach this level. Schreiweis says that the human form of the gene allowed mice to more quickly integrate the visual and tactile clues when learning to solve the maze. 经过 8 天练习后,带有人类 FOXP2 基因的老鼠在 70% 的情况下可以根据线索找到水喝。普通老鼠需要另外化四天时间练习才能达到这样的水平。施瑞斯说:在老鼠走迷宫时,人类的 FOXP2 基因让老鼠更快的把可视线索和触觉线索联系在一起。 In humans, she says, the mutation to FOXP2 might have helped our species learn the complex muscle movements needed to form basic sounds and then combine these sounds into words and sentences. 对人类而言,他说,向 FOXP2 基因的变异可能帮助了我们这一物种掌握复杂的肌肉运动,要形成基本声音然后把基本声音合成为字然后再合成为句子,复杂的肌肉运动是必须的。 Another MPI team member, Ulrich Bornschein, presented work at the neuroscience meeting showing that the changes to brain circuitry that lead to quicker learning come about with just one of the two amino-acid changes in the human form of FOXP2 . The second mutation may do nothing. 另一个 MPI 小组成员,叫做乌里奇 - 本斯新,在神经科学大会上提出了他的研究结果,他的结果表明:导致学习更快的脑部变化的只是人类 FOXP2 基因里两个变化了氨基酸中的一个,另一个变化了的氨基酸毫无作用。 “That makes sense,” says Genevieve Konopka, a neuroscientist at the University of Texas Southwestern Medical Center in Dallas, who also studies FOXP2 . Carnivores, including dogs and wolves, independently evolved the other human FOXP2 mutation, with no obvious effect on their brains. 位于达拉斯的得克萨斯大学西南医学中心的一位神经学家,叫做吉纳维夫 - 科诺普柯,也在研究 FOXP2 基因。他说: ‘ 是那样 ’ 。食肉动物,包括狗和狼,独立的进化成了其他的人类 FOXP2 基因变种,对它们的大脑没有明显影响。 Faraneh Vargha-Khadem, a neuroscientist at University College London who has studied the KE family in which FOXP2 is mutated, thinks that the new findings could help explain the gene's role in perfecting the facial movements involved in speech. 法拉尼 - 乌迦 - 科登是伦敦大学分院的神经学家,她研究了 KE 家族 FOXP2 基因变异,她认为新的发现可以帮助我们解释在说话时形成的脸部运动中 FOXP2 基因所起的作用。 But she does not see how changes in basic learning circuitry could explain how FOXP2 helps humans to automatically and effortlessly translate their thoughts into spoken language. “You are not deciding how you are going to move your muscles to form these sounds,” she says. 但是她没有找到如何用(负责学习的)脑部变化来解释 FOXP2 基因是如何帮助人类自觉地而且毫不费力地把想法转换成口头语言的。她说: “ 人们不用刻意去想如何使用你的肌肉来发出声音 ” 。 http://blog.sina.com.cn/s/blog_70f7edbc0100ydq3.html
个人分类: 身边的科学 Science around you|2109 次阅读|0 个评论
汉语的劣势
热度 6 丁大勇 2013-1-15 10:19
近期科学网上不少文章讨论汉语文化对我们科技发展的影响,如:张能立老师的《 我们该如何思考--兼论人类思维发展过程 》, 程代展老师的《 寻迹历史探文明 》,等等;这些前辈老师的大手笔文章,震聋发聩,发人深省! 文化、思维角度的宏观概念,显然已远超自己的把握能力;然而,作为探讨的一部分,这里记下了一些自己的微观的思考和观察,主要从语言的使用现状和具体特点看,汉语对英语的劣势,既作笔记,又以此请教大家。 主要的论点:相对英语而言,汉语的确存在一些劣势;但这些不是汉语本身固有(或独有)的问题;认为科技的长远发展必须放弃汉语、汉文化的观点,恐怕有些偏激。 我感觉在科学研究方面,相对英语,汉语的劣势有很多,但都不像是汉语这种语言本身的痼疾,下面试举3条 1)科技继承上的劣势。科学是在继承的基础上发展的,目前绝大多数科学的成果以英文形式存在,最新的研究成果更是以英文为主,所以,作为科研的语言,英文有其独特的优势,这种既有的优势又吸引更多的人用英语,这种马太效应使得用汉语表达的科研成果,整体上则显得贫乏、落后;很多人呼吁大家用汉语来发表成果,可是效果甚微,就连我自己也从未用汉语发表过文章;只有博士论文是用汉语撰写的。 2)阅读时切割词汇的负担。汉语将单字连成串书写,在形式上没有将词汇与词汇分隔开,读者必须自己判断切分出词汇才能进一步理解语义;而英文中词汇与词汇天然是分开的,无需读者来判断分割,读者可以直接将注意力放在更大的语义结构上。当然,这个问题可以用一些简单技术解决,例如采用名词下面加下划线的方式(其实这是文言文书籍中的惯例)。 3)语言工具重用(复用)的劣势。以英文为母语的孩子,其日常所用语言,既是生活的工具,也是学习科学的工具,同时也还是学习其本民族传统文化的工具,他们在一个方面获得的语言技巧,可以在其它两个方面复用;反观汉语世界,我们所学现代汉语,只能用于日常生活;学习科学的前沿,得学用英语;了解传统的文化,又得学习文言文,这使得我们不仅在语言的学习上付出了加倍的时间,而且运用语言的熟练程度也数倍地劣于英文为母语的人。 语言对于科技发展的关系是个极大的问题,不过日语文化圈似乎也应有类似的问题,而从目前的状况看,他们做得不错,不知道他们是如何解决这个问题的?请各位老师指点。
个人分类: 研究与讨论|6999 次阅读|12 个评论
[转载]研究称若从小讲多门语言 老年后更不易痴呆
xuxiaxx 2013-1-14 19:19
当你儿时学习一门外语,为繁复的语法、时态、动词变位而苦恼时,或许想不到,这种付出能让自己老来受益。美国一项研究显示,童年时开始讲双语的人步入老年后大脑更灵活。   据新华社电 美国肯塔基大学医学院研究人员招募一批60岁至68岁的志愿者,让他们完成一系列辨识任务,同时借助功能性磁共振成像技术(MRI)扫描他们的大脑。    能够促进认知   第一项任务是辨认图中物体是圆圈还是方形,第二项是辨认图中物体是红色还是蓝色,第三项任务是前两项任务的混合。   志愿者中,一部分人从孩童时代起就讲双语或更多语言。结果显示,志愿者无论是否讲外语,都能准确给出答案,但讲双语或双语以上的人完成第三组任务用时更短。大脑扫描同时显示,这些人大脑前额叶皮层活跃度更低。   前额叶皮层负责任务转换及判断、推理,并与人的各种高级心理活动,如意识、思维、想象、运动的组织和计划、注意力等有关。英国《每日邮报》援引研究项目负责人布赖恩·戈尔德博士的话报道:“研究结果显示,比起单语老人,讲双语的老人大脑工作效率更高。”   随着人体衰老,大脑认知适应性,即对所处生态环境的适应能力及大脑执行力降低,戈尔德等人的研究结果则证实,讲一种以上语言有助提升大脑活力。研究人员认为,这或许与讲双语时大脑需在两种模式之间不停“切换”有关。   研究报告由最新一期《神经学杂志》发表。戈尔德等人下一步将研究稍晚时候学习外语是否同样老来有益大脑。   意大利先前一项研究显示,双语环境下成长的婴儿与单语家庭同龄人相比,前者在认知方面更具优势。研究表明,早至牙牙学语时期,双语环境下成长的婴儿在执行功能方面就具有优势。执行功能是一种复杂的认知结构,与注意、规则运用、记忆等多种能力的发展有关。 来源:健康报网
1341 次阅读|0 个评论
R语言数据框合并函数merge()使用范例【转载+评述】
Bearjazz 2013-1-13 11:48
本文转自“stackExchange”网站,原文地址 http://stackoverflow.com/questions/1299871/how-to-join-data-frames-in-r-inner-outer-left-right ######################### df2 = data.frame(CustomerId=c(2,4,6),State=c(rep("Alabama",2),rep("Ohio",1))) df1 CustomerId Product 1 1 Toaster 2 2 Toaster 3 3 Toaster 4 4 Radio 5 5 Radio 6 6 Radio df2 CustomerId State 1 2 Alabama 2 4 Alabama 3 6 Ohio merge(df1, df2, all=TRUE) CustomerId Product State 1 1 Toaster NA 2 2 Toaster Alabama 3 3 Toaster NA 4 4 Radio Alabama 5 5 Radio NA 6 6 Radio Ohio merge(df1, df2, all.x=TRUE) CustomerId Product State 1 1 Toaster NA 2 2 Toaster Alabama 3 3 Toaster NA 4 4 Radio Alabama 5 5 Radio NA 6 6 Radio Ohio merge(df1, df2, all.y=TRUE) CustomerId Product State 1 2 Toaster Alabama 2 4 Radio Alabama 3 6 Radio Ohio ##################################### 评述: 1、dataframe的填充默认按列填充 2、merge()函数较我们之前介绍的 cbind()和rbind()两个函数更加‘智能’ http://blog.sciencenet.cn/blog-508298-601709.html
个人分类: 我的研究|33489 次阅读|0 个评论
壮语,你还会说吗?336人参加壮语文水平“首考”壮族考生占九成
Amywee 2013-1-11 09:56
壮语,你还会说吗? 我自豪的回答:“ da o, go yeng nui gang” ---【是的,我还会说】。 另外弱弱的说:【不好意思,我不会用壮语写出来哦】 在我的印象中,广西的壮语在不同的地区发音区别挺大的,小时候在父亲所在的工厂里,有来自扶绥、上林、武鸣、马山、天等、隆安等等不同县、镇等地方来的壮族人,他们说壮语和我家说的都不一样,我一点儿也没听明白他们说什么,或许是和我功力不够的原因有关。 在我的家里,从小父母亲这一辈之间都是用壮语交流,他们对我们时而用粤语、时而用普通话、时而用壮语说话,而壮语用的最少了。我之所以能听明白他们说什么,也能用壮语简单表达,得感谢父母工作太忙把我送给我外婆、阿婆(奶奶)带到5岁,到上了小学,寒暑假还会去她们家玩些日子,那段时间最好玩最奇怪:每次放假到了外婆、阿婆家就不会说壮语了,然过了几天就又能说得好好的,等一回到学校,又不会说普通话和粤语了,又得适应好几天才能将普通话恢复过来,呵呵。不过到现在,我包括很多我们那片区的广西壮族人,说普通话都会夹着些壮语、粤语的词汇、感觉,句式上也是如此--一句话经常不小心就说成壮语的句式了,比较明显的句式是:一句话倒着说,呵呵。 注:文中内容绿蓝色字体的都摘自“壮族在线”网站: http://www.rauz.net.cn/bbs/dispbbs_20_45832_1.html 母语是指一个人最初学会的本民族标准语或某一种方言,广西世居12个少数民族,很多民族都有自己的母语,但是随着时代的发展,每天都有语言在萎缩,甚至慢慢地消亡了。在广西,壮族人口占全区总人口的32%,壮语在这些群体中的生存状态如何呢,来看记者的调查。 大学生小杨来自广西贵港,从小她就会说壮语,这是家乡的方言。 【大学生 小杨:我小学在村里面读的,一般同学是用壮话来说嘛,但是到了初中,到了城里面一般是用普通话】 ----小时候我家住父亲工厂生活区了,工厂的周边都是农村,有次去邻近的一个村庄学校玩,听到那儿的老师用的教材和我们的一样,而讲课语言用的是壮语,那时觉得好新鲜,没过两年,工厂周边的很多村的小学都没了,学生们全到镇上的小学或工厂的子弟学校上课,我的很多同学平时都是用壮语交流,我虽然也会说壮语,但我们之间不知怎的就自动地用普通话交流,受学校的氛围影响就是不一样。 在城里上学、生活,小杨都是说普通话,但只要回到家和亲人交流,他还是习惯说壮语。 【大学生 小杨:就是比较亲切,比较熟悉的感觉,家乡的味道】 南宁市民陆先生的母语也是壮语,不过在城市生活的时间长了,现在即使是老乡见面,也都说普通话了。 【南宁市民 陆先生:小的时候是说壮语,到了现在他们不喜欢说壮语了】 广西民族大学壮侗文化研究所所长蒙元耀告诉记者,随着城乡联系紧密,壮族人融入城市学习和生活,缺乏了语言环境,一些壮族的孩子已经不会说写壮语了。但因为壮族是我国人口最多的少数民族,所以使用壮语作为母语的人口基数还是非常大,在广西一些地方,说壮语的人比例非常高。 【广西民族大学壮侗文化研究所所长 蒙元耀:以武鸣、马山、大化、平果、都安这一带是壮族的腹心地带,这一带壮族人是比较多的,70%的人口母语说的是壮语,百色的靖西、德保,99%都是说壮语】 母语是情感维系 也是文化传承 据统计,在广西境内使用壮语的人数超过1800万,为了保护母语,全区有25个中小学开展壮汉双语教育,大家都认同,壮语不仅仅是本族人交流的语言,它更是民族情感的维系。 【南宁市民 韦小姐:走在路上,看到对面来了或者旁边的人在说壮话,都忍不住回头看一下,多听两下,看是不是家乡的方言(就很有亲近感)肯定的】 在专家看来,每一种语言都是一个民族的文化承载,比如壮族是一个农耕民族,老一辈人的知识积累和生活经验都承载在了词汇上,通过语言表现出来。 【广西民族大学壮侗文化研究所所长 蒙元耀:这种社会现象承载了一个少数民族全部的因素,所以有让人家学习自己语言文字的机会,将来就通过这个文字把民族的文化精华传承下去】 首次壮语文考试 考生分享学习乐趣    为了掌握公民掌握壮语文水平的整体情况,也让个人了解自己的壮语水平,广西举行了首个壮语文水平考试,这也是我国少数民族语文标准化考试的首次探索和尝试。虽然这次考试只在南宁进行试点,但不少人前来报考。 【广西民语委党组成员、副主任 杨启标:来报名的人员有336人,机关的公务员、企事业人员、民营和个体的都有】 报名考试的人来自各行各业,也并不局限于壮族,还有瑶族、苗族、侗族等少数民族考生。报考者的年龄跨度也非常大,最年轻的是19岁,年纪最大的已经有80岁了。 【李守汉:(壮语)大家好,我叫李守汉,今年八十岁了】 壮语是李守汉的母语,在他看来,在壮乡这个歌的海洋,只有精通壮语才能对出好的山歌。 【李守汉:我们壮人用山歌来交流思想,交流感情(有没有媳妇可以唱歌唱回来)有啊,很多是恋爱唱山歌结婚的】 ----去年回老家几天,每天去左江边的广场上,都还能见到来对歌的老人,他们在广场树荫下的一隅,他们静静地低低地轻声地对唱着,偶尔唱到高兴,歌声也会嘹亮起来,在家那几天,我每天都去听听他们唱歌,享受之余,心里的感觉有点复杂的说不清 这名叫陆峥的女孩也参加了壮语文考试,她的背景也比较特别。 【陆峥:(壮语)大家好,我叫陆峥,刚毕业于美国新泽西理工大学】 陆峥留学回国后做的第一件事就是花了两个月的时间学习壮语文, 她说以前只会说壮语但不会写,但在这次学习过程中她感受到了壮语的魅力。 【陆峥:有些词很形象,用汉语都不能表现出来特定某个词的某个意思,比如说就是你特别漂亮,有一种漂亮不是第一眼美女,就是让你感觉一种亲切,在那里很安静的(只能意会这种感觉了)对啊】 大学生小石是两年前才开始学习说壮语的,他更看重壮语的实用性。 【大学生 小石:去乡村沟通,以自己大学学到的知识可以去帮他们一点点(有这种语言就方便)对,方便交流】 http://news.gxtv.cn/20120702/news_1131328668751.html
个人分类: 壮族风采|4450 次阅读|0 个评论
用你的肢体语言征服学术界
热度 25 xingzz 2013-1-3 10:01
用你的肢体语言征服学术界
理论物理圈子里漂亮的MM不多,而且漂亮还是不够漂亮常常是男理论家们争论的焦点,并经常为此打得头破血流、甚至反目成仇。这也不奇怪,因为搞理论研究的正常人不多,谁看起来正常,谁就是反常。因此圈子里面常说,有一千个理论家,就有一千五百个疯子,其中多出来的是他们的配偶或异性朋友。我个人不同意这样的说法,我认为这是实验家对理论家的偏见,以及社会上对一些只靠动脑动笔混饭吃的所谓理论工作者的羡慕嫉妒恨。 去年九月份我和自己的女弟子在意大利开会,遇到了来自美国某大学的年轻MM教授叉叉叉。叉叉叉是圈子里出了名的肢体语言大师,我先前已经几次目睹了她迷人的演讲风采,而且注意到欧美一大批男性理论工作者被她的风姿所倾倒。于是那天叉叉叉在台上手舞足蹈,讲着一些常人听不懂的东东和西西,我则坐在台下一边欣赏她五彩缤纷的肢体语言一边做笔记。坐在我旁边的女弟子基于同性相斥的物理原理,对叉叉叉微词有加,但这次却一边玩电脑一边批评我老人家: “邢老师你什么人呢你,不带这么刻薄的!” 其实我没有学生说得那么刻薄,只不过把叉叉叉的肢体语言进行了系统的分类,其中的要点包括: 1)甩头发、抛媚眼、嘴巴发出银铃般的声音,指挥全场的互动; 2)打手势,花样要百出,时而铿锵有力地握拳,时而温柔如水的兰花指; 3)脖子作为身体司令部的轴承,具有让脑袋发挥拨浪鼓的作用,低头沉思更美; 4)关键的关键是扭腰,要是的身体像DNA螺线形充满弹力,扭腰的幅度和频率至关重要; 5)双腿助你满场飞,就像一只花蝴蝶,静止的时候双腿要扭成天津大麻花的样子,蓄势待发。 大家看到这里,以为我刻画的是一个当代摇滚女歌手在舞台上热力四射的形象。不是,这是一个理论物理学女教授正在讲述她的理论模型时,所表达出来的极其丰富和复杂的身体语言。一般男观众这时候都会走神,除了我老人家以外,因为我根本就没有好好听讲,而是把研究肢体语言当作了课题:观察、记录、评论、发挥、点点点。 很早的时候,我在课题组内就把学术演讲列为科研的重要环节之一。我一再跟年轻人强调,你做了好东西,就要拿出去卖,这就靠好的学术演讲,其中包括几个要素: 1)PPT文件要做得精彩、简洁,有助于你的语言表达,有助于你阐述清楚物理思想和结果; 2)英文(或者中文)要好,不能带口头语(这个、这个、这个之类的,或者youknow,youknow之类的),节奏感要好,声音要抑扬顿挫,抓住观众的注意力; 3)台风要稳健活泼,该静的时候站如松,该动的时候满场飞,肢体语言的合理使用可以增强与听者的互动效果,回答问题的时候要机智敏锐,万一几次都听不懂问题的关键,则必须采用应急管理机制(细节在此略去)。 很多人都说希特勒是个疯子,演讲的时候肢体语言特别丰富,煽动性特别强。对照上述演讲注意事项,你会看到希特勒这厮颇有一点理论物理学家的风采,当年他要是去搞相对论或者量子力学的话,说不定会和爱因斯坦、玻尔、海森堡有一拼。这厮真是误入歧途啊。如此说来,理论物理还是一个为民造福的职业。 身体作为一个有机体,在表达对这个世界的意见和情感时,各个部分是相互配合的。有些人配合得天衣无缝,有些人则拖泥带水。当你对一个异性充满柔情地说IchLiebeDich时,配套的肢体语言可能先是拥抱,然后点点点(此处略去375个字)。如果没有身体语言的配合,此时的普通语言就是苍白无力的。当然你的眼睛也要放光,发射出足以摧毁对方心理防线的大量光子。 为什么要放出大量光子呢?因为人本质上不过是电磁动物!人的一切情感和思想行为,都是电磁相互作用。物理学家有成熟的理论来描述这种力,但是却常常在爱情面前无能为力。 无论如何,如果你想征服学术界的话,赶快练好你的肢体语言;如果你想征服你心爱的人的话,赶快学好电磁学;如果你想让你的bodylanguage温暖你的家庭的话,赶快搂住你的孩子、拥抱你的爱人并且含情脉脉地告诉他们:看完邢老人家的博文,我们去吃一顿candledinner吧。 我相信你不会被拒绝的!否则就是你的肢体语言还没有练到家。
个人分类: 随笔|7742 次阅读|30 个评论
一种新的语言模型:a neural probabilistic language model
dudong 2012-12-28 20:34
一种新的语言模型:a neural probabilistic language model
做的方向是依存句法分析(dependency parsing) 捋捋最近读的论文: 首先是在读机器学习(具体点说,是深度学习)相关的论文,读到几篇关于神经概率语言模型(neural probabilistic language model)的文章; 语言模型与依存句法分析(dependency parsing)有很紧密的关系,希望可以把这两者结合起来! 下面是一个关于神经概率语言模型的reading list: 【1】 a neural probabilistic language model 这是神经概率语言模型的第一篇论文; 【2】 hierarchical probabilistic neural network language model 在【1】的基础上将词汇分层得到的,优化了算法的时间复杂度; 【3】 three new graphical models for statistical language modeling 作者是Geoffrey Hinton;就是他最早提出了深度学习,深度学习现在在机器学习领域特别火!从2006年开始,它标志着神经网络在机器学习界的复苏!本篇论文是作者将深度学习的部分思想应用在语言模型上的结果。 【4】 a scalable hierarchical distributed language model 作者仍是Geoffrey Hinton;在【3】的基础上将词汇分层得到,与【2】在【1】的基础上的改进工作很类似,不过【2】在【1】上的改进工作主要集中在使用了WordNet作为先验知识;而【4】在【3】上的改进工作是使用了自动的方法。 下面找出来其中最核心的一篇详细分析一下:【1】 a neural probabilistic language model 1.背景知识: 1.1 语言模型 语言模型就是根据一定的训练集按照某个算法训练出来的模型,这个模型可以(1)计算出来某个句子在该模型下出现的概率;(2)在前面若干个词给定的情况下判断下一个词出现的概率; 下边是一个例子: P("I love you") = 0.003, 但是P("I you love")=0.00000003;说明即使在统计的意义下,符合语法规定的句子出现的概率要远远大于不符合语法规定的句子出现的概率; P("you" | "I love") = 0.1,表示在前两个词是"I love"的前提下,下一个词是"you"的可能性是0.1 P("reading" | "I love") = 0.001,表示在前两个词是"I love"的前提下,下一个词是"reading"的可能性是0.001 这个概率表示语言模型体现了统计学的特征,而不单纯是语法学的特征! 1.2 N-gram语言模型 传统的语言模型是N-gram语言模型,即一个很重要的假设: 每一个词出现的概率仅与它前边的N个词有关。 用公示表示如下: N-gram在实际中应用很广泛,但是它有很明显的缺点: 1)参数空间不光滑,经常需要一些平滑算法来弥补 2)对于词典中没出现的词没有办法处理 3.神经语言模型(neural language model)
18272 次阅读|0 个评论
谁的语言背叛了谁的心
yangjianyun 2012-12-26 23:19
这样伤害着也只有这样伤害着了,心中的委屈被在心里。很多事情忘不掉,也没办法原谅,每个角落都有自愿的伤
3 次阅读|0 个评论
中医阴虚、阳虚的本体语言与知识概念
热度 1 xupeiyang 2012-12-24 15:51
咱们也看看国际上如何认识中医学概念及其与信息和知识的关系。 阴虚 Yin Deficiency (Disease) 同义词 Hide synonyms (9) Yin Deficiencies Yinxu YIN DEFIC Deficiency, Yin Hsu, Yin Xu, Yin DEFIC YIN Yin Hsu Yin Xu 概念定义 In the YIN-YANG system of philosophy and medicine, an insufficiency of body fluid (called yinxu), manifesting often as irritability, thirst, constipation, etc. (The Pinyin Chinese-English Dictionary, 1979). (MeSH) 阳虚 Yang Deficiency (Disease) 同义词 Hide synonyms (8) DEFIC YANG Yangxu Yang Xu YANG DEFIC Yang Hsu Deficiency, Yang Hsu, Yang Xu, Yang 概念定义 In the YIN-YANG system of philosophy and medicine, a lack of vital energy (called yangxu in Chinese). It manifests itself in various systemic and organic diseases. (The Pinyin Chinese-English Dictionary, 1979) (MeSH) 本体语义网络与相关信息和知识: http://www.coremine.com/medical/#search?ids=521582,521583,826846tt=8191org=hst=TERMi=521582kb=summary
个人分类: 中医药学|3062 次阅读|2 个评论
讲英语
热度 51 weijia2009 2012-12-18 02:28
讲英语 贾伟 前阵子写过一篇博文《 学英语 》,我掐指一算,已经五个多月过去了。一般而言,五个多月的外语学下来,可以凑合着讲讲了。所以,咱们今天来讲英语。 有个段子,说去年圣诞节前上海的一名巡警拦下一个骑电动车闯红灯的男子,上去盘问: “ 叫什么名字? ” 男子答: “ 讲英语。 ” 。 民警感觉奇怪:“什么名字?” 那个男子提高了声音: “ 讲英语啊! ” 民警没辙,迟疑了一下,重新问道: “Ok, what's your name ? ” 男子掏出身份证,民警拿来一看: “ 蒋英宇“! 我看到这个段子,第一反应是,咱们上海这种国际大都市,警察的文化素质就是高啊! 有一次我在交大徐汇校区碰上一个女子操着法国腔的英语问去国际教育学院怎么走,我跟她讲了方向,怕她依然不懂,就带着她走了一段路,最后分手时她千恩万谢,我不咸不淡地说了句: ”you're quite welcome. In fact, 我希望我在巴黎街头问路,能有人同样用英文回答我。 ” 后面这句话纯粹是有感而发,因为我在巴黎问路就吃过苦头,每一次用英语问上去,对方都用我一字不懂的法语叽里哇啦的给我一通回答,让我郁闷不已。你伟大的法兰西民族瞧不上英语咱没法干涉,有本事你在上海也用法语(或者用中文)问路啊? 因为语言上的唯我独尊,法国佬给人的感觉是有些可爱的自大和固执。但同样在这个方面,香港人给我的印象要差一些。在这个中国的特别行政区, 有很多次我热情洋溢地用普通话跟店员交流,她们都(用粤语)说听不懂;然后我用一连串英语跟她们表述时,她们一面似懂非懂地频频点头,一面赶紧去叫经理来救场。时间久了,我还是能够品出些“端倪”来。香港其实并非是一个对中文全然不懂以至在沟通上一窍不通的地方,就有些港人而言,脑子里懂中文并不代表内心接受中文;当然内心崇拜英文也并不代表脑子里都能听得懂。有一次我乘出租车去浸会大学, 上车后用国语告诉司机地址,结果他用粤语告诉我他听不懂。我一字一顿地重说了一遍,他依然坚定地摇头说听不懂!看着车在飞奔,我又用英文重复了一遍,他还是摇头。我暗骂了一句,便闭口不再跟他啰嗦了,当时心里的直觉告诉我这个家伙是听得懂中文的,否则他的车怎么没有减速而是一个劲地往前开呢?果然不一会儿车到浸会大学的门口便停了下来,下车时我破例没给小费,反正跟他说什么都听不懂嘛。 一些美国同事曾问我在间隔十年后回到美国生活,能感受到什么差异?我说,今天的英文跟十年前相比有了很大的不同,当然这些差异都发生在细微的地方。譬如我刚到北卡, 适逢我们研究校区大楼 grand opening ,一位西装革履的议员上台发言,他庄严地说了一句(我们以前会认为非常口语化的)开场白: I am blown away by this building (这大楼把俺给震了) …… 我们平时开会时,主持会议的会先给大家一个 heads up – 它的意思稍稍发生了些变化,其含义已接近 updates 。而很多人在正式场合喜欢用 24/7 来简化 "24 hours, 7 days a week" 这样的表述。这些日常表述方法在以前也不能说没有,但它们似乎已经从家里或者餐厅里走进了办公室和会议室。在九十年代,你只能从小孩嘴里听到这样一个感叹词: cool, 现在我可以在学术大会上对前面演讲者的方法进行评论: This is a really cool method 而不必担心用词太随意了 。当然,英语中新词汇的最大来源还是网络。几年前如果有人要让你 to "friend" them, 你大概不知道是神马意思,今天很多人都明白它是指在 Facebook 或博客上把对方“加为朋友”的意思。现在老外会很自然地把事物的两方面用 Yin and yang (阴阳)来表示,而 networking 已经正式当作人际交往的词汇来使用了。另外,很多老外们喜欢“拽”两句来自中文的词汇,如 guanxi (关系), jiayou (加油), ma-ma-hu-hu (马马虎虎),以显示他们在语言上涉略广泛。我一个月前跟一位美国商人吃早餐,他在跟我说中国维持经济稳定的必要性时,用了一个词 – “ Baoba,” 我硬是想了几秒钟,才猜出他说的是我们 2012 年 GDP 增长要达到“保八”的目标,当然这个词从他嘴里说出来着实让我吃了一惊。 语言是文化的一部分,学习一门语言其实是在涉入一种文化。一方面,要准确地听懂一门语言,我们需要透彻地理解它所负载的文化信息;另一方面,随着文化的发展, 不仅是英文,每一种语言都处于一种动态的变化之中,讲一口好的英语要做到与时俱进。当然, 从英语的变化中,我们也可以管中窥豹,体会西方人的思维模式、社会行为和生活方式的变化。 记得 90 年代我很喜欢去密苏里的一些乡村餐馆吃饭,那儿有些招待年纪很大,见了我一口一个“ honey” ,就像是我外婆那样的慈祥和温馨。现在的情况有些变化,我前不久在夏洛特机场的一家寿司店吃午餐,店里清一色的都是身材高挑、面目清秀的年轻女子当招待,见了我齐声亲热地叫 ”Sweetie”, 我老人家一下子有点 hold 不住,有点诗人描写的那种“心花怒放”的感觉( by the way, 英语大概叫: heart flower angry open )。这种亲昵的称呼一直幸福地伴随着我吃完午餐,尤其在拿到账单时,一声 sweetie 格外音质柔美,在我耳际一直萦绕着,而且有力地主导我把小费数额往高处写 …… 直到后来我听到她们的另一声 sweetie 叫向一个拖着行李步履蹒跚走来的老先生,才如梦方醒,原来这跟当年密苏里外婆叫我 honey 的意思是一样一样滴。 我想在语言和文化上再啰嗦两句。在美国的华人教授很少进入管理层当官的,比较主流的看法是两个障碍:语言问题 – 英文讲得不如老美好;另一个问题是体系内有歧视因素。近几年我跟在美国高校的一些当上了系主任或院长的华人教授们探讨,说到这个“天花板”效应,大家比较一致的看法是:这个“天花板”是存在的,但似乎不是人家加在我们头上的,而是我们自己在心里给安放上去的。简单地说,在我看来,我的这些当了一官半职的华人朋友们英文水平也好不到哪里去,有的甚至很糟糕(土得掉渣的乡音都很明显),工作单位也有清一色白人(比较保守)的地方,但这些在高校当官的华人们带有共性的人文素养是:理解美国高校的管理理念,善于表达自己的观点,尤其重要的是最后一点 – 不卑不亢、用(跟美国同事)平等的心态去交流。 有时候语言的“简“和“繁“常在生活中碰撞出有意思的火花来。我有个博文说到跟诺贝尔奖获得者 Oliver Smithies 夫妇吃饭,那天晚上有个小插曲,晚饭后我们要了甜点 - 法式烤布蕾 Cr è me Br l é e 。桌上少了把吃甜食的小勺子, Oliver 扬手跟招待说: Will you produce me a spoon ?我当时听到他这句话心里也有些诧异,但一想到 Oliver 自小在英国长大,用 produce 大概是“拿来”的一种旧式表达。但,我们面前的这个二十多岁的招待可是像发现新大陆一样地抓住把柄,开始调侃上 Oliver 了。他严肃地说: Sir, I can’t produce the spoon for you! 这个 spoon 是不能够 produce 出来的,你知道,如果我能够现在给你 produce一把汤勺 出来,我就不会在这儿工作了,我理想的单位将是拉斯维加斯的赌场。" 他把八十几岁的老头挖苦了一通后,话锋一转,学着英国腔说道: However, I can fetch you a spoon – if that’s what you want! 我们一起大笑, Oliver 在一个抢白他的小孩子面前露出稀疏的牙齿,全然不以为忤地憨憨地笑个不停。
18927 次阅读|107 个评论
[转载]用R语言做非参数&半参数回归 笔记
friendpine 2012-12-12 18:23
用R语言做非参数半参数回归 笔记 由詹鹏整理,仅供交流和学习 根据南京财经大学统计系孙瑞博副教授的课件修改,在此感谢孙老师的辛勤付出! 教材为:Luke Keele: Semiparametric Regression for the Social Sciences. John Wiley Sons, Ltd. 2008. ------------------------------------------------------------------------- 第一章 introduction: Global versus Local Statistic 一、主要参考书目及说明 1、Hardle(1994). Applied Nonparametic Regresstion. 较早的经典书 2、Hardle etc (2004). Nonparametric and semiparametric models: an introduction. Springer. 结构清晰 3、Li and Racine(2007). Nonparametric econometrics: Theory and Practice. Princeton. 较全面和深入的介绍,偏难 4、Pagan and Ullah (1999). Nonparametric Econometrics. 经典 5、Yatchew(2003). Semiparametric Regression for the Applied Econometrician. 例子不错 6、高铁梅(2009). 计量经济分析方法与建模:EVIEWS应用及实例(第二版). 清华大学出版社. (P127/143) 7、李雪松(2008). 高级计量经济学. 中国社会科学出版社. (P45 ch3) 8、陈强(2010). 高级计量经济学及Stata应用. 高教出版社. (ch23/24) 【其他参看原ppt第一章】 二、内容简介 方法: ——移动平均(moving average) ——核光滑(Kernel smoothing) ——K近邻光滑(K-NN) ——局部多项式回归(Local Polynormal) ——Loesss and Lowess ——样条光滑(Smoothing Spline) ——B-spline ——Friedman Supersmoother 模型: ——非参数密度估计 ——非参数回归模型 ——非参数回归模型 ——时间序列的半参数模型 ——Panel data 的半参数模型 ——Quantile Regression 三、不同的模型形式 1、线性模型linear models 2、Nonlinear in variables 3、Nonlinear in parameters 四、数据转换 Power transformation(对参数方法) In the GLM framework, models are equally prone(倾向于) to some misspecification(不规范) from an incorrect functional form. It would be prudent(谨慎的) to test that the effect of any independent variable of a model does not have a nonlinear effect. If it does have a nonlinear effect, analysts in the social science usually rely on Power Transformations to address nonlinearity. ---------------------------------------------------------------------------- 第二章 Nonparametric Density Estimation 非参数密度估计 一、三种方法 1、直方图 Hiatogram 2、Kernel density estimate 3、K nearest-neighbors estimate 二、Histogram 对直方图的一个数值解释 Suppose x1,…xN – f(x), the density function f(x) is unknown. One can use the following function to estimate f(x) 【与x的距离小于h的所有点的个数】 三、Kernel density estimate Bandwidth: h; Window width: 2h. 1、Kernel function的条件 The kernel function K(.) is a continuous function, symmetric(对称的) around zero, that integrates(积分) to unity and satisfies additional bounded conditions: (1) K() is symmetric around 0 and is continuous; (2) , , ; (3) Either (a) K(z)=0 if |z|=z0 for z0 Or (b) |z|K(z) à0 as ; (4) , where is a constant. 2、主要函数形式 3、置信区间 其中, 4、窗宽的选择 实际应用中, 。其中,s是样本标准差,iqr是样本分位数级差(interquartile range) 四、 K nearest-neighbors estimate 五、R 语言部分 da - read.table("PSID.txt",header=TRUE) lhwage - da$lhwage #*** bandwidth 相等,核函数不同 *** den1 - density (lhwage, bw =0.45, kernel ="epan") den2 - density(lhwage,bw=0.45,kernel="gauss") den3 - density(lhwage,bw=0.45,kernel="biwe") den4 - density(lhwage,bw=0.45,kernel="rect") plot(den4,lty=4,main=" ",xlab="Log Hourly Wage",ylab="Kernel density estimates") lines(den3,lty=3,col = "red") lines(den2,lty=2, col="green") lines(den1,lty=1,col="blue") #*** bandwidth 不相等,核函数也不同 *** den5 - density(lhwage,bw=0.545,kernel="epan") den6 - density(lhwage,bw=0.246,kernel="gauss") den7 - density(lhwage,bw=0.646,kernel="biwe") den8 - density(lhwage,bw=0.214,kernel="rect") plot(den8,lty=4,main=" ",xlab="Log Hourly Wage",ylab="Kernel density estimates") lines(den7,lty=3,col = "red") lines(den6,lty=2, col="green") lines(den5,lty=1,col="blue") ---------------------------------------------------------------------------- 第三章 smoothing and local regression 一、简单光滑估计法 Simple Smoothing 1、Local Averaging 局部均值 按照x排序,将样本分成若干部分(intervals or “bins”);将每部分x对应的y值的均值作为f(x)的估计。 三种不同方法: (1)相同的宽度(equal width bins):uniformly distributed. (2)相同的观察值个数(equal no. of observations bins):k-nearest neighbor. (3)移动平均(moving average) K-NN: 等窗宽: 2、kernel smoothing 核光滑 其中, 二、局部多项式估计 Local Polynomial Regression 1、主要结构 局部多项式估计是核光滑的扩展,也是基于局部加权均值构造。 ——local constant regression ——local linear regression ——lowess (Cleveland, 1979) ——loess (Cleveland, 1988) 【本部分可参考: Takezana(2006). Introduction to Nonparametric Regression.(P185 3.7 and P195 3.9) Chambers and Hastie(1993). Statistical models in S. (P312 ch8)】 2、方法思路 (1)对于每个xi,以该点为中心,按照预定宽度构造一个区间; (2)在每个结点区域内,采用加权最小二乘法(WLS)估计其参数,并用得到的模型估计该结点对应的x值对应y值,作为y|xi的估计值(只要这一个点的估计值); (3)估计下一个点xj; (4)将每个y|xi的估计值连接起来。 【R操作 library(KernSmooth) #函数locpoly() library(locpol) #locpol(); locCteSmootherC() library(locfit) #locfit() #weight funciton: kernel=”tcub”. And “rect”, “trwt”, “tria”, “epan”, “bisq”, “gauss” 】 3、每个方法对应的估计形式 (1)变量个数p=0, local constant regression (kernel smoothing) min (2)变量个数p=1, local linear regression min (3)Lowess (Local Weighted scatterplot smoothing) p=1: min 【还有个加权修正的过程,这里略,详见原书或者PPT】 (4)Loess (Local regression) p=1,2: min 【还有个加权修正的过程,这里略,详见原书或者PPT】 (5)Friedman supersmoother symmetric k-NN , using local linear fit, varying span, which is determined by local CV, not robust to outliers, fast to compute supsmu( ) in R 三、模型选择 需要选择的内容:(1)窗宽the span;(2)多项式的度the degree of polynomial for the local regression models;(3)权重函数the weight functions。 【其他略】 四、 R 语言部分 library(foreign) library(SemiPar) library(mgcv) jacob - read.table("jacob.txt",header=TRUE) ############################################################################### #第一部分,简单的光滑估计 #1、Kernel Density Estimation #Illustration of Kernel Concepts #Defining the Window Width attach(jacob) x0 - sort(perotvote) diffs - abs(perotvote - x0) which.diff - sort(diffs) #Applying the Tricube Weight #...Tricube function tricube - function(z) { ifelse (abs(z) 1, (1 - (abs(z))^3)^3, 0) } #... a - seq(0,1, by=.1) tricube(a) #Figure 2.5 plot(range(perotvote), c(0,1), xlab="Perot Vote (%)", ylab="Tricube Weight", type='n', bty="l") abline(v=c(x0-which.diff, x0+which.diff), lty=2) abline(v=x0) xwts - seq(x0-which.diff, x0+which.diff, len=250) lines(xwts, tricube ((xwts-x0)/which.diff), lty=1, lwd=1) points(x.n, tricube((x.n - x0)/which.diff), cex=1) ########################################################################### #2、Kernel Smoothing ########################################################################### Figure 2.6 par(mfrow=c(3,1)) plot(perotvote, chal.vote, pch=".", cex=1.95, xlab="Perot Vote (%)", ylab="Challenger's Vote Share (%)", main="Bandwidth = 4", bty="l") lines( ksmooth (perotvote, chal.vote, bandwidth ="4")) plot(perotvote, chal.vote, pch=".", cex=.65, xlab="Perot Vote (%)", ylab="Challenger's Vote Share (%)", main="Bandwidth = 8", bty="l") lines(ksmooth(perotvote, chal.vote, kernel="box",bandwidth="8"), lty=1) plot(perotvote, chal.vote, pch=".", cex=.65, xlab="Perot Vote (%)", ylab="Challenger's Vote Share (%)", main="Bandwidth = 12", bty="l") lines(ksmooth(perotvote, chal.vote, bandwidth="12"), lty=1) #******* Kernel smoothing中选取box和normal核函数的比较,带宽相等 plot(perotvote, chal.vote, pch=".", cex=.65, xlab="Perot Vote (%)", ylab="Challenger's Vote Share (%)", main="Bandwidth = 8", bty="l") lines(ksmooth(perotvote, chal.vote, kernel ="box",bandwidth="8"), lty=1) lines(ksmooth(perotvote, chal.vote, kernel ="normal",bandwidth="8"), lty=2,col="red") ################################################################################## #第二部分,LPR模型 #Data Prep For Local Average Regression Step-by-Step cong - as.data.frame(jacob ) cong - cong y - as.matrix(cong$chal.vote) x - as.matrix(cong$perotvote) n - length(y) #... tricube - function(z) { ifelse (abs(z) 1, (1 - (abs(z))^3)^3, 0) } #... x0 - x diffs - abs(x - x0) which.diff - sort(diffs) x.n - x y.n - y weigh=tricube((x.n-x0)/which.diff) mod - lm(y.n ~ x.n, weights=weigh) #Figure 2.7 plot(x, y, type="n", cex=.65, xlab="Perot Vote (%)", ylab="Challenger's Vote Share (%)", bty="l") abline(v=c(x0 - which.diff, x0 + which.diff), lty = 2) abline(v=x0) points(x , y , pch=16, cex=1, col=gray(.80)) points(x , y , cex=.85) abline(mod, lwd=2, col=1) text(27.5, 50, expression (paste("Fitted Value of y at ", x ))) #这里expression的用法比较有意思 arrows(25, 47, 15, 37, code =2, length = .10) ################################################################################# #2、Now Putting It Together For Local Regression Demonstration. #OLS Fit for Comparison ols - lm(chal.vote ~ perotvote, data=jacob) #The loess fit model.loess - loess (chal.vote ~ perotvote, data=jacob, span = 0.5) #*** 默认设置 degree=2,family=gauss, tricube加权 *** n - length(chal.vote) x.loess - seq(min(perotvote), max(perotvote), length=n) y.loess - predict (model.loess, data.frame(perotvote=x.loess)) #得到预测值便于比较 #The lowess fit model.lowess - lowess (chal.vote ~ perotvote, data=jacob, f = 0.5) #*** 默认设置 robust linear tricube加权 *** n - length(chal.vote) x.lowess - seq(min(perotvote), max(perotvote), length=n) y.lowess - predict (model.lowess, data.frame(perotvote=x.lowess)) #得到预测值便于比较 #Figure 2.8 plot(perotvote, chal.vote, pch=".", ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)", bty="l") lines(x.loess, y.loess) lines(x.lowess, y.lowess) abline(ols) legend(15,20, c("Loess","Lowess", "OLS") , lty=c(1,2,1), bty="n", cex=.8) ################################################################################# #3、lowess中不同robust的比较 m1.lowess - lowess(perotvote, chal.vote, f = 0.5, iter =0) #*** 没有进行第二步的robust加权估计 *** m2.lowess - lowess(perotvote, chal.vote, f = 0.5) #*** 默认 iter=3,要进行3次robust加权估计 *** m0.loess - loess(chal.vote ~ perotvote, data=jacob, span = 0.5, degree=1, family="symm", iterations=1 ) #** no robust m1.loess - loess(chal.vote ~ perotvote, data=jacob, span = 0.5, degree=1) #*** 没有进行第二步的robust加权估计 *** m2.loess - loess(chal.vote ~ perotvote, data=jacob, span = 0.5, degree=1, family="symm", iterations=3) #*** 进行3次robust加权估计 *** plot(perotvote, chal.vote, pch=".", ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)") lines(m1.lowess) lines(sort(perotvote), m1.loess$fit , lty=3, col="green") lines(sort(perotvote), m0.loess$fit , lty=9,col=18) lines(m2.lowess, lty=2, col="red") lines(sort(perotvote), m2.loess$fit , lty=4, col="blue") ---------------------------------------------------------------------------- 第四章 样条估计 spline 一、基本思想 按照x将样本分成多个区间,对每个区间分别进行估计。不同于核估计,这里不用移动计算,从而减小了计算量。 二、最简单的形式 Linear Spline with k knots: 其中, , 三、其他样条模型 1、p次样条估计 ——二次样条Quadratic Spline (basis functions with k knots) ——三次样条Cubic Spline (with k knots, use quadratic basis functions) ——p-order spline (with k knots) 2、B-splines (with k knots cubic B-spline basis) 其中, 3、Natural Splines 以上估计方法对结点(knots)之间的估计比较准确,但对边界的拟合效果较差。自然样条的思想是,在自变量最小值和最大值处各增加一个结点,用线性模型拟合边界位置的样本点。 4、k的选择和模型比较 采用AIC准则 四、光滑样条 smoothing spline 基于如果目标得到参数估计值 min 五、模型比较的 F 检验 六、R 语言部分 library(foreign) jacob - read.dta("jacob.dta") attach(jacob) ################################################# #第一部分,B样条和natural B 样条 library(splines) #*** P61 Perform Spline Regression **** m.bsp - lm(chal.vote~ bs (perotvote, df=5), data=jacob) #*** 3次B样条公式: df=k+3 (不含常数项) m.nsp - lm(chal.vote~ ns (perotvote, df=5), data=jacob) #*** df=5对应结点为4个;3次natural B样条公式:df=k+1 perot - seq(min(perotvote), max(perotvote), length=312) bsfit - predict (m.bsp, data.frame(perotvote=perot)) nsfit - predict(m.nsp, data.frame(perotvote=perot)) AIC(m.bsp) #计算AIC值 ################################################################ #第二部分,光滑样条估计 plot(perotvote, chal.vote, pch=".", ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)", bty="l", main = "df = 2", cex.main = .95) lines( smooth.spline (perotvote, chal.vote, df =2)) ################################################################## #第三部分,置信区间 library(splines) m.nsp - lm(chal.vote~ns(perotvote, df=4), data=jacob) perot - seq(min(perotvote), max(perotvote), length=312) nsfit - predict(m.nsp, inteval="confidence", se.fit=TRUE , data.frame(perotvote=perot)) #Figure 3.8 plot(perotvote, chal.vote, pch=".", ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)") lines(perot, nsfit$fit) lines(perot, nsfit$fit + 1.96*nsfit$se.fit, lty=2) lines(perot, nsfit$fit - 1.96*nsfit$se.fit, lty=2) #*** 偏移调整的置信区间 #*** Figure 3.9 #*** Overlay Natural cubic B-pline Fit and Confidence Intervals library(mgcv) m.smsp - gam (chal.vote ~ s (perotvote, bs="cr", k=4, fx=TRUE)) plot(m.smsp, rug=FALSE, se=TRUE, ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)", residual=FALSE, shift=33.88) #绘制调整以后的上下界 lines(perot, nsfit$fit + 1.96*nsfit$se.fit, lty=3) lines(perot, nsfit$fit - 1.96*nsfit$se.fit, lty=3) legend(3,47, c("natural cubic B-spline Pointwise Bands", "Bias Adjusted Bands"), lty=c(3, 2), bty="n") ################################################################## #第四部分,模型比较 ols - lm(chal.vote ~ 1) #Use Automated R F-test Function Anova anova(ols, m.nsp) anova(ols, m.smsp) #** 三个不同的函数做smoothing spline,进行比较 plot(x,y, xlab="X", ylab="Y") #方法1 library(SemiPar) fit - spm (y ~ f(x)) lines(fit, se=FALSE, lwd=1,lty=1,col=1) #方法2 library(pspline) lines( sm.spline (x,y, df=31),lty=5,col=5) #方法3 lines( smooth.spline (x,y,df=31),lty=6,col=6) legend(0,-0.8,c("spm","sm.spline","smooth.spline"),lty=c(1,5,6),col=c(1,5,6),cex=0.8,bty="n") ---------------------------------------------------------------------------- 第五章 Automated Smoothing Techniques 自动光滑技术 一、Span by Cross-Validation 其中s指窗宽span。 【CV和GCV在LPR中表现不佳】 二、自动光滑技术 两种方法:1、采用MLE(极大似然估计);2、采用CV选择。 1、MLE方法 得到 。其中, 是随机效应(the random effect)的方差估计, 是随机误差项(the error term)的方差估计 2、最小化CV或GCV 三、R语言部分 setwd("D:/课程/nonparameter regression/2010/ch3") jacob - read.table("jacob.txt",header=TRUE) attach(jacob) ########################################################################### #第一部分,计算GCV并绘图 library(locfit) alpha - seq(0.2,0.8, by=0.05) plot( gcvplot (chal.vote~perotvote, data=jacob, alpha =alpha), type="o") #第二部分,比较MLE方法和robust得到的估计结果 #***** P89 Figure 4.2 ***** plot(perotvote, chal.vote, pch=".", cex=1.75, ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)") fit - locfit (chal.vote~perotvote, data=jacob, alpha=0.2) lines(fit) lines(lowess(perotvote, chal.vote, f = 0.2), lty=2,col=2) # robust lines(lowess(perotvote, chal.vote, f = 0.2,iter=0), lty=3,col=3) # no robust legend(23,16, c("locfit with likelihood","robust lowess","norobust lowess"), lty=1:3,col=1:3,bty="n",cex=0.8) #第三部分,在光滑样条中是哟花姑娘GCV library(pspline) #使用其函数sm.spline() plot(perotvote, chal.vote, pch=".", ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)", main = "cubic smoothing spline With GCV") lines( sm.spline (perotvote, chal.vote, cv=F),lty=2,col=2) #GCV Smoothing Selection lines( smooth.spline (perotvote, chal.vote, cv=F),lty=3,col=3) #第四部分,基于GCV的LS方法和MLE方法比较 library(mgcv) #使用其函数gam() library(SemiPar) #使用其函数spm() smsp1 - gam (chal.vote ~ s (perotvote, bs ="cr")) # 用LS方法估计,GCV smsp2 - spm (chal.vote ~ f (perotvote)) # 光滑样条的混合模型表示,用极大似然方法估计! smsp1 # or summary(smsp1) summary(smsp2) #***** P92 Figure 4.3 ***** par(mfrow=c(1,2)) plot(smsp1, rug=FALSE, se=FALSE, ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)", residual=TRUE, shift=33.88, bty="l", main="GCV Smoothing") points(perotvote, chal.vote, pch=".", cex=1.75) plot(perotvote, chal.vote, pch=".", cex=1.75, ylab="Challengers' Vote Share (%)", xlab= "Vote for Perot (%)", main="Likelihood Smoothing", bty="l") lines(smsp2, se=FALSE, lwd=1, rug=FALSE) ---------------------------------------------------------------------------- 第六章 Additive and Semiparametric Regression Models 可加回归模型和半参数回归模型 R语言部分 jacob - read.table("jacob.txt", header=TRUE) attach(jacob) #第一部分,广义可加模型 library(mgcv) gam1 - gam (chal.vote ~ s(perotvote, bs="cr") + s(checks, bs="cr") , data=jacob) summary(gam1) #画图 par(mfrow = c(1,2)) plot(gam1, select=1 , rug=F , se=TRUE, ylab="Challengers' Vote Share (%)", xlab="Vote for Perot (%)", bty="l", shift=36.6672) points(perotvote, chal.vote, pch=".", cex=1.75) plot(gam1, select=2 , rug=F, se=TRUE, ylab="Challengers' Vote Share (%)", xlab="Number of Overdrafts", bty="l", shift=36.6672) points(checks, chal.vote, pch=".", cex=1.75) #进行检查 gam.check (gam1) ##############--------------------------------------------------------------- #模型比较的卡方检验 #OLS Model ols1 - gam(chal.vote ~ perotvote + checks, data=jacob) #或 ols - lm(chal.vote ~ perotvote + checks, data=jacob) #速度更快 summary(gam1)$n #自由度 或者用sum(gam1$edf) #Chi sqaured test:将线性模型与非参的可加模型进行比较 #deviance计算模型的变异度 LR - summary(gam1)$n*(log( deviance (ols1)) - log(deviance(gam1))) df - sum(gam1$edf) - sum(ols1$edf) 1 - pchisq(LR, df) #第二种比较方法,采用anova anova(ols1, gam1, test="Chisq") ########################################################## #第二部分,半参数模型 library(mgcv) #**** P123 Baseline Model ******** no transformations ****** ols - gam(chal.vote ~ exp.chal + chal.spend + inc.spend + pres.vote + checks + marginal + partisan.redist + perotvote, data=jacob) #******* Test each continuous covariate gam1 - gam(chal.vote ~ exp.chal + s(chal.spend, bs="cr") + inc.spend + pres.vote + checks + marginal + partisan.redist + perotvote, data=jacob) gam2 - gam(chal.vote ~ exp.chal + chal.spend + s(inc.spend, bs="cr") + pres.vote + checks + marginal + partisan.redist + perotvote, data=jacob) gam3 - gam(chal.vote ~ exp.chal + chal.spend + inc.spend + s(pres.vote, bs="cr") + checks + marginal + partisan.redist + perotvote, data=jacob) gam4 - gam(chal.vote ~ exp.chal + chal.spend + inc.spend + pres.vote + s(checks, bs="cr") + marginal + partisan.redist + perotvote, data=jacob) gam5 - gam(chal.vote ~ exp.chal + chal.spend + inc.spend + pres.vote + checks + marginal + partisan.redist + s(perotvote, bs="cr"), data=jacob) anova(ols,gam1,test="Chi") anova(ols,gam2,test="Chi") anova(ols,gam3,test="Chi") anova(ols,gam4,test="Chi") anova(ols,gam5,test="Chi") ---------------------------------------------------------------------------- 第七章 Generalized Additive Models 广义可加模型 一、广义线性模型 GLM probit model: ; logit model: ; possion regression: 二、广义可加模型 或 三、估计方法 MLE: use Newton-Raphson algorithm IRLS: backfitting algorithm (in ch5) 四、假设检验 LR=-2(LogLikelihood0 – LogLikelihood1) 【这是两个模型进行比较】 五、 R 语言部分 setwd() library(foreign) war - read.dta("PHdata.dta") attach(war) #第一部分,用广义可加模型做Logit回归【与glm的用法区别】 library(mgcv) war.glm - gam (dispute ~ nudem + nugrow + allies + contig + nucapab + trade + sumdisp + s(year, bs="cr"), data = war, family=binomial ) summary(war.glm) #进行预测 war.smooth7 - gam(dispute ~ s(nudem, bs="cr") + nugrow + allies + contig + nucapab + trade + sumdisp + s(year, bs="cr"), data = war, family=binomial) summary(war.smooth7) new - data.frame(nudem=nudem, nugrow=nugrow, allies=allies, contig=contig, nucapab=nucapab, trade=trade, sumdisp=sumdisp, year=year) sa - predict (war.smooth7, newdata=new) #*** eta(i) = XB+f(X) ui - plogis (sa) #*** plogis为logistic分布的分布函数,计算概率 summary(ui) summary(war.smooth7$fit) sa2 - predict(war.smooth7, newdata=new,type="terms") #*** 可以得到模型的每一项(terms)的预测值 sa2 #*** f(nudem) 那一列 ##################################################################### #第二部分,用广义可加模型做多分类logit模型(顺序) library(foreign) couples - read.dta("D:/课程/nonparameter regression/2010/Rprog/Chapter 6/couples.dta") attach(couples) library(VGAM) gam1 - vgam(violence ~ chabting + minority + s(fagunion) + s(misolatn) + s(ecndisad) + alcdrug + s(duryrs) + s(econ_alc) + s(disagmnt) + s(comstyle), cumulative(parallel=T), data=couples) summary(gam1) par(mfrow=c(3,3)) plot(gam1,which.term=3, se=TRUE, rug=FALSE, bty="l") plot(gam1,which.term=4, se=TRUE, rug=FALSE, bty="l") plot(gam1,which.term=5, se=TRUE, rug=FALSE, bty="l") plot(gam1,which.term=7, se=TRUE, rug=FALSE, bty="l") plot(gam1,which.term=8, se=TRUE, rug=FALSE, bty="l") plot(gam1,which.term=9, se=TRUE, rug=FALSE, bty="l") plot(gam1,which.term=10, se=TRUE, rug=FALSE, bty="l") 【关于预测方法的说明没有看明白】 ##################################################################### #第三部分,用广义可加模型做possion模型 library(foreign) Scourt - read.dta("scourt.dta") attach(Scourt) library(mgcv) m1 - gam(nulls ~ tenure + congress + unified, data=Scourt, family=poisson ) summary(m1) m2 - gam(nulls ~ tenure + s(congress, bs="cr") + unified, data=Scourt, family=poisson ) summary(m2) anova(m1, m2, test="Chisq") #进行预测 predict.data - data.frame(expand.grid(list(congress=seq(1, 101, by=1), tenure = 10.35, unified = 0))) #Created Fitted Values Using Fake Data 方法1 predict.fit - predict (m2, newdata = predict.data, se.fit=TRUE) #Created Fitted Values Using Fake Data 方法2 predict.fit1 - predict.gam (m1, newdata = predict.data, se.fit=TRUE ) predict.fit2 - predict.gam (m2, newdata = predict.data, se.fit=TRUE ) #********************** Negative Binomial regression ********************** library(MASS) m4 - gam(nulls~ tenure + s(congress, bs="cr",fx=TRUE, k=10) + unified, data=Scourt, family=negative.binomial(1) , control = gam.control(maxit = 150)) anova(m2, m4, test="Chisq") ##################################################################### #第四部分,cox proportional hazards regression model【本部分的理论没有弄懂】 library(foreign) riot - read.dta("repriot.dta") library(survival) m1 - coxph (Surv(newend, cens) ~ lognwun + manuwage + unemrate + percfor + x15 + sumpi + lstwkall + lwka2 + d6768 + pasthist, data=riot) summary(m1) zph.m1 - cox.zph (m1) m.base - coxph(Surv(newend, cens) ~ pspline (nonwhtunemp, df=4) + pspline(manuwage, df=4) + pspline(unemrate, df=4) + pspline(percfor, df=4) + pspline(x15, df=4) + pspline(sumpi, df=4) + pspline(lstwkall, df=4) + d6768 + pasthist, data=riot) summary(m.base) #Test Nonproportional Hazards zph.m.base - cox.zph(m.base) zph.m.base termplot (m.base, term=2, se=TRUE, rug=TRUE, ylab="Log Hazard", xlab="Manufacturing Wage") #Fit Parsimonious Model m.trim - coxph(Surv(newend, cens) ~ pspline(nonwhtunemp, df=4) + pspline(manuwage, df=4) + unemrate + percfor + pspline(x15, df=4) + pspline(sumpi, df=4) + pspline(lstwkall, df=4) + d6768 + pasthist, data=riot) #Test Nonproportional Hazards zph.m.trim - cox.zph(m.trim) zph.m.trim summary(m.trim) #Plot The Effects par(mfrow=c(2,3)) termplot(m.trim, term = 1, se = TRUE, ylab = "Log Hazard", rug=TRUE, xlab = "Non-White Unemployment") termplot(m.trim, term = 2, se = TRUE, ylab = "Log Hazard", rug=TRUE, xlab = "Manufacturing Wage") termplot(m.trim, term = 5, se = TRUE, ylab = "Log Hazard", rug=TRUE, xlab = "Non-White Unemployment x Percent Foreign Born") termplot(m.trim, term = 6, se = TRUE, ylab = "Log Hazard", rug=TRUE, xlab = "Spatial Diffusion") termplot(m.trim, term = 7, se = TRUE, ylab = "Log Hazard", rug=TRUE, xlab = "National Level Diffusion") #Figure 6.8 par(mfrow =c(1,2)) termplot(m.trim, term = 2, se = TRUE, ylab = "Log Hazard", rug=FALSE, xlab = "Manufacturing Wage", bty="l") termplot(m.trim, term = 1, se = TRUE, ylab = "Log Hazard", rug=FALSE, xlab = "Non-White Unemployment", bty="l") anova(m.trim, m.base, test="Chisq")
个人分类: 统计学与R语言学习|1 次阅读|0 个评论
在Virtuoso中使用Sparql
tiangang 2012-12-9 18:14
适合初学者的简单介绍。 如果你是一个sparql语言的初学者,那么可以详细的看下我的这些说明,相信会有帮助的。 1、要使用sparql语言,那么有运行它的环境,比如virtuoso数据库。 2、大体知道owl文件的结构和含义,特别是前缀。 3、假设有个owl文件它的前缀为: rdf:RDF xmlns:swrlb=" http://www.w3.org/2003/11/swrlb #" xmlns:swrl=" http://www.w3.org/2003/11/swrl #" xmlns:rdf=" http://www.w3.org/1999/02/22-rdf-syntax-ns #" xmlns:xsd=" http://www.w3.org/2001/XMLSchema #" xmlns:rdfs=" http://www.w3.org/2000/01/rdf-schema #" xmlns:owl=" http://www.w3.org/2002/07/owl #" xmlns:daml=" http://www.daml.org/2001/03/daml+oil #" xmlns=" http://www.owl-ontologies.com/Ontology1189049381.owl #" xmlns:dc=" http://purl.org/dc/elements/1.1/ " xml:base=" http://www.owl-ontologies.com/Ontology1189049381.owl " 4、在将这个owl文件导入的virtuoso数据库之后,rdf_quad的表会把相关的记录拆分,并附加上这些前缀。例如谓词subClassOf,在数据库中存放的是 http://www.w3.org/2000/01/rdf-schema#subClassOf ,所以当你知道这些以后,后面就容易了。 5、 sparql PREFIX base: http://www.owl-ontologies.com/Ontology1189049381.owl # PREFIX rdfs: http://www.w3.org/2000/01/rdf-schema # select distinct ?o from http://www.biopax.org/prototype#sample where { ?o rdfs:subClassOf base:Bridge } --上面的prefix就是owl文件的前缀里摘下来的。from是导入owl文件的时候命名的图名称。 where后面查询的是所有Bridge的子类。
个人分类: sparql|4304 次阅读|0 个评论
莫言为什么语言好?
zw373737 2012-12-7 10:06
读莫言文集之《生死疲劳》,感受莫言文字的魅力。 先让我从猪场的墙说起。猪场的墙,新刷了石灰,据说石灰可以消毒。白色的墙上,写满了红色的大字标语。标语内容与养猪有关,与世界革命有关。写标语的人,除了西门金龙还能是谁?在我们西门屯,最有才华的两个青年人,一个是西门金龙,另一个就是莫言。洪泰岳的评价是:金龙是堂堂正正之才, 莫言是歪门邪道之才 。莫言比金龙小七岁。金龙大出风头的时候,莫言犹如一只肥大的竹笋在地下积蓄力量。那时候没有人把这小子当成一回事。他相貌奇丑,行为古怪,经常说一些让人摸不着头脑的鬼话,是个千人厌、万人嫌的角色。连他自家的人也认为这孩子是个傻瓜。他的姐姐曾经指点着他的脸质问母亲:娘啊娘,他真是你生出来的吗?是不是我爹早起捡粪时从桑树棵子后边捡来的弃婴?莫言的哥哥姐姐都是身材挺拔、面容清秀的青年,其质量绝不亚于金龙、宝凤、互助、合作。母亲叹着气说:生他的时候,你爹梦见一个拖着大笔的小鬼,进了我家的厅堂,问他来自何处,他说来自阴曹地府,曾给阎王老子当过书记员。你爹正纳闷着,就听到内室传出响亮的婴啼,接生奶奶出来报告:掌柜的大喜,贵府太太生了一个公子。这些话,我估计大半是莫言的妈妈为了改善莫言在村子里的地位而编造,类似的故事,在中国的民间演义中比比皆是。现在你去我们西门屯——现在的西门屯已经变成了凤凰城的经济开发新区,昔日的良田里矗立着一座座不中不西的建筑物——莫言是阎王爷的书记员投胎转世的说法大行其盛——上世纪七十年代是西门金龙的时代,莫言要露出头角还得等待十年。现在,我的眼前出现了为筹备养猪大会西门金龙拿着刷子往白墙上涂抹标语的情景。金龙戴着蓝色的套袖白色的手套,黄家的互助为他提着红漆桶,黄家的合作为他提着黄漆桶。空气中弥漫着浓重的油漆气味。屯子里的标语从来都是用广告粉书写,这次使用油漆,是因为县里拨来了充足的会议经费。金龙写字时十分有派,大刷子蘸红漆写出字的主题,小刷子蘸黄漆勾出字的金边。红字金边,格外夺目,犹如当今美女粉面上的红唇蓝眼。许多人都围在后边看金龙写字,赞美声不绝于耳。与吴秋香是好朋友、比吴秋香还风骚的马六老婆娇滴滴地说: “金龙大兄弟啊,嫂子要是年轻二十岁,拼了命也要当你的老婆,当不了大老婆也要当小老婆!” 有人在旁边插嘴说:“当小老婆也轮不到你!”
个人分类: 政治|1682 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-5 02:57

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部