目前,我国在建核电机组装机容量居世界首位。核电安全问题一直是国际关注的重大问题。为确保核电建设、使用过程中的安全,提高核电站紧急救灾能力,核电救灾装备研发具有迫切需求。开发核电站紧急救灾机器人已成为核电救灾领域的发展前沿,但由于救灾机器人设计面临着重载操作与狭小空间内灵巧运动的行为冲突、多自由度冗余驱动导致的机构和结构过约束冲突两大挑战,已成为世界性难题。 上海交通大学高峰教授主持的973计划项目“核电站紧急救灾机器人的基础科学问题”,根据核救灾机器人“功能-构型-结构”创新设计要求,建立了3类26种G F 过约束子集,筛选出了3类9种实用步行机器人G F 子集,形成了核电救灾机器人整机构型设计方法。在此基础上,提出了机液耦合原理,形成了电机-液压复合驱动技术,发明了抗污染能力强、功率密度高的新型电机-液压复合驱动器,共创新研发出消防救援、灵巧操作、重载装运、灵巧探测等功能的8款核电救灾机器人。 该项目使我国掌握了核心技术,实现了核电站紧急救灾机器人设计能力的突破,为我国具有自主知识产权的核电救灾装备研发提供了科学工具。 文献来源:http://www.most.gov.cn/gnwkjdt/201803/t20180330_138861.htm
微信最近疯传人工智能新进展: 谷歌翻译实现重大突破 !值得关注和庆贺。mt 几乎无限量的自然带标数据在新技术下,似乎开始发力。报道说: 十年前,我们发布了 Google Translate(谷歌翻译),这项服务背后的核心算法是基于短语的机器翻译(PBMT:Phrase-Based Machine Translation)。 自那时起,机器智能的快速发展已经给我们的语音识别和图像识别能力带来了巨大的提升,但改进机器翻译仍然是一个高难度的目标。 今天,我们宣布发布谷歌神经机器翻译(GNMT:Google Neural Machine Translation)系统,该系统使用了当前最先进的训练技术,能够实现到目前为止机器翻译质量的最大提升。我们的全部研究结果详情请参阅我们的论文《Google`s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation》。 几年前,我们开始使用循环神经网络(RNN:Recurrent Neural Networks)来直接学习一个输入序列(如一种语言的一个句子)到一个输出序列(另一种语言的同一个句子)的映射。其中基于短语的机器学习(PBMT)将输入句子分解成词和短语,然后在很大程度上对它们进行独立的翻译, 而神经机器翻译(NMT)则将输入的整个句子视作翻译的基本单元。 这种方法的优点是:相比于之前的基于短语的翻译系统,这种方法所需的工程设计更少。当其首次被提出时,NMT 在中等规模的公共基准数据集上的准确度,就达到了可与基于短语的翻译系统媲美的程度。 自那以后,研究者已经提出了很多改进 NMT 的技术,其中包括模拟外部对准模型(external alignment model)来处理罕见词,使用注意(attention)来对准输入词和输出词 ,以及将词分解成更小的单元应对罕见词。尽管有这些进步,但 NMT 的速度和准确度还没能达到成为 Google Translate 这样的生产系统的要求。 我们的新论文描述了怎样克服让 NMT 在非常大型的数据集上工作的许多挑战、如何打造一个在速度和准确度上都足够能为谷歌 用户和服务带来更好的翻译体验的系统。 来自对比评估的数据,其中人类评估者对给定源句子的翻译质量进行比较评分。得分范围是 0 到 6,其中 0 表示「完全没有意义的翻译」,6 表示「完美的翻译」。 ............ 使用人类评估的并排比较作为一项标准,GNMT 系统得出的翻译相比于之前基于短语的生产系统有了极大提升。 在双语人类评估者的帮助下,我们在来自维基百科和新闻网站的样本句子上测定发现:GNMT 在多个主要语言对的翻译中将翻译误差降低了 55%-85% 甚至更多。 今天除了发布这份研究论文之外,我们还宣布将 GNMT 投入到了一个非常困难的语言(汉语-英语)的翻译的生产中。 现在,移动版和网页版的 Google Translate 的汉英翻译已经在 100% 使用 GNMT 机器翻译了——每天大约 1800 万条翻译。GNMT 的生产部署是使用我们公开开放的机器学习工具套件 TensorFlow 和我们的张量处理单元(TPU:Tensor Processing Units),它们为部署这些强大的 GNMT 模型提供了足够的计算算力,同时也满足了 Google Translate 产品的严格的延迟要求。 汉语到英语的翻译是 Google Translate 所支持的超过 10000 种语言对中的一种,在未来几个月,我们还将继续将我们的 GNMT 扩展到远远更多的语言对上。 from 谷歌翻译实现重大突破 ! 作为老机译,不能不被吸引。准备小试一下这最新版的谷歌神经翻译。 此前试过谷歌在线翻译,总体不如百度,可现如今说汉语mt已经很神经了:深度神经,接近人类。我有几百篇待译 正好一试,先试为快。期待谷歌的神译。 董: @wei 但愿不致让你失望。我曾半开玩笑地说:规则机译是傻子,统计机译是疯子,现在我继续调侃:神经机译是“骗子”(我绝不是指研发者)。语言可不是猫脸或马克杯之类的,仅仅表面像不行,内容也要像! 我:现在是见证奇迹的时刻: Wei’s Introduction to NLP Architecture Translated by Google The automatic speech generation of this science blog of mine is attached here, it is amazingly clear and understandable. If you are an NLP student, you can listen to it as a lecture note from a seasoned NLPer (definitely clearer than if I were giving this lecture myself with my strong accent). More amazingly, the original blog was in Chinese and I used the newest Google Translate claimed to be based on deep learning using sentence-based translation as well as character-based techniques. My original blog in Chinese is here, you can compare:【 立委科普:自然语言系统架构简说 】。 董老师,您是知道我的背景和怀疑的。但是,面对这样的进步,这种远远超出我们当初入行的时候可以想象的极限的自动翻译质量和鲁棒性,我们不得不,不得不,不得不叹服。 董: 用他们的术语叫“less adequate,but more fluent”。机译已经历了三次paradigm shift,当人们发现无论如何它只能是一种很好的信息处理工具,而无法取代人类翻译时,那就选取代价较少的。 我: 无论如何,这个小小的测试让我这个老机译有点瞠目结舌。还没有从这种冲击回过味来。当然,赶巧我测试的是正规文体,谈的又是电脑和NLP话题,肯定在语料库的涵盖范围内,撞上枪眼了。可比起此前我使用的前神经时代的谷歌SMT和百度SMT,这个飞跃式突破还是让人惊异的。向我们的神经同行致敬。这是一批绝顶聪明的疯子。 毛老,这是我对谷歌最近的 claim 的一个反馈。上次 对他们的 parser 嘲笑了一通 ,这次对他们用同样技术带来的MT的突破,表达一下深深的敬佩。这种 contrast 不是我神经了,或分裂了,而是在 parsing,他们苦于没有自然带标数据,巧妇难为无米之炊,因此无法跟符号逻辑派比试。可是 MT 不同,几乎有无穷无尽的自然带标数据(人的翻译从来没有终止过,留下的对照译文浩如烟海)。 毛: @wei 这就是说,你服了基于神经元的MT,改变了自己的见解和主张? 我: 我服了,但没真地改变。 毛: 怎么说? 我: 无论多少门户之见,基本事实总应该看清吧。听一下上面列出的他们的 SMT 翻译,其流利程度和对我原文的忠实程度,已经超过了一个普通的人做翻译。因为一个口译如果不懂我这一行,我如果拿着这个讲稿讲课,让这样的 average interpreter 做现场翻译,他是比不过机器的,无论信还是达。(翻译高手不论。)这一点不得不服。另一方面,我以前说的,神经再深度,我看不出它在今后几年内可以赶上我的深度 parser,这一点还没改变。尤其是应对不同 domains 和 genres 的能力,他们不可能做到。因为在自然世界里面,没有带标的句法树,有的只是线性句子。而迄今看到的突破都是有监督的深度学习(supervised learning),离开海量带标数据(labeled data)就抓瞎了。 毛: 我被你弄糊涂了。你究竟是说哪一派强哪?@wei 究竟谁是世界第0? 我: parsing 我是第0,谷歌赶不上。MT 谷歌有重大突破,估计符号逻辑派的 MT 的日子不好过。 毛: 我问的是,MT谁是第0,不管用什么方法。 我: 这不是说,MT 规则系统就没有活路了,但是总体而言,SMT(statistical MT)占据上风的 trends 还在增强。 云: THKS. 我来试试能不能翻译我写的公司白皮书? 我: 你要是加一点译后人工编辑的话,我估计会很好的。再不要傻傻地从头请人工做翻译了。翻译公司如果不使用 MT 做底,将会被淘汰,成本上看很难存活。 董: 学习上,初二是一个分水岭,学科数量明显增多,学习方法也有所改变,一些学生能及时调整适应变化,进步很快,由成绩中等上升为优秀。但也有一部分学生存在畏难情绪,将心思用在学习之外,成绩迅速下降,对学习失去兴趣,自暴自弃,从此一蹶不振,这样的同学到了初三往往很难有所突破,中考的失利难以避免。 Learning, the second is a watershed, the number of subjects increased significantly, learning methods have also changed, some students can adjust to adapt to changes in progress, progress quickly, from the middle to rise to outstanding. But there are some students there is fear of hard feelings, the mind used in the study, the rapid decline in performance, loss of interest in learning, self-abandonment, since the devastated, so the students often difficult to break through the third day, 毛: 这翻译没什么好呀? 我: 要的就是这句话 :) @毛,需要一个对比,才能回答你的问题。 毛: 那就拿你的出来比比? 我: 我早就不做 MT 了,我是逃兵。近20年前,我就转移到信息抽取 IE(以及sentiment)挖掘了,这方面我有底气,不怕比。 刘:转: 谷歌新版翻译有多神?英文教授亲证后告诉你... 我: thanks 似乎评论得比较中肯。对于口语现在肯定还不行,它的训练集一直对口语 cover 的很不够。以前测过,有些常用的简单的口语表达也弄错。不知这次这方面加强多少。 董老师上面给的那段谷歌翻译的段落,毛老说翻译不咋样。不过我做过MT多年,知道达到这一步其实是有很大进步的。以前的汉译英的不可读,到现在读起来大体能听得懂。这里面有很多的进步值得留意。 刘: @wei 转一个: 话说大数据干的一些事属于人工智能操练(不能用“研究”这词了)的范畴吗,那本来不就是传统计算机系的人干的?动不动嘲笑每开掉一个语言学家就往前多走几步这眼界太浅了 马: 在数据充足的领域,这几年DL方法都突飞猛进,我认识的好几个以前对DL有偏见的都多少改变了看法。在IR领域DL还基本不见功效,但也在慢慢渗透中。 毛: 不认同“传统计算机系”这个话。计算机系应该跟着实践走,而不是反过来。 董: NMT的关键是个“像”。于是出了一个有时不懂原文的人以为翻的很顺溜。没了信的翻译,不就成骗子了吗?如何知道自己的翻译是满拧了?这也是NMT的死穴。 马: 董老师,我觉得统计方法都有这个死穴 我: 寸有所长尺有所短,这也不奇怪。我今天自己听这个对我的blog的翻译已经三篇了,一步一叹。NND 咋这么溜呢。找碴子 找翻译错 总是有的。可是人也有译错啊。从可懂度和流畅程度看,我反正是服了。而这发生在没有亲属关系的两个语言之间。 董: 想当年有的领导干部对我说,“其实机器翻译只有百分之50的正确性,也不要紧,问题是你能不能把那个一半告诉我,我可以找人专翻那部分。”我回答说我做不到。从那时起我一直在关注这个问题。直到如今很多人在叫嚷要取代人工翻译了。这真有点像有了麦当劳就说不要法式大餐了一样。何况机译还做不到麦当劳。计算机、以致机译是上帝给人类玩的,上帝没有给人类那种可以复制自己的本领。 洪: 我的观点很简单: 影子不能三维变。 人若二维非压扁, 自叹弗如影子前。 人工智能影子般, 随人活动数据攒。 深度学习模型建, 类似皮影戏好玩。 董: 是的。我曾对照过10多本英国名著,曾经发现有一本译著明显的是译者故意大段大段地漏译的,那里面有太多的花草等,估计大师懒得查。就不译了。 为什么GNMT首先选择的语言对是汉英,而不是英汉?这是非常精明的。人工翻译即使错了或漏了,译文通常会是顺溜的,至少绝不会像传统的机译那样有傻又疯的,诘屈聱牙的,而这正是NMT的特点,它挑选的是译文中最大相似的。那样一来广大的英语读者,多数不懂中文,就容易被它“唬住”了。 我: 对。仔细看来,这次“突破”是达有余而信不足,矫枉过正了。 但一切才刚开始。我可以理解做NMT的人面对突破的欣喜心情。 洪: 伟爷久玩nlp, 一直孤傲头不低。 今朝服膺叹奇迹, 深度神经已皈依! 我: 皈依还不至于,也不够格。赞佩是由衷的,希望今后有合作的机会,取长补短,达成共赢。人家要是看不上咱呢,咱就单干。deep parsing 是 NLP 的皇冠。神经 parsing 何时全方位超过在下,咱就退休。现在仍然觉得,照这个标准,估计这辈子也退休不了。但愿自己错了,可以提早周游世界。 【相关】 Wei’s Introduction to NLP Architecture 谷歌翻译实现重大突破 谷歌新版翻译有多神?英文教授亲证后告诉你... 【 立委科普: NLP 联络图 】(姐妹篇) 【立委科普:自然语言系统架构简说】 【 立委科普:NLP 联络图 】 OVERVIEW OF NATURAL LANGUAGE PROCESSING 《新智元笔记:【Google 年度顶级论文】有感》 【语义计算沙龙:巨头谷歌昨天称句法分析极难,但他们最强】 It is untrue that Google SyntaxNet is the world’s most accurate parser Announcing SyntaxNet: The World’s Most Accurate Parser Goes Open Is Google SyntaxNet Really the World’s Most Accurate Parser? 机器翻译 【置顶:立委NLP博文一览】
有人说地球生物圈每年生产生物质1500亿吨,这足够人类社会所有的能源和材料需求。 有人说自然生长的生物质有20-40是木质素。 造纸是最大的生物质利用和分离过程,纤维素成为纸张,半纤维素和木质素进入黑液。 在漫长的工业化年代,造纸黑液是最大的水体环境污染源。 近几十年来,造纸黑液被限制排放,要求分离和利用其中的有机物,这些有机物被分离以后成为碱木质素。 碱木质素被用于烧锅炉回收热量和碱。 我们把碱木质素拆解成了6-10个碳的小分子。 有人说,这是一个世界难题。 我认为,这是一个工业催化工程师的设计作品。 Angewandte Communications Biomass Conversion DOI : 10.1002/anie.201402752 Catalytic Ethanolysis of Kraft Lignin into High-Value Small-Molecular Chemicals over a Nanostructured a-Molybdenum Carbide Catalyst * Rui Ma, Wenyue Hao, Xiaolei Ma, Ye Tian, and Yongdan Li* Abstract: We report the complete ethanolysis of Kraft lignin over an a-MoC1x/AC catalyst in pure ethanol at 280 o C to give high-value chemicals of low molecular weight with a maximum overall yield of the 25 most abundant liquid products (LP25) of 1.64 g per gram of lignin. The LP25 products consisted of C6–C10 esters, alcohols, arenes, phenols, and benzyl alcohols with an overall heating value of 36.5 MJ/kg. C6 alcohols and C8 esters predominated and accounted for 82 wt% of the LP25 products. No oligomers or char were formed in the process. With our catalyst, ethanol is the only effective solvent for the reaction. Supercritical ethanol on its own degrades Kraft lignin into a mixture of small molecules and molecular fragments of intermediate size with molecular weights in the range 700–1400, differing in steps of 58 units, which is the weight of the branched-chain linkage C3H6O in lignin. Hydrogen was found to have a negative effect on the formation of the low-molecularweight products. Angew. Chem. Int. Ed. 2014, 53, 7310 –7315
昨天听传达精神,有段话没听清,从网上找来了,也向没听过的同学传达一下: 当前世界政治经济格局面临重大变革与调整,科技创新孕育重大突破,中科院面临前所未有的机遇和挑战,必须切实增强危机意识、忧患意识,居安思危,进一步增强发展的紧迫感,牢记定位与使命,坚定信心,加快改革创新的步伐,以体制机制的新突破,实现自主创新与人才培养引进的“双提升”,为创新驱动发展提供有力的科技支撑,在建设创新型国家的历史进程中发挥好科技“火车头”的作用。 惭愧,我没看懂(当然都怨我平常不注意学习),有几点疑问: 1 )世界政治格局要怎么调整了? 2 )“创新”孕育“突破”,是什么逻辑? 3 )什么叫“体制机制的新突破”? 4 )什么叫“人才培养引进”? 5 )“双提升”怎么量? 6 )“创新驱动发展”的“科技支撑”本身有没有“创新孕育的突破”? 7 )什么叫创新型国家?哪些是守旧或复古的国家呢? 8 )“科学”在哪儿呢? 写《 1984 》的 George Orwell 曾写过一篇 Politics and the English Language ,说 this mixture of vagueness and sheer in competence 是现代英语、特别是“ political writing ”的显著特征。 As son as certain topics are raised, the concrete melts into abstract and no one seems able to think of turns of speech that are not hackneyed: prose consists less and less of words chosen for the sake of their meaning, and more and more of phrases tacked together like the sections of prefabricated henhouse . 写文章越来越像搭鸡窝架子了——老 G 的话真逗。虽然科学的影子有点儿模糊,但有些科学家似乎已经为中国特色的政治语言孕育了重大突破。
http://www.ebiotrade.com/newsf/ · 南京大学最新Nature Medicine文章 new · Nature重要成果:解析人类“第二基因组” new · Nature突破:癌症全基因组测序成果(免费) new · 新晋院士Science子刊癌症治疗新靶标 new · 癌基因组测序证实Nature前文结论 new · 上海交大Cell Res揭示干细胞表面新标记物 new · Nature:空前分辨率观测神经细胞活动 new · 巧思妙想突破抗体纯化壁垒 new · PNAS:雌性性成熟推迟与寿命延长有关 new · 这是一个陷阱!新技术捕获miRNA靶标 new · 管敏鑫教授参与发表Cell,Hum Mutat文章 new · 管坤良发表Cell子刊点评文章 new · 沈炳辉实验室发Nature子刊文章 new · 中山大学《柳叶刀》杂志最新文章 new · 诺奖得主Cell特写文章:miRNA新角色 new
http://www.ebiotrade.com/newsf/ · 曹雪涛院士组最新JBC文章 new · 中科院Nature子刊miRNA研究新成果 new · 三篇Nature文章:从头到脚重大突破 new · Nature:大型乳腺癌分子图谱 new · 武汉大学PLoS ONE揭示结肠癌抑制因子 new · 夏桂先研究新成果登植物学权威期刊 new · Nature reviews:癌症抗体的临床治疗 new · 华中科大生科院最新Nature子刊文章 new · Cell:解析细胞的防御系统 new · 第三代测序技术找到治癌耐药性罕见突变 new · 新型脑癌疫苗临床试验传捷报 new · PNAS:中药甘草根中发现抗糖尿病物质 new · Cell Stem Cell十大热点文章 new · Nature子刊:解析染色质移动机制 new · Nature:白血病的致命伤 new
Repeated growth and bubbling transfer of graphene with millimetre-size single-crystal grains using platinum http://paper.sciencenet.cn/htmlpaper/2012311128794322735.shtm
今天是个好日子 – 立委研发笔记之二 作者:立委 今天是个好日子。 今天真是个好日子。 什么日子呢?这么说吧,就好比陈景润证出1+1=2的那天,算不算个好日子。 写完上面几句话,兴奋了一天,终于轰然到下,难得地一觉睡到自然醒。所以,确切地说,标题应该是:昨天是个好日子。 我们搞研发的工匠,一辈子辛勤劳作,大多是蚂蚁啃骨头,所做很平凡,看上去也很枯燥。积累的是资源,操作的是实验。在这些漫长的routine工作中,偶然会有征服世界的幻觉,昨天就是这样一个时刻。 如果我说我灵机一动,解决了一个世界难题,一个世纪难题,那肯定是狂人痴语。可是,该怎么说这件事呢?有一个研发课题,有巨大的商业应用价值,很多人想都不敢想,有些人想了,尝试了,根本找不着北,我昨天灵机一动,解决了这个课题。这样的说法可以接受么?当然,这仍然是狂人痴语,可是我找不到更客观谦逊的说辞了。因特大网,吹牛不用上税。没有权威杂志发表,没有带来巨大财富的专利证明,一切就当笑话看好了。 具体细节不能讲,专利也好,商业秘密也好,一切在未定之中。但可以假语村言,与老友分享一下工匠的喜和乐。 故事是这样的。产品副总几个月前找到我,说,我们是做商业情报的,商业情报的重中之重是客户心理,我们的技术可以挖掘客户心理么? 我说 no, I cannot read people’s mind. I am only a linguist. 他说,明白,我们不是算命先生,指的当然是用语言形式表达出来的客户心理情报。 我说 yes, as long as it is expressed in language, we can have a try. 我的要求很简单,给我语言数据样本,说什么样的语言表达,需要从中提取的是什么样的情报。我就可以大体知道我们可以不可以挖掘出来,能挖掘到什么程度。这种判断力我是有自信的。一般来说,只要有关的语言表达法有迹可循,用我们多年积累的工艺(“科学技术”?),总是可以很准确地挖掘出一点情报来的,瓶颈在覆盖面(recall): 难的挖掘课题覆盖面太小,无法应用。大体说吧,至少得有50%的覆盖面才有应用价值。 于是,数据样本来了。立委的判断也出来了,拍了胸脯:可以做。然后就是带领团队蚕吃桑叶一样农村包围城市,步步为营,覆盖了样本。看上去很美,感觉也不错,样本输入黑匣子,指望的情报就挖掘出来。我很高兴。产品副总也很高兴。我们眼看要做成一个没有人能做的伟业。 一周前,我做了个试验,找到一个足够大的具有代表性的真实语言样本(real life language corpus),让黑匣子夜里去挖掘,看看挖掘出什么名堂。第二天早上一看,傻眼了,挖掘量远远不如预期。 怎么回事呢?仔细抽查了样本,详细分析数据,发现了这样一个可怕的事实:语言表达有显性和隐形两种,产品组给我们提供的是显性样本。这也没什么不对,因为显性表达的用词和结构有明显的patterns,挖掘起来比较好办。也因此我敢拍胸脯说能行。本来想,就算显性表达和隐性表达一半一半,如果我们能挖掘前一半,只要我们能处理海量数据,由于语言普遍存在的信息冗余现象,我们还是可以提供客户心理挖掘的服务,使其成为我们产品的 killer feature。 想得太美,可现实是残酷的。分析表明,客户心理的语言表达90%以上是隐形的,显性表达只是冰山一角。客户上帝啊,你有什么想法,喜好和牢骚,为什么不直说呢?我们是多么想了解上帝的心理啊。 苦恼。苦恼了一周。现在这样的覆盖面,根本没有可能做成征服商业情报世界的 killer app. 产品副总也苦恼。说,recall, recall, that is killing us. 怎么办呢?蚂蚁啃骨头,不断啃,做一点算一点,覆盖面总能慢慢改善吧。客户心理是商业情报的皇冠明珠,不管多难,目标多遥远,还是要做。 前天夜里就被这个recall恶魔缠了一宿。到了凌晨四点,恍惚中开了天目,灵感不期而至。当时那个兴奋,真想大叫。看大小领导仍在熟睡。一个人到外屋,兜了几十个圈子,反复验证自己的想法,确认无误,我给公司发了一个短信: Recall is not an issue in this case. Stay tuned. 口气很肯定,也卖了个关子,吊吊胃口。尤其是产品副总,他被这个恶魔缠得不比我轻。上午一见到他,我说:这样说吧,理论上的覆盖面是100%,实际操作上的覆盖面,不管怎么测量,我拍胸脯保证在 80% 以上。怎么样? Too good to be true. 他很信任我,知道我不是口出狂言的那种,平时在产品和研发打交道的时候,我都是讨价还价的保守派,能做十分,我只担保八成。今天出此大言,其中必有奥秘。他急于知道,我只给了个引子。具体细节还是等到会上谈吧。召集的是特别会议,包括管理层以及产品组和工程组的技术骨干,有些骨干向来是以挑剔为能事的。首先让他们来检验,看能不能从我的鸡蛋里面挑出骨头来。 一只黑笔,一块白板,立法委员在上面涂鸦。陈景润当年算1+1也是这种场面么? 问题一大框。最终是,蓝图无懈可击,操作性毋庸置疑。当然,实现过程中还有细节可以斟酌,一切最终要看大规模实验的证明。 今天,oops,昨天,真是个好日子! 今天,今天也是个好日子,请听湘女的吉言和歌唱: 找到了土豆的一个版本(暂时代替youTube李佳娜-今天是个好日子,立委现场拍摄) 【置顶:立委科学网博客NLP博文一览(定期更新版)】
由于突然意识到很久没有静下心来学学习,读读书,parce que une femme!所以今天来到久违的教七整理一下德语学习的知识。 其实德语是language of rules,只要master到精华就好了。昨天看了一天的语法,虽然未留下只言片语,但吾必谓之学矣,形容词就是这么简单:基本上加+en,但是特殊的的A与N,共分为3种情况: 1 无冠词时:形容词的变格同冠词,因为其取代了冠词的作用 2 不定冠词时:由于第一次提,N是要体现出形容词的变化所以是er、e、es,然后A是按照其规律,不过A阳单为en罢了。 3 定冠词时:原来提过,就不用变了,N都写e好了,但是A因为要体现变化,所以A阳单为en,与上同。 所有的形容词变格都搞清楚了,其余的就是+en而已,deutsch很好学的,希望大家跟我一起,arbeitet fleissig!(对ihr的祈使句,看明白了吗?) 今早5点起床(aufstehen),才有时间(die zeit)写日志,好了。 Moechete ich in den Unterricht gehen gleich,sonst ich komme zu spaet! Schues!