科学网

 找回密码
  注册

tag 标签: deep

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

海报:脑与deep learning读书会
xiaoda99 2013-6-5 15:36
最近要在集智俱乐部组织一次脑与deep learning的读书会活动。 http://www.douban.com/event/19029525/ 简介 Deep learning是一类基于多层神经网络的非常有前景的机器学习算法。最早提出的多层结构神经网络的灵感源泉之一就是神经生理学家Hubel Wiesel上世纪60年代基于实验发现提出的视觉系统信息处理的层次模型。遗憾的是,当前主流机器学习研究者对生物脑工作机理的认识似乎仍然停留在上世纪60年代。在神经科学和机器学习都取得长足进展的今天,二者的结合一定会碰撞出新的火花。本次读书会结合神经生理学和计算神经科学的最新进展,探索脑是怎样deep learning的。以高级哺乳动物的视觉通路为主线,沿着V1-V2-V4-IT/MT-海马的层次结构,看每一层都学到了什么,以及相关的计算模型,探讨不同层间的差异和共性。并和一些机器学习里的deep learning算法和系统作为对照。 本次读书会以研读并讨论神经生物学、计算神经科学和机器学习领域的经典文献为主,希望参与者: 1)对探索脑的工作机理感兴趣 1)乐于承担主讲,能比较轻松的阅读专业英文文献并抓住核心给大家讲解清楚。 2)本读书主要是探索生物脑学习和机器学习背后的共性和普适原理,而非deep learning算法的科普讲座。所以,欢迎如下背景的童鞋加入:生物学、神经科学、物理学、计算机、机器学习,尤其欢迎各种交叉学科。 大纲 Overview: deep architecture in brain and machine(1次) Early visual system (retinal ganglion cell, LGN, V1), canonical cortical circuits(1.5次) Learning features(selectivity) sparse coding, cortical maps(0.5次) Learning transformations(invariance)(1次) V2(1次) V4, shape perception(1次) IT, object face recognition(1次) 海马体,记忆,睡眠(1次) 视觉系统的发育和进化,低等动物的视觉(1次) 脑波、Neuronal oscillation and synchrony(1次)
3366 次阅读|0 个评论
[转载]Hinton wants to take deep learning to next level 深度学习
hestendelin 2013-5-21 20:03
原址: http://www.wired.com/wiredenterprise/2013/05/hinton/ Computer Brain Escapes Google’s X Lab to Supercharge Search BY ROBERT MCMILLAN 05.20.13 6:30 AM Geoffrey Hinton (right), Alex Krizhevsky, and Ilya Sutskever (left) will do machine-learning work at Google. Photo: U of T Two years ago Stanford professor Andrew Ng joined Google’s X Lab, the research group that’s given us Google Glass and the company’s driverless cars . His mission: to harness Google’s massive data centers and build artificial intelligence systems on an unprecedented scale. He ended up working with one of Google’s top engineers to build the world’s largest neural network; A kind of computer brain that can learn about reality in much the same way that the human brain learns new things. Ng’s brain watched YouTube videos for a week and taught itself which ones were about cats. It did this by breaking down the videos into a billion different parameters and then teaching itself how all the pieces fit together. But there was more. Ng built models for processing the human voice and Google StreetView images. The company quickly recognized this work’s potential and shuffled it out of X Labs and into the Google Knowledge Team. Now this type of machine intelligence — called deep learning — could shake up everything from Google Glass, to Google Image Search to the company’s flagship search engine. It’s the kind of research that a Stanford academic like Ng could only get done at a company like Google, which spends billions of dollars on supercomputer-sized data centers each year. “At the time I joined Google, the biggest neural network in academia was about 1 million parameters,” remembers Ng. “At Google, we were able to build something one thousand times bigger.” Ng stuck around until Google was well on its way to using his neural network models to improve a real-world product: its voice recognition software. But last summer, he invited an artificial intelligence pioneer named Geoffrey Hinton to spend a few months in Mountain View tinkering with the company’s algorithms. When Android’s Jellly Bean release came out last year, these algorithms cut its voice recognition error rate by a remarkable 25 percent. In March, Google acquired Hinton’s company. Now Ng has moved on (he’s running an online education company called Coursera), but Hinton says he wants to take this deep learning work to the next level. A first step will be to build even larger neural networks than the billion-node networks he worked on last year. “I’d quite like to explore neural nets that are a thousand times bigger than that,” Hinton says. “When you get to a trillion , you’re getting to something that’s got a chance of really understanding some stuff.” Hinton thinks that building neural network models about documents could boost Google Search in much the same way they helped voice recognition. “Being able to take a document and not just view it as, “It’s got these various words in it,” but to actually understand what it’s about and what it means,” he says. “That’s most of AI, if you can solve that.” Test images labeled by Hinton’s brain. Image: Geoff Hinton Hinton already has something to build on. Google’s knowledge graph : a database of nearly 600 million entities. When you search for something like “ The Empire State Building ,” the knowledge graph pops up all of that information to the right of your search results. It tells you that the building is 1,454 feet tall and was designed by William F. Lamb. Google uses the knowledge graph to improve its search results, but Hinton says that neural networks could study the graph itself and then both cull out errors and improve other facts that could be included. Image search is another promising area. “‘Find me an image with a cat wearing a hat.’ You should be able to do that fairly soon,” Hinton says. Hinton is the right guy to take on this job. Back in the 1980s he developed the basic computer models used in neural networking. Just two months ago, Google paid an undisclosed sum to acquire Hinton’s artificial intelligence company , DNNresearch , and now he’s splitting his time between his University of Toronto teaching job, and working for Jeff Dean on ways to make Google’s products smarter at the company’s Mountain View campus. In the past five years, there’s been a mini-boom in neural networking as researchers have harnessed the power of graphics processors (GPUs) to build out ever-larger neural networks that can quickly learn from extremely large sets of data. “Until recently… if you wanted to learn to recognize a cat, you had to go and label tens of thousands of pictures of cats,” says Ng. “And it was just a pain to find so many pictures of cats and label then.” Now with “unsupervised learning algorithms,” like the ones Ng used in his YouTube cat work, the machines can learn without the labeling, but to build the really large neural networks, Google had to first write code that would work on such a large number of machines, even when one of the systems in the network stopped working. It typically takes a large number of computers sifting through a large amount of data to train the neural network model. The YouTube cat model, for example, was trained on 16,000 chip cores . But once that was hammered out, it too k just 100 cores to be able to spot cats on YouTube. Google’s data centers are based on Intel Xeon processors, but the company has started to tinker with GPUs because they are so much more efficient at this neural network processing work, Hinton says. Google is even testing out a D-Wave quantum computer , a system that Hinton hopes to try out in the future. But before then, he aims to test out his trillion-node neural network. “People high up in Google I think are very committed to getting big neural networks to work very well,” he says.
个人分类: 深度学习|3132 次阅读|0 个评论
分享一些deep learning的资源
xiaoda99 2013-5-8 09:54
都是来自Bengio组的。 1 2篇paper 【1】 Deep Learning of Representations: Looking Forward , Yoshua Bengio, Université de Montréal, arXiv report 1305.0445, 2013 一篇最新综述,写得很棒。 【2】Maxout Networks . Ian J. Goodfellow , David Warde-Farley, Mehdi Mirza, Aaron Courville, and Yoshua Bengio. To appear in ICML 2013 . 一个和dropout搭配使用做更好的model averaging的方法,特点也和dropout类似:做法超简单,效果却很好。 2 http://www.kaggle.com/c/challenges-in-representation-learning-the-black-box-learning-challenge/forums Kaggle的一个竞赛:Challenges in Representation Learning: The Black Box Learning Challenge 论坛里有参赛者关于各种算法和开源工具包的讨论,例如: http://www.kaggle.com/c/challenges-in-representation-learning-the-black-box-learning-challenge/forums/t/4491/dropout-maxout-and-deep-neural-networks 3 http://ift6266h13.wordpress.com/ Bengio的一个课程(Representation Learning)的资料。有很多学生写的课程笔记和问题讨论,例如: http://ift6266h13.wordpress.com/tag/pierre-luc-carrier/ 4 http://plcift6266.wordpress.com/ 上面课程一个学生的course project实验报告。每篇报告中详细描述了他尝试的各种最新deep learning算法的的实验过程和结果分析,这个可比paper中的结果有价值多了,你懂的。 我觉得,把这些跟下来,想上手做些东西就不会有太多障碍了,比光看paper好很多。
4946 次阅读|0 个评论
brain & deep learning reading list
热度 1 xiaoda99 2013-5-3 15:19
文献列表(更新) 因为文献太多一次读书会不可能面面俱到,采取follow每个领域最重要的1~2个研究者的最具代表性的工作的方式,挑选出下面文章重点研读。文章前的标签代表类型,NB=神经生物学发现,CM=计算模型,ML=机器学习算法。 Overview: deep architecture in brain and machine(1次) James DiCarlo 【NB】Chris I. Baker (2004) Visual Processing in the Primate Brain. In Handbook of Psychology, Biological Psychology, Wiley. 【NB】【CM】DiCarlo JJ, Zoccolan D, Rust NC. (2012) How does the brain solve visual object recognition? Neuron, 73(3):415-34. 【CM】Cadieu CF, et al. (2013) The Neural Representation Benchmark and its Evaluation on Brain and Machine. International Conference on Learning Representations (ICLR) 2013. Early visual system (retinal ganglion cell, LGN, V1), canonical cortical circuits(1.5次) Matteo Carandini, Rodney Douglas 【NB】Matteo Carandini (2012) Area V1. Scholarpedia, 7(7):12105. http://www.scholarpedia.org/article/Area_V1 【NB】【CM】Carandini M, et al. (2005) Do we know what the early visual system does? Journal of Neuroscience, 25:10577-10597. 【NB】Douglas, RJ and Martin, KAC (2007) Recurrent neuronal circuits in the neocortex. Current Opinion in Biology, 17:496-500. 【NB】Douglas, RJ and Martin, KAC (2010) Canonical cortical circuits. Chapter 2 in Handbook of Brain Microcircuits 15-21. 【ML】Kevin Jarrett, Koray Kavukcuoglu, Marc’Aurelio Ranzato, and Yann LeCun. (2009) What is the Best Multi-Stage Architecture for Object Recognition? in Proc. International Conference on Computer Vision (ICCV’09). learning features(selectivity) sparse coding, cortical maps(0.5次) Bruno Olshausen 【CM】Olshausen, B. A., Field, D. J. (1997). Sparse coding with an overcomplete basis set: a strategy employed by V1? Vision Research, 37 (23), 3311-3325. 【CM】Bednar JA. (2012) Building a mechanistic model of the development and function of the primary visual cortex. Journal of Physiology (Paris), 106:194-211. learning transformations(invariance)(1次) Aapo Hyvarinen, Yan Karklin 【CM】Hyvarinen, A. and Hoyer, P. (2001). A two-layer sparse coding model learns simple and complex cell receptive fields and topography from natural images. Vision Research, 41(18):2413–2423. 【CM】Karklin, Y., Lewicki, M. S. (2009). Emergence of complex cell properties by learning to generalize in natural scenes. Nature, 457(7225), 83-85. 【CM】Adelson E.H. and Bergen J.R. (1985) Spatiotemporal energy models for the perception of motion. Journal Opt. Soc. Am. 【ML】Ian J. Goodfellow, Quoc V. Le, Andrew M. Saxe, Honglak Lee, and Andrew Y. Ng. (2009) Measuring invariances in deep networks. Advances in Neural Information Processing Systems (NIPS). 补充 【ML】Q.V. Le, et, al. Building high-level features using large scale unsupervised learning. ICML, 2012. V2(1次) 【NB】Lawrence C. Sincich and Jonathan C. Horton (2005) The Circuitry of V1 and V2: Integration of Color, Form, and Motion. Annu. Rev. Neurosci. 28:303–26. 【NB】Roe AW, Lu HD, Chen G (2008) Functional architecture of area V2. Encyclopedia of Neuroscience (Squire L, ed.). Elsevier, Oxford, UK. 【CM】Cadieu C.F. Olshausen B.A. (2012) Learning Intermediate-Level Representations of Form and Motion from Natural Movies. Neural Computation. 【ML】Zou, W.Y., Zhu, S., Ng, A., and Yu, K. (2012) Deep learning of invariant features via simulated fixations in video. In Advances in Neural Information Processing Systems (NIPS). 【CM】Gutmann MU Hyvarinen A (2013) A three-layer model of natural image statistics. Journal of Physiology-Paris. 专题讨论:learning mid-level features(形式待定) 【ML】Memisevic, R., Exarchakis, G. (2013) Learning invariant features by harnessing the aperture problem. International Conference on Machine Learning (ICML). 【ML】Kihyuk Sohn, Guanyu Zhou, Chansoo Lee, and Honglak Lee. (2013) Learning and Selecting Features Jointly with Point-wise Gated Boltzmann Machines。 Proceedings of the 30th International Conference on Machine Learning (ICML). 【ML】Roni Mittelman, Honglak Lee, Benjamin Kuipers, and Silvio Savarese. (2013) Weakly Supervised Learning of Mid-Level Features with Beta-Bernoulli Process Restricted Boltzmann Machines. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). V4, shape perception(1次) Charles E. Connor 【NB】Pasupathy, A. Connor, C.E. (2002) Population coding of shape in area V4. Nature Neuroscience 5: 1332-1338. 【NB】Connor, C.E. (2007) Transformation of shape information in the ventral pathway. Current Opinion in Neurobiology 17: 140-147. 【NB】【CM】Roe AW, et al. (2012) Towards a unified theory of visual area V4. Neuron 74(2):12-29. 【NB】【CM】Cadieu C, Kouh M, Pasupathy A, Connor CE, Riesenhuber M, Poggio T. (2007) A model of V4 shape selectivity and invariance. Journal of Neurophysiology, 98(3), 1733-50. IT, object face recognition(1次) Keiji Tanaka, Doris Tsao 【NB】Charles G. Gross (2008) Inferior temporal cortex. Scholarpedia, 3(12):7294. http://www.scholarpedia.org/article/Inferior_temporal_cortex 【NB】Tanaka, K. (1996). Inferotemporal cortex and object vision. Annual Review of Neuroscience, 19, 109–139. 【NB】【CM】Tsao DY, Livingstone, MS. (2008) Mechanisms for face perception. Annual Review of Neuroscience, 31: 411-438. 【NB】【CM】Tsao D.Y., Cadieu C. and Livingstone M. (2010) Object Recognition: Physiological and Computational Insights. Chapter 24 in Primate Neuroethology. Edited by M. Platt and A. Ghazanfar. Oxford University Press. 海马体,记忆,睡眠(1次) 待补充 视觉系统的发育和进化,低等动物的视觉(1次) Jon Kaas The Evolution Of The Visual System In Primates 待补充 Neuronal oscillation and synchrony(1次) Christoph von der Malsburg, Markus Siegel 【NB】Siegel M., Donner T. H., Engel A. K. (2012) Spectral fingerprints of large-scale neuronal interactions. Nature Reviews Neuroscience 13:121-134 【NB】Varela F (2001) The brainweb: Phase synchronization and large-scale integration. Nature Reviews Neuroscience 2, 229-239. 【CM】Donner T. H., Siegel M. (2011) A framework for local cortical oscillation patterns. Trends in Cognitive Sciences 15(5): 191-199 【CM】von der Malsburg C. (1999) The What and Why of Binding: The Modeler’s Perspective. Neuron, Vol. 24, 95–104.
4442 次阅读|5 个评论
关于广义智能系统,以及临界态、层次的猜想
热度 1 xiaoda99 2013-5-3 15:12
最近和jake和计算士的讨论,脑子里的信息结构经过头脑风暴的随机扰动后,不经意间自发整合成有机体,焕发出全新的活力。茅塞顿开,十分兴奋!把想到的东西记下来,供大家进一步讨论。 最近一年多以来,我主要纠结于三个问题: 1)从非平衡态统计物理的视角,能量冲的冲刷怎样产生自然界的有序结构,涌现出生命?或与之类比的,信息流的冲刷怎样产生脑的有序结构,涌现出智能? 2)自然界和大脑中广泛存在的无标度和分形现象,证明这些复杂系统处于临界态(参见我之前写的自然图像的制尺度无关性和文章)。复杂性和临界态有什么关系? 3)另一方面,自然界和大脑中广泛存在层次结构,复杂性和层次有什么关系? 昨天突然意识到,这三个问题是有紧密联系的。 Chapter 1 让我们还是从玻尔兹曼机(BM)开始。我们知道,BM学习算法有正学习(记忆)和逆学习(遗忘)两个阶段,前者加强两个同时发放的神经元间的突触连接,使系统趋向有序,对应于减小系统在感知态的能量E,后者削弱两个同时发放的神经元间的突触连接,使系统趋向无序,对应于增大系统在平衡态的熵S,或者理解为通过引入随机噪声避免过拟合。整个过程看做通过消耗自由能F(= E - S)做功塑造网络结构。因此,BM是信息流冲刷产生有序结构的一个原型。 Chapter 2 BM的最为反直觉也是最深刻的启示是:逆学习(遗忘)有举足轻重的作用,它让系统在辛苦的学习之后进行消化和调整,以维持一个相对“健康”的状态而不至于因为不间断的学习而累疯掉。这里一个容易想到的问题是:逆学习要做到什么程度?导致无序的遗忘和导致有序的学习间怎样协同?在原始的BM学习算法中,正学习和逆学习同时进行,遗忘作用相对记忆的强弱(对突触连接权重的改变量)完全由输入数据决定。但是在实际学习系统(如大脑)中,两个过程可能并不同时发生,而且遗忘作用的相对强弱也很难由输入数据精确控制。不妨假设你的大脑在白天学习,晚上睡觉的时候遗忘。忘的太少,容易产生过拟合;把所有白天学的都忘掉,让整个网络完全无序,显然也不是想要的结果。你的大脑怎么知道遗忘多少恰到好处呢?也许,大脑聪明的通过遗忘把自己调整某个最佳状态,以适合第二天继续学习。这个状态既不能太有序,也不能太无序,对,临界态! Chapter 3 可是最关键的问题是:临界态究竟好在哪里,让大脑孜孜以求呢?可以从两个方面解释: 1)我们已经知道,大脑接受的很多输入数据(如自然图像、语言等),本身就具有分形和临界特性,表现为尺度无关、Zipf律等。以这样的数据长期训练大脑,使它已经把输入是临界的作为先验,即使在不清楚实际输入统计特性的情况下,也尽可能使自身也处于临界以和外部世界保持同构。 2)大脑对临界态的偏好,还有个更精巧的解释。处于临界态的系统有个非常重要的性质,就是经过某种变换(编码)后得到的新系统(位于一个更高的层次)仍然处于临界态,用重整化群的语言来说,它是这种变换下的非平凡不动点(参看jake的文章)。如果把学到的表示当做输入数据本身,再学一层。这新一层的表示仍将是临界的,于是可以在其上再学一层。。。一直做下去,就得到一个无穷尽的层次结构。大脑每学一层,就对输入数据有了更深一层的理解。而上面提到的变换,就是对信息的重新编码和表示。对,这就是deep learning! 上面的故事虽然只是梗概,但我们已经看到流产生有序结构、临界态、层次这三个角色的轮番出场和互相配合。如果这个看似天方夜谭的故事是真实的(我希望并倾向认为它是),我们可以作出下面两个猜想: 1)如果把信息流等价于能量流,包含分形(即具有临界特性)的信息流的能量是(理论上的)无穷大。 2)以这样的信息流冲刷(训练)一个无序系统,同时通过系统自身的最大熵趋势把系统调节在临界态,最终将演化出一个(理论上)无穷多层的结构。
2651 次阅读|1 个评论
和jake关于重整化群和deep learning的讨论备忘
xiaoda99 2013-5-3 15:10
Xiao Da xiaoda99@gmail.com Mar 23 to jake 我这几天学习了些重整化群,发现它的基本思想和deep learning非常相似,但一个非常大的局限是粗粒化过程会丢失信息不可逆,因此不能作为一个generative model。昨天关于这个问题突然有了一个想法,想和你探讨一下。 关键问题是如何将粗粒化过程变为可逆,使重整化群不仅能通过尺度变换分析一个已有状态是否处于临界,还能无中生有产生临界状态。 具体来说,设原始状态为s,经过一步粗粒化后的状态为s'。现给定s',求s。 这样选取s,使它同时满足两种约束: 1)粗粒化约束:s按给定规则粗粒化后能够得到s‘(硬约束), 2)哈密顿量约束:s受其自身哈密顿量中相邻结点coupling的约束,使相邻结点取值趋近相同,使哈密顿量最小(软约束)。 其中硬约束可以通过对不满足粗粒化约束的状态赋予极高的能量值实现。系统在这两种约束共同作用下弛豫,达到的稳态即为s。 该逆粗粒化操作是可以迭代的。一旦得到s,我们可以继续逆重整化流而上,得到s的前一个状态。 有了这个逆粗粒化,就可以干一件很好玩的事情。我们知道,Ising模型从一个稍微偏离临界态的状态开始(TTc),通过不断粗粒化操作,将趋于高温不动点。现在把这个过程逆过来,自上而下构造这样一个多层网络,最顶层为完全无序的状态(相当于温度无穷大,关联长度为0),每向下一层,就进行一步逆粗粒化,关联长度增大。随着层数增加,关联长度逐渐增大至无穷,最底层将逼近临界态。 注意这个模型从完全无序状态产生准临界态只要2个条件:1)哈密顿量约束的强度远小于粗粒化约束强度;2)迭代层数足够多。并不需要调节coupling strength和T的比值到某个特定临界值,因此这可以看做一个自组织临界模型。 我觉得这是个简单但有趣的想法,但不确定上面的推导对不对,尤其是那个逆粗粒化能否实现。很想听听你的看法。还有这个模型到底有没有价值? Xiao Da xiaoda99@gmail.com Mar 27 to jake 昨天跟你讨论完思路又清晰了不少。发现其实可以先不去管自然界和脑网络产生临界现象的真实机制,就从一个非常具体的问题入手:具有什么统计特性的数据适合(或者不适合)用deep learning学习feature?为什么每一层都能学到有意义的feature? 基本思路就是:把deep learning和对Ising模型做实空间重整化操作产生的层次结构作类比,每次重整化对应一层,最底层就是原始数据。如果数据不处于临界态(即特征尺度有限,没有长程关联),经过有限次重整化后必然收敛到平凡不动点,此时数据变成完全随机(特征尺度为0),也就是经过若干层以后就学不到有意义的feature了。只有具有长程关联的临界态数据,才能经过无限次重整化后始终保持长程关联,每层都能学到有意义的feature。因此,可以猜想这样的结论:数据具有长程关联(相关函数随距离幂律衰减)是适合deep learning的充要条件。上面推理隐含了一个局域作用假设:定义了空间和距离后,无论在哪一层次,实体只和它邻近的实体相互作用。 这个问题本身是有实际意义的,并且可以实验验证。例如可以拿一些不同类型的数据,用现有的deep learning算法学习,测定相关函数随层数的变化,观察重整化流是趋近平凡不动点还是维持在非平凡不动点。当然,要解决的一个问题是怎样定义和测量相关函数。 上述讨论是理想情况,现实数据可能不会严格临界,而且尺度有限,学习层数(重整化次数)必然有限。所以还可以讨论趋近临界态的程度和deep learning网络的最优层数间的关系。 至于为什么很多实际数据恰好就长成这样,其背后的产生机制是否可以用相同的层次网络结构描述,就属于另一个层面上的问题了,先留着吧。 jake Mar 28 to me 嗯,思路很赞。 我说说我的想法。我其实在博士以前都是在走人工智能、机器学习的路子,但是之所以后来没再走下去,而是跳出来走复杂系统的路子,就是因为感觉计算机科学里面有一大类是物理问题,即处于某种状态的复杂系统问题。所以,开始研究流系统,就是因为感觉机器学习就是一个流的问题。虽然现在离开始的初衷已经有点远了。 所以,我帮你进一步明确你研究的对象:你研究的虽然是Deep learning,一种人工的系统,但是要把它当作一个客观的物理对象,就是要回答何种刺激能得到何种响应。我觉得这种切入点是最重要的,至于是不是一定具有长城相关的数据适合deep learning,还是要画上一个问号。当然,我们期待大概是这样。 不妨学学19世纪的卡诺,他从科学的角度重新看待热机问题,抽象出了热力学。你可以重新从物理的角度审视机器学习问题,抽象出了XX。 BTW,给你的那本书就是这种研究的典范。 Xiao Da xiaoda99@gmail.com Mar 28 to jake 机器学习在仿大脑,而大脑其实在仿自然,它本身就是个非平衡态物理系统,被信息流的冲刷产生有序结构。自从意识到这点以来,我就一直试图走从物理角度研究机器学习和神经科学的路子,从最开始的最快耗散自由能、最大熵产生,到后来的尺度无关、相变、临界、层次结构,这些关键词也一直是我一年多来思考的主线。可现在回过头来自己走的这条路,虽然看了很多东西,也有很多想法,可一年多并没有取得什么实质进展,感觉荒废了时间。我怀疑是不是抽象得太过了,总想搞出一个“大统一”理论,反而什么产出都没有。而且这条路走得好孤单,几乎找不到同路人讨论。可能是我做研究更依赖感性直觉而不是理性思维,不接触大量具体的实例就形不成直觉,也就提不出新想法。。 我以前一直期望从物理里挖出一个现成理论,直接拿过来推广到机器学习和神经科学就可以解决问题,就像当时香农把Boltzmann的东西拿过来推广搞出信息论一样。现在越来越觉得,复杂系统里很多基本问题物理学家并没有回答,我找的理论可能还没有出现。 所以现在打算转变一下,从deep learning这个具体实例入手,再结合神经科学上的新近发现,走抽象和具体结合的路。这样能和更多的人讨论,也期待能有些实际产出。当然长远来看我还是相信总有一天这些东西都会统一到物理上,也许最后解决问题的是物理学家。
2648 次阅读|0 个评论
[转载]ZT: 2013突破性科学技术之“深度学习”
热度 1 liwei999 2013-4-29 08:48
【立委按】深度学习(deep learning) 目前在机器学习界最热,整个领域随着它在转,说是革命性突破, 值得关注。报道说在语音识别、图形识别等传统机器学习领域,深度学习使得精准度大幅度提高,已经投入应用。本篇提到深度学习在自然语言理解上的前景,听上去太过乐观,几乎就是当年日本高唱第五代人工智能电脑高调的翻版。当时所仰仗的技术革命基础是 Prolog 语言及其预备在其上建立的类似于 cyc 的人工智能系统。五代机可以说是完败。这次的调子虽然耳熟,但其技术基础是几十年来在不同方面(如语音、机器翻译等)显示了实力的机器学习。值得谨慎期待。 即日起,小编将为各位读者带来麻省理工学院TechnologyReview(《科技评论》)杂志评选出的“2013突破性科学技术”系列文章,本篇为全系列第一篇。 2012年7月,雷·库兹韦尔与Google总裁拉里·佩奇会面,那时他不是来求职的。库兹韦尔,鼎鼎大名的机械智能学家,他告诉佩奇自己对打造全智能计算机颇有研究,已经有了初步的计划,准备开始设立公司打造这样的计算机。他所述的全智能计算机指的是能够自己理解语言,自己进行推论,自己做决定的计算机。 要完成这项工作,自然要用到Google的数据和计算能力。“我可给帮你弄到数据和服务器,但是要靠一家公司完成,太难了,”佩奇对他说,于是建议从来没有为别人打过工的库兹韦尔加入Google公司。经过6个月的挣扎,库兹韦尔最后还是选择了以工程总监的身份加入Google。他说:“这是我50多年来研究人工智能的顶峰。” 吸引库兹韦尔加入Google的不仅仅是Google独有的数据和强大的超级计算机,而是Google公司内部一个正在闪闪发光的人工智能分支部门“深度学习”。Google公司的深度学习软件尝试模仿人的大脑皮层中的神经层活动(该区域负责人脑80%的思维)。这个软件可以识别数字化的声音、图片和其他数据片段。 神经网络这一基本思想已经出现了几十年,但是却没有取得多少突破。不过,借助算法的改进和计算机性能的猛增,科学家现在可以模拟更多的神经层神经活动。 借助深度学习,他们在语音识别、图像识别领域取得了突飞猛进的进步。2012年6月,Google公司的深度学习系统在识别物体的精确度上比上一代系统提高了一倍,并且大幅度削减了Android系统语音识别系统的错误率。2012年12月,微软亚洲研究院展示了中英即时口译系统,错误率仅为7%,而且发音十分顺畅。( 点此观看视频和文章 )同样在12月,一群大学生和两名教授组成的团队利用深度学习软件完成分子识别,可用于发现治病新药。 Google目前正成为一块写着“深度学习”的吸铁石,吸引着来自全世界的高端、专业人士。2013年3月,Google公司收购了一家深度学习企业。这家企业由多伦多大学计算机科学教授杰弗里·希顿(Geoffrey Hinton)创立,曾获默克大奖。希顿目前已经把自己的时间一分为二,一半给了大学,一半给了Google。他的计划是“将大学中的理论拿出来,应用在现实问题上”,比如说 图像识别、搜索、自然语言理解等有关人工智能。 上面提到的应用领域时刻在提醒着人工智能研究者:科幻电影里智能机器很有希望出现在现实生活中。确实,机器智能的应用领域正从交流、计算转向医疗、制造业和运输。比如,IBM公司的深度学习技术正用于训练医师,帮助他们做出正确的选择;微软的深度学习技术则应用于Windows Phone和Bing语音搜索中。 然而,要将深度学习应用领域从图像和语音识别扩大到其他领域需要在概念和软件上做更大的突破,而且还需要计算机的计算能力进一步提高。也许几年之内,我们还见不到全智能计算机,但是几十年内出现这样的计算机是没有问题的。微软美国研究院的院长Peter Lee说:“深度学习激起了人工智能领域新的挑战。” 建造大脑 有挑战,就有解决方法。首先是软件编程需要大量人力,其次是混乱的数据结构,再就是应用领域的短缺。 紧跟人工智能思想的出现,上世纪50年代的神经网络也进入了人们视野,神经网络尝试以简单的形式来模拟人脑的运行。今天的一些人工神经网络已经可以训练自己来识别复杂的物体。但是早期的神经网络智能模拟有限的神经元,物体或者模块以复杂,就无法识别。逐渐在上世纪70年代末落。到了80年代中期,希顿和同事开发出了名为“深层”的模型来更好地利用软件模拟的多层神经网络。但因为那时计算机性能的限制,依旧需要大量人力介入,比如数据需要程序员人工标注等。 直到本世纪头十年,有关深度学习的理论终于取得了突破性的进展。2006年,希顿开发出一种更有效地训练单层神经员的新方法。即,第一层网络学习主要特征,用来识别图像边缘或声音最小单位,确认之后进入第二层去学习更负责的特征,比如说边缘角度和声音单位的组合等。这一过程将持续进行下去,直到系统可以准确识别图像和声音未知。 去年6月,Google演示了有史以来最大的神经网络,这一网络上拥有超过10亿个节点,并成功从YouTube视频中提取了1000万张画面上带猫的图片。如果没有深层学习,也就没有这么强大的功能。 深度学习让人工智能专家震惊的是其在图像识别上的进步。深度学习系统可以准确的将物体分类并添加主题,使YouTube视频分类达到16%的准确度。这个数字虽然看起来很小,但是已经比上一代系统提高了70%。需要注意的是,YouTube的系统所用的深度学习是将视频分到22000个分类中,许多分类连常人无法区分。而当把分类缩小到1000个时,系统识别的准确率瞬间提高到了50%。 大数据 为了训练深度学习的多层虚拟神经元系统,Google公司动用了16000个计算机处理器,这样的规模只在开发搜索引擎时才能用到。业内专业表示,最近几年人工智能领域取得的成就有80%要归功于计算机能力的上升。 这就要感谢Google公司强大的数据中心。真是借助强大的计算机性能和智能的任务分配机制,才加速了深度学习神经网络的研发步伐, 深度学习已经提高了智能手机的语音搜索功能。2012年,Google的Android操作系统中的语音识别突飞猛进,正是因为深度学习的关系。因为深度学习神经网络允许对语音做更精确的训练,所以使语音识别的成功率大大提高,尤其是在嘈杂的环境中,语音搜索结果也有了不小的改善。一夜之间,智能手机语音识别系统的错误率就下降到了25%,这让不少评论人士觉得Android手鸡的语音搜索要比苹果的Siri更智能。 尽管有了实质性的突破,人们还是认为深度学习的人工智能不能超越人脑。有人认为机器无法超越人脑的计算能力。 未来路向何方? Google对深度学习的态度是坚定的。首先,可以为YouTube提供更好的图像识别功能,为语音搜索提供更快更精准的识别,为自驾驶汽车提供更复杂的图像识别系统,以及优化搜索和广告投放等等。 文章开头的库兹韦尔算是一个奇人,他发明了计算机历史上的多个第一:第一个可以识别打印文字并阅读的机器,第一个可以扫描文质并保存文本的软件,第一个音乐合成器,第一个具备大型词典的对话识别系统。 库兹韦尔当前的目标就是帮助计算机理解自然语言并以自然语源与用户对话。他希望将深度学习算法用到解决自然语言的问题上,让计算机能够发现语言的问题,解决语言的问题。虽然库兹韦尔的目标还要很多年才能实现,但是深度学习的其他应用领域,如图像、声音识别已经越来越成熟。 在模拟人脑的科学尝试中,没有一种方法可以解决所有问题。但是就现在来讲,深度学习是研究人工智能最先进的方法。 文章来源: Technology Review 【相关篇什】 【科普随笔:NLP的宗教战争?兼论深度学习】
个人分类: 其他杂碎|6350 次阅读|4 个评论
拓尔思施总"非结构化大数据处理技术及行业应用"报告会听后感
wuxiaolananhui 2013-4-27 09:16
在 4 月 25 日下午,导师带领我们一起听了施水才总监的题为 “ 非结构化大数据处理技术及行业应用 ” 的学术报告。施总从 “非结构化大数据的理解”,“非结构化大数据的关键技术”及“拓尔思针对大数据的应用” 三个方面给我们介绍了大数据, 整场报告异常精彩。在第一个方面的讲解中,让我真实地体会到了非结构化大数据时代的来临,它已开始上升到国家战略层面,给我们带了很多商业机会,如就业、工作等,尤其对我们情报学专业来说,带来了一个不错的就业和发展机遇。当然,大数据时代的出现也带来了挑战,尤其是信息公开、信息安全及个人隐私等方面;在第二个方面,施总介绍了大数据所需的关键技术,施总讲了“与云计算结合,云是基础设施架构,大数据时灵魂资产;分析、挖掘是手段;发现和预测是最终目标”的论断,在这个方面,我体会到对大数据的存储、管理、查询和理解的难点,除自然语言处理技术及机器学习外,大数据更需要结合新技术(流技术, NoSQL ),尤其是图像、视频的 DeepLearning 。最后一个方面,施总给我们讲述了托尔思针对大数据的一些投资与应用,并现场给我们演示了他公司的微博热点分析及跟踪系统,系统可视化界面不仅直观、漂亮 , 也让我们大开眼界,原来社会上在大数据方面已经研究得这么好!
3510 次阅读|0 个评论
[转载]Deep Learning Toolbox 深度学习工具箱 丹麦科技大学 DTU
hestendelin 2013-4-25 21:36
原址: http://www.mathworks.cn/matlabcentral/fileexchange/38310-deep-learning-toolboxwatching=38310 Description PLEASE GO TO https://github.com/rasmusbergpalm/DeepLearnToolbox FOR NEWEST VERSION DeepLearnToolbox A Matlab toolbox for Deep Learning. Deep Learning is a new subfield of machine learning that focuses on learning deep hierarchical models of data. It is inspired by the human brain's apparent deep (layered, hierarchical) architecture. A good overview of the theory of Deep Learning theory is Learning Deep Architectures for AI For a more informal introduction, see the following videos by Geoffrey Hinton and Andrew Ng. The Next Generation of Neural Networks (Hinton, 2007) Recent Developments in Deep Learning (Hinton, 2010) Unsupervised Feature Learning and Deep Learning (Ng, 2011) If you use this toolbox in your research please cite: Prediction as a candidate for learning deep hierarchical models of data (Palm, 2012) Directories included in the toolbox NN/ - A library for Feedforward Backpropagation Neural Networks CNN/ - A library for Convolutional Neural Networks DBN/ - A library for Deep Belief Networks SAE/ - A library for Stacked Auto-Encoders CAE/ - A library for Convolutional Auto-Encoders util/ - Utility functions used by the libraries data/ - Data used by the examples tests/ - unit tests to verify toolbox is working For references on each library check REFS.md Required Products MATLAB MATLAB release MATLAB 7.11 (R2010b)
个人分类: 深度学习|11137 次阅读|0 个评论
深度学习(Deep Learning, DL)的相关资料总结
热度 3 bigdataage 2013-4-12 19:14
深度学习(Deep Learning,DL)的相关资料总结 有人认为DL是人工智能的一场革命,貌似很NB。要好好学学。 0 第一人(提出者) 好像是由加拿大多伦多大学计算机系( Department of Computer Science , University of Toronto ) 的教授Geoffrey E. Hinton于2006年提出。 其个人网站是: http://www.cs.toronto.edu/~hinton/ science上的那篇论文: http://www.sciencemag.org/content/313/5786/504.full 1 中文的资料(不含论文): 百度百科 http://baike.baidu.com/view/9964678.htm CSDN博客-,机器学习——深度学习(Deep Learning) http://blog.csdn.net/abcjennifer/article/details/7826917 深度学习(Deep Learning)综述 http://www.cnblogs.com/ysjxw/archive/2011/10/08/2201819.html “深度学习”是人工智能的一场革命吗? http://article.yeeyan.org/view/371738/341235 科学家称,深度学习是硅谷科技企业的未来 http://www.36kr.com/p/175229.html 深度学习(Deep Learning)算法简介 http://hi.baidu.com/yimizizizi/item/4d32615787772a05e6c4a5e1 程序员杂志201302:深度学习——机器学习的新浪潮 http://blog.csdn.net/datoubo/article/details/8577366 机器学习、大数据、深度学习、数据挖掘、统计、决策和风险分析、概率和模糊逻辑的常见问题解答 http://blog.csdn.net/yihaizhiyan/article/details/8266045 百度深度学习研究院 Deep Learning 教程翻译 http://blog.sina.com.cn/s/blog_46d0a3930101h6nf.html Deep Learning(深度学习)学习笔记整理系列 http://blog.csdn.net/zouxy09/article/details/8775360 Deep learning 非常好的中文学习笔记 http://www.cnblogs.com/tornadomeet/archive/2013/03/14/2959138.html Deep Learning入门之路一、二 http://blog.sina.com.cn/s/blog_9b75a293010176km.html http://blog.sina.com.cn/s/blog_9b75a29301017dd5.html UFLDL教程 http://deeplearning.stanford.edu/wiki/ 机器学习前沿热点–Deep Learning http://blog.sciencenet.cn/blog-315535-663215.html UFLDL教程 (中文版) http://deeplearning.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B Deep Learning学习(开篇) http://www.cnblogs.com/JackOne/archive/2013/02/19/DeepLearning-FirstBoold.html 深度学习: 推进人工智能的梦想 http://www.csdn.net/article/2013-05-29/2815479 2 英文的资料(不含论文): http://deeplearning.net/ (内容很多很丰富) http://en.wikipedia.org/wiki/Deep_learning http://cs.nyu.edu/~fergus/tutorials/deep_learning_cvpr12/ http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial (很好) http://www.iro.umontreal.ca/~pift6266/H10/notes/deepintro.html http://reading-group.net.technion.ac.il/2012/11/27/deep-learning-introduction/ http://www.socher.org/index.php/DeepLearningTutorial/DeepLearningTutorial Reading List: http://deeplearning.net/reading-list/ Learning Deep Architectures for AI: http://ishare.iask.sina.com.cn/f/36110040.html 3 论文(中文和英文): 论浅层学习与深度学习 深度学习研究综述 深度学习结构和算法比较分析 英文的看Geoffrey Hinton和Andrew Ng的论文就够了: http://www.cs.toronto.edu/~hinton/papers.html http://ai.stanford.edu/~ang/papers.php
23109 次阅读|3 个评论
great scholars & professors on RBM
justinzhao 2013-4-6 08:25
(1) Hinton Geoffrey: http://www.cs.toronto.edu/~hinton/ father of RBM, it's him to make the RBM trainable in practice. (2) Andrew Ng: http://ai.stanford.edu/~ang/ Great professor and great speaker. His student helped to popularize the deep belief network (3) Honglak Lee: http://web.eecs.umich.edu/~honglak/ It's him to win the best application paper award of ICML 2009. Currently he works on how to model invariance using RBM. (4) Ruslan Salakhutdinov: http://www.utstat.toronto.edu/~rsalakhu/ He is student of Prof. Hinto,and his major contribution is introduction of deep boltzmann machine. Prof.Hinto coined deep belief network. There two kinds of networks share some similarity, both belonging to deep architectures. (5) Graham Taylor: http://www.uoguelph.ca/~gwtaylor/ He is also the student of Prof. Hinton, and his major contribution is the introduction of gated boltzmann machine, which makes generate gray scale images possible. (6) Hugo Larochelle: http://www.dmi.usherb.ca/~larocheh/index_en.html Again he is Prof. Hinto's student, and his major contribution is applying RBM to model attentionla data. (7) Mark Ranzato: http://www.cs.toronto.edu/~ranzato/ He finished his Ph.D under Prof. Yann Lecun, and spent two-years' postdoc under Prof. Hinton. His contribution is introduction of one duplicate image to model covariance among neighboring pixels. (8) Roland Memisevic: http://www.iro.umontreal.ca/~memisevr/ He modeled temporal data using RBM. Now he found a faculty position in the University of Montreal. (9) Yoshua Bengio: http://www.iro.umontreal.ca/~bengioy/yoshua_en/index.html Great professor. His work of 'Learning Deep Structure for AI' is a must-read. (10) Yann Lecun: http://yann.lecun.com/ He is a legend. He disregarded CV guys.He is super smart, and his work may revolutionize object recognition. (11) Rob Fergus: http://cs.nyu.edu/~fergus/ NYU guy, who rejected when I applied for him. Anyway, a genius, I love him. (12) Kai Yu: http://www.dbs.ifi.lmu.de/~yu_k/ He inspired me why whitening doesn't make data independent. Sincere thanks to him. These professor are those who I am most familiar with. However, with emergence of deep belief network and deep boltzmann machine, there are so many other scholars. You may find a list from 2012 UCLA Deep Learning Summer School: http://www.ipam.ucla.edu/programs/gss2012/
个人分类: 读书日记|4360 次阅读|0 个评论
[转载]好看纪录片《DEEP SEA》
热度 1 jlpemail 2013-3-27 01:27
http://www.tudou.com/programs/view/c5qArrTZ-hQ/isRenhe=1 英文配音、汉语字母。
个人分类: 资料库|2311 次阅读|4 个评论
[转载]机器学习前沿热点–Deep Learning
lysciart 2013-2-19 16:44
引言: 神经网络( N eural N etwork)与支持向量机( S upport V ector M achines,SVM)是统计学习的代表方法。可以认为神经网络与支持向量机都源自于感知机(Perceptron)。感知机是1958年由Rosenblatt发明的线性分类模型。感知机对线性分类有效,但现实中的分类问题通常是非线性的。 神经网络与支持向量机(包含核方法)都是非线性分类模型。1986年,Rummelhart与McClelland发明了神经网络的学习算法 B ack P ropagation。后来,Vapnik等人于1992年提出了支持向量机。神经网络是多层(通常是三层)的非线性模型, 支持向量机利用核技巧把非线性问题转换成线性问题。 神经网络与支持向量机一直处于“竞争”关系。 Scholkopf是Vapnik的大弟子,支持向量机与核方法研究的领军人物。据Scholkopf说,Vapnik当初发明支持向量机就是想"干掉"神经网络(He wanted to kill Neural Network)。支持向量机确实很有效,一段时间支持向量机一派占了上风。 近年来,神经网络一派的大师Hinton又提出了神经网络的Deep Learning算法(2006年),使神经网络的能力大大提高,可与支持向量机一比。 Deep Learning假设神经网络是多层的,首先用Boltzman Machine(非监督学习)学习网络的结构,然后再通过Back Propagation(监督学习)学习网络的权值。 关于Deep Learning的命名,Hinton曾开玩笑地说: I want to call SVM shallow learning. (注:shallow 有肤浅的意思)。其实Deep Learning本身的意思是深层学习,因为它假设神经网络有多层。 总之,Deep Learning是值得关注的统计学习新算法。 深度学习(Deep Learning) 是ML研究中的一个新的领域,它被引入到ML中使ML更接近于其原始的目标:AI。查看 a brief introduction to Machine Learning for AI 和 an introduction to Deep Learning algorithms . 深度学习是关于学习多个表示和抽象层次,这些层次帮助解释数据,例如图像,声音和文本。 对于更多的关于深度学习算法的知识,可以参看: The monograph or review paper Learning Deep Architectures for AI (Foundations Trends in Machine Learning, 2009). The ICML 2009 Workshop on Learning Feature Hierarchies webpage has a list of references . The LISA public wiki has a reading list and a bibliography . Geoff Hinton has readings from last year’s NIPS tutorial . 这篇综述主要是介绍一些最重要的深度学习算法,并将演示如何用 Theano 来运行它们。 Theano是一个python库,使得写深度学习模型更加容易,同时也给出了一些关于在GPU上训练它们的选项。 这个算法的综述有一些先决条件。首先你应该知道一个关于python的知识,并熟悉numpy。由于这个综述是关于如何使用Theano,你应该先阅读 Theano basic tutorial 。一旦你完成这些,阅读我们的 Getting Started 章节---它将介绍概念定义,数据集,和利用随机梯度下降来优化模型的方法。 纯有监督学习算法可以按照以下顺序阅读: Logistic Regression - using Theano for something simple Multilayer perceptron - introduction to layers Deep Convolutional Network - a simplified version of LeNet5 无监督和半监督学习算法可以用任意顺序阅读(auto-encoders可以被独立于RBM/DBM地阅读): Auto Encoders, Denoising Autoencoders - description of autoencoders Stacked Denoising Auto-Encoders - easy steps into unsupervised pre-training for deep nets Restricted Boltzmann Machines - single layer generative RBM model Deep Belief Networks - unsupervised generative pre-training of stacked RBMs followed by supervised fine-tuning 关于mcRBM模型,也有一篇新的关于从能量模型中抽样的综述: HMC Sampling - hybrid (aka Hamiltonian) Monte-Carlo sampling with scan() 上文翻译自 http://deeplearning.net/tutorial/ 深度学习是 机器学习 研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习是 无监督学习 的一种。 深度学习的概念源于 人工神经网络 的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。 深度学习的概念由Hinton等人于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。 一、Deep Learning的前世今生 图灵在 1950 年的论文里,提出图灵试验的设想,即,隔墙对话,你将不知道与你谈话的,是人还是电脑 。 这无疑给计算机,尤其是人工智能,预设了一个很高的期望值。但是半个世纪过去了,人工智能的进展,远远没有达到图灵试验的标准。这不仅让多年翘首以待的人们,心灰意冷,认为人工智能是忽悠,相关领域是“伪科学”。 2008 年 6 月,“连线”杂志主编,Chris Anderson 发表文章,题目是 “理论的终极,数据的泛滥将让科学方法过时”。并且文中还引述经典著作 “人工智能的现代方法”的合著者,时任 Google 研究总监的 Peter Norvig 的言论,说 “一切模型都是错的。进而言之,抛弃它们,你就会成功” 。 言下之意,精巧的算法是无意义的。面对海量数据,即便只用简单的算法,也能得到出色的结果。与其钻研算法,不如研究云计算,处理大数据。 如果这番言论,发生在 2006 年以前,可能我不会强力反驳。但是自 2006 年以来,机器学习领域,取得了突破性的进展。 图灵试验,至少不是那么可望而不可即了。至于技术手段,不仅仅依赖于云计算对大数据的并行处理能力,而且依赖于算法。这个算法就是,Deep Learning。 借助于 Deep Learning 算法,人类终于找到了如何处理 “抽象概念”这个亘古难题的方法。 于是学界忙着延揽相关领域的大师。Alex Smola 加盟 CMU,就是这个背景下的插曲。悬念是 Geoffrey Hinton 和 Yoshua Bengio 这两位牛人,最后会加盟哪所大学。 Geoffrey Hinton 曾经转战 Cambridge、CMU,目前任教University of Toronto。相信挖他的名校一定不少。 Yoshua Bengio 经历比较简单,McGill University 获得博士后,去 MIT 追随 Mike Jordan 做博士后。目前任教 University of Montreal。 Deep Learning 引爆的这场革命,不仅学术意义巨大,而且离钱很近,实在太近了。如果把相关技术难题比喻成一座山,那么翻过这座山,山后就是特大露天金矿。技术难题解决以后,剩下的事情,就是动用资本和商业的强力手段,跑马圈地了。 于是各大公司重兵集结,虎视眈眈。Google 兵分两路,左路以 Jeff Dean 和 Andrew Ng 为首,重点突破 Deep Learning 等等算法和应用 。 Jeff Dean 在 Google 诸位 Fellows 中,名列榜首,GFS 就是他的杰作。Andrew Ng 本科时,就读 CMU,后来去 MIT 追随 Mike Jordan。Mike Jordan 在 MIT 人缘不好,后来愤然出走 UC Berkeley。Andrew Ng 毫不犹豫追随导师,也去了 Berkeley。拿到博士后,任教 Stanford,是 Stanford 新生代教授中的佼佼者,同时兼职 Google。 Google 右路军由 Amit Singhal 领军,目标是构建 Knowledge Graph 基础设施。 1996 年 Amit Singhal 从 Cornell University 拿到博士学位后,去 Bell Lab 工作,2000 年加盟 Google。据说他去 Google 面试时,对 Google 创始人 Sergey Brian 说,“Your engine is excellent, but let me rewirte it!” 换了别人,说不定一个大巴掌就扇过去了。但是 Sergey Brian 大人大量,不仅不怪罪小伙子的轻狂,反而真的让他从事新一代排名系统的研发。Amit Singhal 目前任职 Google 高级副总裁,掌管 Google 最核心的业务,搜索引擎。 Google 把王牌中之王牌,押宝在 Deep Learning 和 Knowledge Graph 上,目的是更快更大地夺取大数据革命的胜利果实。 Reference Turing Test. http://en.wikipedia.org/wiki/Turing_test The End of Theory: The Data Deluge Makes the Scientific Method Obsolete http://www.wired.com/science/discoveries/magazine/16-07/pb_theory Introduction to Deep Learning. http://en.wikipedia.org/wiki/Deep_learning Interview with Amit Singhal, Google Fellow. http://searchengineland.com/interview-with-amit-singhal-google-fellow-121342 原文链接: http://blog.sina.com.cn/s/blog_46d0a3930101fswl.html 作者微博: http://weibo.com/kandeng#1360336038853 二、Deep Learning的基本思想和方法 实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像等),首先必须做的事情是如何来表达一个对象,即必须抽取一些特征来表示一个对象,如文本的处理中,常常用词集合来表示一个文档,或把文档表示在向量空间中(称为VSM模型),然后才能提出不同的分类算法来进行分类;又如在图像处理中,我们可以用像素集合来表示一个图像,后来人们提出了新的特征表示,如SIFT,这种特征在很多图像处理的应用中表现非常良好,特征选取得好坏对最终结果的影响非常巨大。因此,选取什么特征对于解决一个实际问题非常的重要。 然而,手工地选取特征是一件非常费力、启发式的方法,能不能选取好很大程度上靠经验和运气;既然手工选取特征不太好,那么能不能自动地学习一些特征呢?答案是能!Deep Learning就是用来干这个事情的,看它的一个别名Unsupervised Feature Learning,就可以顾名思义了,Unsupervised的意思就是不要人参与特征的选取过程。因此,自动地学习特征的方法,统称为Deep Learning。 1)Deep Learning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为: I =S1=S2=…..=Sn = O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失,保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。现在回到我们的主题Deep Learning,我们需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设我们设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,…, Sn。 另外,前面是假设输出严格地等于输入,这个限制太严格,我们可以略微地放松这个限制,例如我们只要使得输入与输出的差别尽可能地小即可,这个放松会导致另外一类不同的Deep Learning方法。上述就是Deep Learning的基本思想。 2)Deep Learning的常用方法 a). AutoEncoder 最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重,自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征,在研究中可以发现,如果在原有的特征中加入这些自动学习得到的特征可以大大提高精确度,甚至在分类问题中比目前最好的分类算法效果还要好!这种方法称为AutoEncoder。当然,我们还可以继续加上一些约束条件得到新的Deep Learning方法,如如果在AutoEncoder的基础上加上L1的Regularity限制(L1主要是约束每一层中的节点中大部分都要为0,只有少数不为0,这就是Sparse名字的来源),我们就可以得到Sparse AutoEncoder方法。 b). Sparse Coding 如果我们把输出必须和输入相等的限制放松,同时利用线性代数中基的概念,即O = w1*B1 + W2*B2+….+ Wn*Bn, Bi是基,Wi是系数,我们可以得到这样一个优化问题: Min |I – O| 通过求解这个最优化式子,我们可以求得系数Wi和基Bi,这些系数和基础就是输入的另外一种近似表达,因此,它们可以特征来表达输入I,这个过程也是自动学习得到的。如果我们在上述式子上加上L1的Regularity限制,得到: Min |I – O| + u*(|W1| + |W2| + … + |Wn|) 这种方法被称为Sparse Coding。 c) Restrict Boltzmann Machine (RBM) 假设有一个二部图,每一层的节点之间没有链接,一层是可视层,即输入数据层( v ),一层是隐藏层( h ),如果假设所有的节点都是二值变量节点(只能取0或者1值),同时假设全概率分布p( v, h )满足Boltzmann 分布,我们称这个模型是Restrict Boltzmann Machine (RBM)。下面我们来看看为什么它是Deep Learning方法。首先,这个模型因为是二部图,所以在已知 v 的情况下,所有的隐藏节点之间是条件独立的,即p( h | v ) =p( h 1| v )…..p( h n| v )。同理,在已知隐藏层 h 的情况下,所有的可视节点都是条件独立的,同时又由于所有的v和h满足Boltzmann 分布,因此,当输入 v 的时候,通过p( h | v ) 可以得到隐藏层 h ,而得到隐藏层 h 之后,通过p(v|h) 又能得到可视层,通过调整参数,我们就是要使得从隐藏层得到的可视层 v1 与原来的可视层 v 如果一样,那么得到的隐藏层就是可视层另外一种表达,因此隐藏层可以作为可视层输入数据的特征,所以它就是一种Deep Learning方法。 如果,我们把隐藏层的层数增加,我们可以得到Deep Boltzmann Machine (DBM);如果我们在靠近可视层的部分使用贝叶斯信念网络(即有向图模型,当然这里依然限制层中节点之间没有链接),而在最远离可视层的部分使用Restrict Boltzmann Machine,我们可以得到Deep Belief Net (DBN) 。 当然,还有其它的一些Deep Learning 方法,在这里就不叙述了。总之,Deep Learning能够自动地学习出数据的另外一种表示方法,这种表示可以作为特征加入原有问题的特征集合中,从而可以提高学习方法的效果,是目前业界的研究热点。 原文链接: http://blog.csdn.net/xianlingmao/article/details/8478562 三、深度学习(Deep Learning)算法简介 查看最新论文 Yoshua Bengio, Learning Deep Architectures for AI, Foundations and Trends in Machine Learning, 2(1), 2009 深度(Depth) 从一个输入中产生一个输出所涉及的计算可以通过一个流向图(flow graph)来表示:流向图是一种能够表示计算的图,在这种图中每一个节点表示一个基本的计算并且一个计算的值(计算的结果被应用到这个节点的孩子节点的值)。考虑这样一个计算集合,它可以被允许在每一个节点和可能的图结构中,并定义了一个函数族。输入节点没有孩子,输出节点没有父亲。 对于表达 的流向图,可以通过一个有两个输入节点 和 的图表示,其中一个节点通过使用 和 作为输入(例如作为孩子)来表示 ;一个节点仅使用 作为输入来表示平方;一个节点使用 和 作为输入来表示加法项(其值为 );最后一个输出节点利用一个单独的来自于加法节点的输入计算SIN。 这种流向图的一个特别属性是深度(depth):从一个输入到一个输出的最长路径的长度。 传统的前馈神经网络能够被看做拥有等于层数的深度(比如对于输出层为隐层数加1)。SVMs有深度2(一个对应于核输出或者特征空间,另一个对应于所产生输出的线性混合)。 深度架构的动机 学习基于深度架构的学习算法的主要动机是: 不充分的深度是有害的; 大脑有一个深度架构; 认知过程是深度的; 不充分的深度是有害的 在许多情形中深度2就足够(比如logical gates, formal neurons, sigmoid-neurons, Radial Basis Function units like in SVMs)表示任何一个带有给定目标精度的函数。但是其代价是:图中所需要的节点数(比如计算和参数数量)可能变的非常大。理论结果证实那些事实上所需要的节点数随着输入的大小指数增长的函数族是存在的。这一点已经在logical gates, formal neurons 和rbf单元中得到证实。在后者中Hastad说明了但深度是d时,函数族可以被有效地(紧地)使用O(n)个节点(对于n个输入)来表示,但是如果深度被限制为d-1,则需要指数数量的节点数O(2^n)。 我们可以将深度架构看做一种因子分解。大部分随机选择的函数不能被有效地表示,无论是用深地或者浅的架构。但是许多能够有效地被深度架构表示的却不能被用浅的架构高效表示(see the polynomials example in the Bengio survey paper )。一个紧的和深度的表示的存在意味着在潜在的可被表示的函数中存在某种结构。如果不存在任何结构,那将不可能很好地泛化。 大脑有一个深度架构 例如,视觉皮质得到了很好的研究,并显示出一系列的区域,在每一个这种区域中包含一个输入的表示和从一个到另一个的信号流(这里忽略了在一些层次并行路径上的关联,因此更复杂)。这个特征层次的每一层表示在一个不同的抽象层上的输入,并在层次的更上层有着更多的抽象特征,他们根据低层特征定义。 需要注意的是大脑中的表示是在中间紧密分布并且纯局部:他们是稀疏的:1%的神经元是同时活动的。给定大量的神经元,任然有一个非常高效地(指数级高效)表示。 认知过程看起来是深度的 人类层次化地组织思想和概念; 人类首先学习简单的概念,然后用他们去表示更抽象的; 工程师将任务分解成多个抽象层次去处理; 学习/发现这些概念(知识工程由于没有反省而失败?)是很美好的。对语言可表达的概念的反省也建议我们一个稀疏的表示:仅所有可能单词/概念中的一个小的部分是可被应用到一个特别的输入(一个视觉场景)。 学习深度架构的突破 2006年前,尝试训练深度架构都失败了:训练一个深度有监督前馈神经网络趋向于产生坏的结果(同时在训练和测试误差中),然后将其变浅为1(1或者2个隐层)。 2006年的3篇论文改变了这种状况,由Hinton的革命性的在深度信念网(Deep Belief Networks, DBNs)上的工作所引领: Hinton, G. E., Osindero, S. and Teh, Y., A fast learning algorithm for deep belief nets .Neural Computation 18:1527-1554, 2006 Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle, Greedy Layer-Wise Training of Deep Networks , in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007 Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model , in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007 在这三篇论文中以下主要原理被发现: 表示的无监督学习被用于(预)训练每一层; 在一个时间里的一个层次的无监督训练,接着之前训练的层次。在每一层学习到的表示作为下一层的输入; 用无监督训练来调整所有层(加上一个或者更多的用于产生预测的附加层); DBNs在每一层中利用用于表示的无监督学习RBMs。Bengio et al paper 探讨和对比了RBMs和auto-encoders(通过一个表示的瓶颈内在层预测输入的神经网络)。Ranzato et al paper在一个convolutional架构的上下文中使用稀疏auto-encoders(类似于稀疏编码)。Auto-encoders和convolutional架构将在以后的课程中讲解。 从2006年以来,大量的关于深度学习的论文被发表,一些探讨了其他原理来引导中间表示的训练,查看 Learning Deep Architectures for AI 原文链接: http://www.cnblogs.com/ysjxw/archive/2011/10/08/2201782.html 四、拓展学习推荐 Deep Learning 经典阅读材料: The monograph or review paper Learning Deep Architectures for AI (Foundations Trends in Machine Learning, 2009). The ICML 2009 Workshop on Learning Feature Hierarchies webpage has a list of references . The LISA public wiki has a reading list and a bibliography . Geoff Hinton has readings from last year’s NIPS tutorial . Deep Learning工具—— Theano : Theano 是deep learning的Python库,要求首先熟悉Python语言和numpy,建议读者先看 Theano basic tutorial ,然后按照 Getting Started 下载相关数据并用gradient descent的方法进行学习。 学习了Theano的基本方法后,可以练习写以下几个算法: 有监督学习: Logistic Regression - using Theano for something simple Multilayer perceptron - introduction to layers Deep Convolutional Network - a simplified version of LeNet5 无监督学习: Auto Encoders, Denoising Autoencoders - description of autoencoders Stacked Denoising Auto-Encoders - easy steps into unsupervised pre-training for deep nets Restricted Boltzmann Machines - single layer generative RBM model Deep Belief Networks - unsupervised generative pre-training of stacked RBMs followed by supervised fine-tuning 最后呢,推荐给大家基本ML的书籍: Chris Bishop, “Pattern Recognition and Machine Learning”, 2007 Simon Haykin, “Neural Networks: a Comprehensive Foundation”, 2009 (3rd edition) Richard O. Duda, Peter E. Hart and David G. Stork, “Pattern Classification”, 2001 (2nd edition) 原文链接: http://blog.csdn.net/abcjennifer/article/details/7826917 五、应用实例 1、计算机视觉 ImageNet Classification with Deep Convolutional Neural Networks , Alex Krizhevsky, Ilya Sutskever, Geoffrey E Hinton, NIPS 2012. Learning Hierarchical Features for Scene Labeling , Clement Farabet, Camille Couprie, Laurent Najman and Yann LeCun, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013. Learning Convolutional Feature Hierachies for Visual Recognition , Koray Kavukcuoglu, Pierre Sermanet, Y-Lan Boureau, Karol Gregor, Michaeuml;l Mathieu and Yann LeCun, Advances in Neural Information Processing Systems (NIPS 2010), 23, 2010. 2、语音识别 微软研究人员通过与hintion合作,首先将RBM和DBN引入到语音识别声学模型训练中,并且在大词汇量语音识别系统中获得巨大成功,使得语音识别的错误率相对减低30%。但是,DNN还没有有效的并行快速算法,目前,很多研究机构都是在利用大规模数据语料通过GPU平台提高DNN声学模型的训练效率。 在国际上,IBM、google等公司都快速进行了DNN语音识别的研究,并且速度飞快。 国内方面,科大讯飞、百度、中科院自动化所等公司或研究单位,也在进行深度学习在语音识别上的研究。 3、自然语言处理等其他领域 很多机构在开展研究,但目前深度学习在自然语言处理方面还没有产生系统性的突破。 六、参考链接: 1. http://baike.baidu.com/view/9964 ... enter=deep+learning 2. http://www.cnblogs.com/ysjxw/archive/2011/10/08/2201819.html 3. http://blog.csdn.net/abcjennifer/article/details/7826917 本文转载来自 http://elevencitys.com/?p=1854 Stanford大学的Deep Learning 和 tutorial: http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial
个人分类: 机器学习|21732 次阅读|0 个评论
[转载] ICLR 2013 call for papers
hestendelin 2013-1-8 10:27
ICLR 2013 : International Conference on Learning Representations Link: https://sites.google.com/site/representationlearning2013/ When May 2, 2013 - May 4, 2013 Where Scottsdale, Arizona Submission Deadline Jan 15, 2013 Notification Due Mar 15, 2013 Call For Papers Overview ------------- It is well understood that the performance of machine learning methods is heavily dependent on the choice of data representation (or features) on which they are applied. The rapidly developing field of representation learning is concerned with questions surrounding how we can best learn meaningful and useful representations of data. We take a broad view of the field, and include in it topics such as deep learning and feature learning, metric learning, kernel learning, compositional models, non-linear structured prediction, and issues regarding non-convex optimization. Despite the importance of representation learning to machine learning and to application areas such as vision, speech, audio and NLP, there is currently no common venue for researchers who share a common interest in this topic. The goal of ICLR is to help fill this void. A non-exhaustive list of relevant topics: - unsupervised representation learning - supervised representation learning - metric learning and kernel learning - dimensionality expansion, sparse modeling - hierarchical models - optimization for representation learning - implementation issues, parallelization, software platforms, hardware - applications in vision, audio, speech, and natural language processing, robotics and neuroscience. - other applications Submission Process ------------------------------ ICLR2013 will use a novel publication model that will proceed as follows: - Authors post their submissions on arXiv and send us a link to the paper. A separate, permanent website will be setup to handle the reviewing process, to publish the reviews and comments, and to maintain links to the papers. - The ICLR program committee designates anonymous reviewers as usual. - The submitted reviews are published without the name of the reviewer, but with an indication that they are the designated reviews. Anyone can write and publish comments on the paper (non anonymously). Anyone can ask the program chairs for permission to become an anonymous designated reviewer (open bidding). The program chairs have ultimate control over the publication of each anonymous review. Open commenters will have to use their real name, linked with their Google Scholar profile. - Authors can post comments in response to reviews and comments. They can revise the paper as many time as they want, possibly citing some of the reviews. - On March 15th 2013, the ICLR program committee will consider all submitted papers, comments, and reviews and will decide which papers are to be presented at the conference as oral or poster. Although papers can be modified after that date, there is no guarantee that the modifications will be taken into account by the committee. - The best of the accepted papers (the top 25%-50%) will be given oral presentations at the conference. We have made arrangements for revised versions of selected papers from the conference to be published in a JMLR special topic issue. - The other papers will be considered non-archival (like workshop presentations), and could be submitted elsewhere (modified or not), although the ICLR site will maintain the reviews, the comments, and the links to the arXiv versions. Invited Speakers ------------------------ Jeff Bilmes (U. Washington) Jason Eisner (JHU) Geoffrey Hinton (U. Toronto) Ruslan Salakhutdinov (U. Toronto) Max Welling (U.Amsterdam) Alan Yuille (UCLA) General Chairs --------------------- Yoshua Bengio, Université de Montreal Yann LeCun, New York University Program Chairs ----------------------- Aaron Courville, Université de Montreal Rob Fergus, New York University Chris Manning, Stanford University Contact ----------- The organizers can be contacted at: iclr2013.programchairs@gmail.com Related CFPs ECML-PKDD 2013 European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases ICML 2013 The 30th International Conference on Machine Learning MLDM 2013 International Conference on Machine Learning and Data Mining ICMLC 2013 2013 5th International Conference on Machine Learning and Computing UAI 2013 29th Conference on Uncertainty in Artificial Intelligence CIKM 2013 ACM Conference of Information and Knowledge Management
个人分类: 深度学习|3184 次阅读|0 个评论
great figures in deep learning
justinzhao 2012-12-15 15:21
http://www.smarttypes.org/blog/deep_learning
个人分类: 读书日记|1946 次阅读|0 个评论
[转载] 女人味?
热度 3 zuojun 2012-3-12 03:48
"我和很多留学生一 样,在做学生的时候就有了孩子 ,… 那个 时候能有时间睡觉休息就很奢侈了, 什么叫女人的情 调,女人的雅味, 女人的韵味 ? 我只知道什么叫女人的速度。 当我有条件小 资了, 有条件学 习女人味了, 我 说女人味是有条件的 。" To read more: http://blog.creaders.net/guangcao/user_blog_diary.php?did=106040
个人分类: Tea Time/Coffee Break|1806 次阅读|9 个评论
Deep Learning
openmind 2010-7-28 14:56
前几天一个R友提到deep learning. 因为我一直在关注NN的东西,所以,今天google了一把。NN,准确的说是ANN,难道开始因为Deep learning又热了? NN 一直在 AI 领域兴风作浪,从1960年的Perceptron,到1986年的 BP 算法【在此期间,SVM等SLT也是硕果累累】,再到2006年 Hinton等人在DBN中成功运用了deep learnning之后,如今的NN又开热了。 无容置疑,强大的计算能力使得DL成为可能。 试问,NN 的下一个热点又将是什么呢?谁又是第二个Hinton呢? 看看,如何将你NN也DL一把?如此以来,grants 和 theses,papers 就有了,嘻嘻。 更多可以参考: http://deeplearning.net/
个人分类: 科普天地|536 次阅读|0 个评论
[转载]我们是多么的渺小 when compared to ultra deep field...
zuojun 2010-5-8 08:43
If you cannot watch it now, please save the link for future... http://www.flixxy.com/hubble-ultra-deep-field-3d.htm A Blog by 王元君 (发表于2009-7-15 18:23:39) has a few pictures from the above link, and his thoughts... http://www.sciencenet.cn/m/user_content.aspx?id=243699
个人分类: Thoughts of Mine|2774 次阅读|0 个评论
[转载]高通量测序技术-深度测序-deep sequencing
niupiye 2010-4-16 10:28
高通量测序技术是对传统测序一次革命性的改变,一次对几十万到几百万条DNA分子进行序列测定,使得对一个物种的转录组和基因组进行细致全貌的分析成为可能,所以又被称为深度测序(deep sequencing)。 自从2005年454 Life Sciences公司(2007年该公司被Roche正式收购)推出了454 FLX焦磷酸测序平台(454 FLX pyrosequencing platform)以来,曾推出过3730xl DNA测序仪(3730xl DNA Analyzer)的Applied BioSystem(ABI)这家一直占据着测序市场最大份额的公司的领先地位就开始动摇了,因为他们的拳头产品毛细管阵列电泳测序仪系列(series capillary array electrophoresis sequencing machines)遇到了两个强有力的竞争对手,一个就是罗氏公司(Roche)的454 测序仪(Roche GS FLX sequencer),,另一个就是2006年美国Illumina公司推出的Solexa基因组分析平台(Genome Analyzer platform),为此,2007年ABI公司推出了自主研发的 SOLiD 测序仪(ABI SOLiD sequencer)。这三个测序平台即为目前高通量测序平台的代表。 公司名称 技术原理 技术开发者 商业模式 Apply Biosystems(ABI) 基于磁珠的大规模并行克隆连接DNA测序法 美国Agencourt私人基因组学公司(APG) 上市公司: 销售设备和试剂获取利润 Illumina 合成测序法 英国Solexa公司首席科学家David Bentley 上市公司: 销售设备和试剂获取利润 Roche 大规模并行焦磷酸合成测序法 美国454 Life Sciences公司的创始人Jonathan Rothberg 上市公司: 销售设备和试剂获取利润 Helicos 大规模并行单分子合成测序法 美国斯坦福大学生物工程学家Stephen Quake 上市公司:2007年5月首次公开募股(IPO) Complete Genomics DNA纳米阵列与组合探针锚定连接测序法 美国Complete Genomics公司首席科学家radoje drmanac 私人公司:投资额为4650万美元 这些平台共同的特点是极高的测序通量,相对于传统测序的96道毛细管测序,高通量测序一次实验可以读取40万到400万条序列。读取长度根据平台不同从25bp到 450bp ,不同的测序平台在一次实验中,可以读取1G到 14G 不等的碱基数,这样庞大的测序能力是传统测序仪所不能比拟的。 能否以有限的成本用一台仪器产生足够数量的序列标记也是另一个需要改善的重要问题。这个问题已经被Roche公司解决了,应用他们的系统,仅花费阅读35bp或者更小片段的成本就能产生比35bp多10倍的序列标记。 一、高通量测序的应用 高通量测序可以帮助研究者跨过文库构建这一实验步骤,可以非常轻松完成基因组重测序(re-sequence)。但是也应该看到,由于高通量测序读取长度的限制,使其在对未知基因组进行从头测序( novo sequencing)的应用受到限制,这部分工作仍然需要传统测序(读取长度达到850 碱基)的协助。但是这并不影响高通量测序技术在 全基因组mRNA表达谱,microRNA表达谱,ChIP-chip 以及 DNA甲基化 等方面的应用。 2008年Mortazavi等人对小鼠的大脑、肝脏和骨骼肌进行了RNA 深度测序,这项工作展示了深度测序在转录组研究上的两大进展,表达计数和序列分析。 高通量测序另一个被广泛应用的领域是小分子RNA或非编码RNA( ncRNA )研究。测序方法能轻易的解决芯片技术在检测小分子时遇到的技术难题(短序列,高度同源),而且小分子RNA的短序列正好配合了高通量测序的长度,使得数据不浪费,同时测序方法还能在实验中发现新的小分子RNA。 在DNA蛋白质相互作用的研究上,染色质免疫沉淀深度测序(ChIP-seq)实验也展示了其非常大的潜力。染色质免疫沉淀以后的DNA 直接进行测序,对比ref seq可以直接获得蛋白与DNA结合的位点信息,相比ChIP-chip,ChIP-seq可以检测更小的结合区段、未知的结合位点、结合位点内的突变情况和蛋白亲合力较低的区段。 二、高通量测序的原理 Solexa测序原理: 边合成边测序 Solexa 方法是利用单分子阵列测试 genotyping ,此种测序法首先是将 DNA 从细胞中提取,然后将其随机打断,并回收 100 - 200bp 大小的片段,再将接头连接到片段上,然后将片段放到测序的玻璃片上,玻璃片上固定的有与接头片段互补的序列,对这些DNA片段进行原位扩增。在下一步反应中,四种荧光标记的染料应用边合成边测序( Sequencing By Synthesis )的原理,在每个循环过程里,荧光标记的核苷和聚合酶被加入到单分子阵列中。互补的核苷和核苷酸片断的第一个碱基配对,通过酶加入到引物上。多余的核苷被移走。这样每个单链 DNA 分子通过互补碱基的配对被延伸,利用生物发光蛋白,比如萤火虫的荧光素酶,可通过碱基加到引物后端时所释放出的焦磷酸盐来提供检测信号。针对每种碱基的特定波长的激光激发结合上的核苷的标记,这个标记会释放出荧光。荧光信号被 CCD 采集, CCD 快速扫描整个阵列检测特定的结合到每个片断上的碱基。通过上述的结合,检测可以重复几十个循环,这样就有可能决定核苷酸片断中的几十个碱基(50bp)。   454测序原理: 焦磷酸测序   依靠生物发光进行DNA序列分析的新技术;在DNA聚合酶,ATP硫酸化酶,荧光素酶和双磷酸酶的协同作用下,将引物上每一个dNTP的聚合与一次荧光信号释放偶联起来。通过检测荧光信号释放的有无和强度,就可以达到实时测定DNA序列的目的。此技术不需要荧光标记的引物或核酸探针,也不需要进行电泳;具有分析结果快速、准确、灵敏度高和自动化的特点。 Roche GS FLX System是一种基于焦磷酸测序原理而建立起来的高通量基因组测序系统。在测序时,使用了一种叫做Pico TiterPlate(PTP)的平板,它含有160多万个由光纤组成的孔,孔中载有化学发光反应所需的各种酶和底物。测序开始时,放置在四个单独的试剂瓶里的四种碱基,依照T、A、C、G的顺序依次循环进入PTP板,每次只进入一个碱基。如果发生碱基配对,就会释放一个焦磷酸。这个焦磷酸在各种酶的作用下,经过一个合成反应和一个化学发光反应,最终将荧光素氧化成氧化荧光素,同时释放出光信号。此反应释放出的光信号实时被仪器配置的高灵敏度CCD捕获到。有一个碱基和测序模板进行配对,就会捕获到一分子的光信号;由此一一对应,就可以准确、快速地确定待测模板的碱基序列。 http://blog.sina.com.cn/s/blog_4dd865a70100g9n9.html
个人分类: 实验笔记|21294 次阅读|1 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-16 15:47

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部