科学网

 找回密码
  注册

tag 标签: machine

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

[转载]zhou zhihua 对AI领域的会议的评点
junyichai 2012-3-12 11:44
The First Class: 今天先谈谈AI里面tier-1的conferences, 其实基本上就是AI里面大家比较公认的top conference. 下面同分的按字母序排列. IJCAI (1+): AI最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI实在太大, 所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machine learning、computer vision这么大的领域每次大概也就10篇左右, 所以难度很大. 不过从录用率上来看倒不太低,基本上20%左右, 因为内行人都会掂掂分量, 没希望的就别浪费reviewer的时间了. 最近中国大陆投往国际会议的文章象潮水一样, 而且因为国内很少有能自己把关的研究组, 所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率. 在这种情况下, 估计这几年国际会议的录用率都会降下去. 另外, 以前的IJCAI是没有poster的, 03年开始, 为了减少被误杀的好人, 增加了2页纸的poster.值得一提的是, IJCAI是由貌似一个公司的"IJCAI Inc."主办的(当然实际上并不是公司, 实际上是个基金会), 每次会议上要发几个奖, 其中最重要的两个是IJCAI Research Excellence Award 和 Computer Thoughts Award, 前者是终身成就奖, 每次一个人, 基本上是AI的最高奖(有趣的是, 以AI为主业拿图灵奖的6位中, 有2位还没得到这个奖), 后者是奖给35岁以下的青年科学家, 每次一个人. 这两个奖的获奖演说是每次IJCAI的一个重头戏.另外, IJCAI 的 PC member 相当于其他会议的area chair, 权力很大, 因为是由PC member去找 reviewer 来审, 而不象一般会议的PC member其实就是 reviewer. 为了制约这种权力, IJCAI的审稿程序是每篇文章分配2位PC member, primary PC member去找3位reviewer, second PC member 找一位. AAAI (1): 美国人工智能学会AAAI的年会. 是一个很好的会议, 但其档次不稳定, 可以给到1+, 也可以给到1-或者2+, 总的来说我给它"1". 这是因为它的开法完全受IJCAI制约: 每年开, 但如果这一年的IJCAI在北美举行, 那么就停开. 所以, 偶数年里因为没有IJCAI, 它就是最好的AI综合性会议, 但因为号召力毕竟比IJCAI要小一些, 特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是), 所以比IJCAI还是要稍弱一点, 基本上在1和1+之间; 在奇数年, 如果IJCAI不在北美, AAAI自然就变成了比IJCAI低一级的会议(1-或2+), 例如2005年既有IJCAI又有AAAI, 两个会议就进行了协调, 使得IJCAI的录用通知时间比AAAI的deadline早那么几天, 这样IJCAI落选的文章可以投往AAAI.在审稿时IJCAI 的 PC chair也在一直催, 说大家一定要快, 因为AAAI那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了. COLT (1): 这是计算学习理论最好的会议, ACM主办, 每年举行. 计算学习理论基本上可以看成理论计算机科学和机器学习的交叉, 所以这个会被一些人看成是理论计算机科学的会而不是AI的会. 我一个朋友用一句话对它进行了精彩的刻画: "一小群数学家在开会". 因为COLT的领域比较小, 所以每年会议基本上都是那些人. 这里顺便提一件有趣的事, 因为最近国内搞的会议太多太滥, 而且很多会议都是LNCS/LNAI出论文集, LNCS/LNAI基本上已经被搞臭了, 但很不幸的是, LNCS/LNAI中有一些很好的会议, 例如COLT. CVPR (1): 计算机视觉和模式识别方面最好的会议之一, IEEE主办, 每年举行. 虽然题目上有计算机视觉, 但个人认为它的模式识别味道更重一些. 事实上它应该是模式识别最好的会议, 而在计算机视觉方面, 还有ICCV与之相当. IEEE一直有个倾向, 要把会办成"盛会", 历史上已经有些会被它从quality很好的会办成"盛会"了. CVPR搞不好也要走这条路. 这几年录的文章已经不少了. 最近负责CVPR会议的TC的chair发信说, 对这个community来说, 让好人被误杀比被坏人漏网更糟糕, 所以我们是不是要减少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了. ICCV (1): 介绍CVPR的时候说过了, 计算机视觉方面最好的会之一. IEEE主办, 每年举行. ICML (1): 机器学习方面最好的会议之一. 现在是IMLS主办, 每年举行. 参见关于NIPS的介绍. NIPS (1): 神经计算方面最好的会议之一, NIPS主办, 每年举行. 值得注意的是, 这个会每年的举办地都是一样的, 以前是美国丹佛, 现在是加拿大温哥华; 而且它是年底开会,会开完后第2年才出论文集, 也就是说, NIPS'05的论文集是06年出. 会议的名字是"Advances in Neural Information Processing Systems", 所以, 与ICMLECML这样的"标准的"机器学习会议不同, NIPS里有相当一部分神经科学的内容, 和机器学习有一定的距离. 但由于会议的主体内容是机器学习, 或者说与机器学习关系紧密, 所以不少人把NIPS看成是机器学习方面最好的会议之一. 这个会议基本上控制在Michael Jordan的徒子徒孙手中, 所以对Jordan系的人来说, 发NIPS并不是难事, 一些未必很强的工作也能发上去, 但对这个圈子之外的人来说, 想发一篇实在很难, 因为留给"外人"的口子很小. 所以对Jordan系以外的人来说, 发NIPS的难度比ICML更大. 换句话说, ICML比较开放, 小圈子的影响不象NIPS那么大, 所以北美和欧洲人都认, 而NIPS则有些人(特别是一些欧洲人, 包括一些大家)坚决不投稿. 这对会议本身当然并不是好事, 但因为Jordan系很强大, 所以它似乎也不太care. 最近IMLS(国际机器学习学会)改选理事, 有资格提名的人包括近三年在ICMLECMLCOLT发过文章的人, NIPS则被排除在外了. 无论如何, 这是一个非常好的会. ACL (1-): 计算语言学/自然语言处理方面最好的会议, ACL (Association of Computational Linguistics) 主办, 每年开. KR (1-): 知识表示和推理方面最好的会议之一, 实际上也是传统AI(即基于逻辑的AI)最好的会议之一. KR Inc.主办, 现在是偶数昕? SIGIR (1-): 信息检索方面最好的会议, ACM主办, 每年开. 这个会现在小圈子气越来越重. 信息检索应该不算AI, 不过因为这里面用到机器学习越来越多, 最近几年甚至有点机器学习应用会议的味道了, 所以把它也列进来. SIGKDD (1-): 数据挖掘方面最好的会议, ACM主办, 每年开. 这个会议历史比较短, 毕竟, 与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿. 在几年前还很难把它列在tier-1里面, 一方面是名声远不及其他的top conference响亮, 另一方面是相对容易被录用. 但现在它被列在tier-1应该是毫无疑问的事情了. 另: 参见sir和lucky的介绍. UAI (1-): 名字叫"人工智能中的不确定性", 涉及表示推理学习等很多方面, AUAI (Association of UAI) 主办, 每年开. The Second Class: tier-2的会议列得不全, 我熟悉的领域比较全一些. AAMAS (2+): agent方面最好的会议. 但是现在agent已经是一个一般性的概念, 几乎所有AI有关的会议上都有这方面的内容, 所以AAMAS下降的趋势非常明显. ECCV (2+): 计算机视觉方面仅次于ICCV的会议, 因为这个领域发展很快, 有可能升级到1-去. ECML (2+): 机器学习方面仅次于ICML的会议, 欧洲人极力捧场, 一些人认为它已经是1-了. 我保守一点, 仍然把它放在2+. 因为机器学习发展很快, 这个会议的reputation上升非常明显. ICDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和SDM相当. 这个会只有5年历史, 上升速度之快非常惊人. 几年前ICDM还比不上PAKDD, 现在已经拉开很大距离了. SDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和ICDM相当. SIAM的底子很厚, 但在CS里面的影响比ACM和IEEE还是要小, SDM眼看着要被ICDM超过了, 但至少目前还是相当的. ICAPS (2): 人工智能规划方面最好的会议, 是由以前的国际和欧洲规划会议合并来的. 因为这个领域逐渐变冷清, 影响比以前已经小了. ICCBR (2): Case-Based Reasoning方面最好的会议. 因为领域不太大, 而且一直半冷不热, 所以总是停留在2上. COLLING (2): 计算语言学/自然语言处理方面仅次于ACL的会, 但与ACL的差距比ICCV-ECCV和ICML-ECML大得多. ECAI (2): 欧洲的人工智能综合型会议, 历史很久, 但因为有IJCAI/AAAI压着, 很难往上升. ALT (2-): 有点象COLT的tier-2版, 但因为搞计算学习理论的人没多少, 做得好的数来数去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非计算学习理论的内容. EMNLP (2-): 计算语言学/自然语言处理方面一个不错的会. 有些人认为与COLLING相当, 但我觉得它还是要弱一点. ILP (2-): 归纳逻辑程序设计方面最好的会议. 但因为很多其他会议里都有ILP方面的内容, 所以它只能保住2-的位置了. PKDD (2-): 欧洲的数据挖掘会议, 目前在数据挖掘会议里面排第4. 欧洲人很想把它抬起来, 所以这些年一直和ECML一起捆绑着开, 希望能借ECML把它带起来. 但因为ICDM和SDM, 这已经不太可能了. 所以今年的PKDD和ECML虽然还是一起开, 但已经独立审稿了(以前是可以同时投两个会, 作者可以声明优先被哪个会考虑, 如果ECML中不了还可以被PKDD接受). The Third Class: 列得很不全. 另外, 因为AI的相关会议非常多, 所以能列在tier-3也算不错了, 基本上能进到所有AI会议中的前30%吧 ACCV (3+): 亚洲的计算机视觉会议, 在亚太级别的会议里算很好的了. DS (3+): 日本人发起的一个接近数据挖掘的会议. ECIR (3+): 欧洲的信息检索会议, 前几年还只是英国的信息检索会议. ICTAI (3+): IEEE最主要的人工智能会议, 偏应用, 是被IEEE办烂的一个典型. 以前的quality还是不错的, 但是办得越久声誉反倒越差了, 糟糕的是似乎还在继续下滑, 现在其实3+已经不太呆得住了. PAKDD (3+): 亚太数据挖掘会议, 目前在数据挖掘会议里排第5. ICANN (3+): 欧洲的神经网络会议, 从quality来说是神经网络会议中最好的, 但这个领域的人不重视会议,在该领域它的重要性不如IJCNN. AJCAI (3): 澳大利亚的综合型人工智能会议, 在国家/地区级AI会议中算不错的了. CAI (3): 加拿大的综合型人工智能会议, 在国家/地区级AI会议中算不错的了. CEC (3): 进化计算方面最重要的会议之一, 盛会型. IJCNN/CEC/FUZZ-IEEE这三个会议是计算智能或者说软计算方面最重要的会议, 它们经常一起开, 这时就叫WCCI (World Congress on Computational Intelligence). 但这个领域和CS其他分支不太一样, 倒是和其他学科相似, 只重视journal, 不重视会议, 所以录用率经常在85%左右, 所录文章既有quality非常高的论文, 也有入门新手的习作. FUZZ-IEEE (3): 模糊方面最重要的会议, 盛会型, 参见CEC的介绍. GECCO (3): 进化计算方面最重要的会议之一, 与CEC相当,盛会型. ICASSP (3): 语音方面最重要的会议之一, 这个领域的人也不很care会议. ICIP (3): 图像处理方面最著名的会议之一, 盛会型. ICPR (3): 模式识别方面最著名的会议之一, 盛会型. IEA/AIE (3): 人工智能应用会议. 一般的会议提名优秀论文的通常只有几篇文章, 被提名就已经是很高的荣誉了, 这个会很有趣, 每次都搞1、20篇的优秀论文提名, 专门搞几个session做被提名论文报告, 倒是很热闹. IJCNN (3): 神经网络方面最重要的会议, 盛会型, 参见CEC的介绍. IJNLP (3): 计算语言学/自然语言处理方面比较著名的一个会议. PRICAI (3): 亚太综合型人工智能会议, 虽然历史不算短了, 但因为比它好或者相当的综合型会议太多, 所以很难上升. Combined List: 说明: 纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全.同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的 tier-1: IJCAI (1+): International Joint Conference on Artificial Intelligence AAAI (1): National Conference on Artificial Intelligence COLT (1): Annual Conference on Computational Learning Theory CVPR (1): IEEE International Conference on Computer Vision and Pattern Recognition ICCV (1): IEEE International Conference on Computer Vision ICML (1): International Conference on Machine Learning NIPS (1): Annual Conference on Neural Information Processing Systems ACL (1-): Annual Meeting of the Association for Computational Linguistics KR (1-): International Conference on Principles of Knowledge Representation and Reasoning SIGIR (1-): Annual International ACM SIGIR Conference on Research and Development in Information Retrieval SIGKDD (1-): ACM SIGKDD International Conference on Knowledge Discovery and Data Mining UAI (1-): International Conference on Uncertainty in Artificial Intelligence tier-2: AAMAS (2+): International Joint Conference on Autonomous Agents and Multiagent Systems ECCV (2+): European Conference on Computer Vision ECML (2+): European Conference on Machine Learning ICDM (2+): IEEE International Conference on Data Mining SDM (2+): SIAM International Conference on Data Mining ICAPS (2): International Conference on Automated Planning and Scheduling ICCBR (2): International Conference on Case-Based Reasoning COLLING (2): International Conference on Computational Linguistics ECAI (2): European Conference on Artificial Intelligence ALT (2-): International Conference on Algorithmic Learning Theory EMNLP (2-): Conference on Empirical Methods in Natural Language Processing ILP (2-): International Conference on Inductive Logic Programming PKDD (2-): European Conference on Principles and Practice of Knowledge Discovery in Databases tier-3: ACCV (3+): Asian Conference on Computer Vision DS (3+): International Conference on Discovery Science ECIR (3+): European Conference on IR Research ICTAI (3+): IEEE International Conference on Tools with Artificial Intelligence PAKDD (3+): Pacific-Asia Conference on Knowledge Discovery and Data Mining ICANN (3+): International Conference on Artificial Neural Networks AJCAI (3): Australian Joint Conference on Artificial Intelligence CAI (3): Canadian Conference on Artificial Intelligence CEC (3): IEEE Congress on Evolutionary Computation FUZZ-IEEE (3): IEEE International Conference on Fu Systems GECCO (3): Genetic and Evolutionary Computation Conference ICASSP (3): International Conference on Acoustics, Speech, and Signal Processing ICIP (3): International Conference on Image Processing ICPR (3): International Conference on Pattern Recognition IEA/AIE (3): International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems IJCNN (3): International Joint Conference on Neural Networks IJNLP (3): International Joint Conference on Natural Language Processing PRICAI (3): Pacific-Rim International Conference on Artificial Intelligence
194 次阅读|0 个评论
machine learning introduction
jiangdm 2012-2-6 09:35
书籍: 1. 入门好书《Programming Collective Intelligence》,培养兴趣是最重要的一环,一上来看大部头很容易被吓走的:P 2. Peter Norvig 的 《AI, Modern Approach 2nd》(无争议的领域经典),上次讨论中 Shenli 使我开始看这本书了,建议有选择的看,部头还是太大了,比如我先看里面的概率推理部分的。 3. 《The Elements of Statistical Learning》,数学性比较强,可以做参考了。 4. 《Foundations of Statistical Natural Language Processing》,自然语言处理领域公认经典。 5. 《Data Mining, Concepts and Techniques》,华裔科学家写的书,相当深入浅出。 6. 《Managing Gigabytes》,信息检索经典。 7. 《Information Theory:Inference and Learning Algorithms》,参考书吧,比较深。 相关数学基础(参考,不是拿来通读的): 《矩阵分析》,Roger Horn。矩阵分析领域无争议的经典。 《概率论及其应用》,威廉·费勒。也是极牛的书。 线性代数的? 《Nonlinear Programming, 2nd》非线性规划的参考书。 《Convex Optimization》凸优化的参考书 Bishop Pattern Recognition and Machine Learning 工具: 1. Weka (或知识发现大奖的数据挖掘开源工具集,非常华丽 Tom Michell 主页上 Andrew Moore 周志华 统计机器学习概论 .ppt 强化学习.ppt 机器学习研究进展.ppt 机器学习及其挑战.ppt AdvanceML.ppt 机器学习研究及最新进展.pdf
个人分类: ML|1 次阅读|0 个评论
IEEE Spectrum Seminar – S2 – The brain of a new machine
feiyou 2011-12-21 17:07
Abstract: 介绍由于忆阻器的研究进展,人工智能在HP实验室的研究下能够往前进一大步。本Session从大脑和神经元的基础入手,解释人工智能的现状和终极目标。 并介绍了忆阻器的基本原理和特性。介绍HP实验室的MoNETA计划的结构、原理及研发步骤和最终目标。 slides download here (资料中涉及图表文字均归原作者所有,仅作个人学习参考,部分文献来自网络,未一一列举参考文献)
2159 次阅读|0 个评论
[转载]南京大学周志华对AI会议的评述
hustliaohh 2011-12-5 20:58
The First Class: 今天先谈谈AI里面tier-1的conferences, 其实基本上就是AI里面大家比较公认的top conference. 下面同分的按字母序排列. IJCAI (1+): AI最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI 实在太大, 所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个 领域就没几篇了,象machine learning、computer vision这么大的领域每次大概也 就10篇左右, 所以难度很大. 不过从录用率上来看倒不太低,基本上20%左右, 因为内 行人都会掂掂分量, 没希望的就别浪费reviewer的时间了. 最近中国大陆投往国际会 议的文章象潮水一样, 而且因为国内很少有能自己把关的研究组, 所以很多会议都在 complain说中国的低质量文章严重妨碍了PC的工作效率. 在这种情况下, 估计这几年 国际会议的录用率都会降下去. 另外, 以前的IJCAI是没有poster的, 03年开始, 为了 减少被误杀的好人, 增加了2页纸的poster.值得一提的是, IJCAI是由貌似一个公司 的"IJCAI Inc."主办的(当然实际上并不是公司, 实际上是个基金会), 每次会议上要 发几个奖, 其中最重要的两个是IJCAI Research Excellence Award 和 Computer Thoughts Award, 前者是终身成就奖, 每次一个人, 基本上是AI的最高奖(有趣的 是, 以AI为主业拿图灵奖的6位中, 有2位还没得到这个奖), 后者是奖给35岁以下的 青年科学家, 每次一个人. 这两个奖的获奖演说是每次IJCAI的一个重头戏.另外, IJCAI 的 PC member 相当于其他会议的area chair, 权力很大, 因为是由PC member 去找 reviewer 来审, 而不象一般会议的PC member其实就是 reviewer. 为了制约 这种权力, IJCAI的审稿程序是每篇文章分配2位PC member, primary PC member去找 3位reviewer, second PC member 找一位. AAAI (1): 美国人工智能学会AAAI的年会. 是一个很好的会议, 但其档次不稳定, 可 以给到1+, 也可以给到1-或者2+, 总的来说我给它"1". 这是因为它的开法完全受 IJCAI制约: 每年开, 但如果这一年的IJCAI在北美举行, 那么就停开. 所以, 偶数年 里因为没有IJCAI, 它就是最好的AI综合性会议, 但因为号召力毕竟比IJCAI要小一些, 特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是), 所以比IJCAI还是要稍弱 一点, 基本上在1和1+之间; 在奇数年, 如果IJCAI不在北美, AAAI自然就变成了比 IJCAI低一级的会议(1-或2+), 例如2005年既有IJCAI又有AAAI, 两个会议就进行了协 调, 使得IJCAI的录用通知时间比AAAI的deadline早那么几天, 这样IJCAI落选的文章 可以投往AAAI.在审稿时IJCAI 的 PC chair也在一直催, 说大家一定要快, 因为AAAI 那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了. COLT (1): 这是计算学习理论最好的会议, ACM主办, 每年举行. 计算学习理论基本上 可以看成理论计算机科学和机器学习的交叉, 所以这个会被一些人看成是理论计算 机科学的会而不是AI的会. 我一个朋友用一句话对它进行了精彩的刻画: "一小群数 学家在开会". 因为COLT的领域比较小, 所以每年会议基本上都是那些人. 这里顺便 提一件有趣的事, 因为最近国内搞的会议太多太滥, 而且很多会议都是LNCS/LNAI出 论文集, LNCS/LNAI基本上已经被搞臭了, 但很不幸的是, LNCS/LNAI中有一些很好的 会议, 例如COLT. CVPR (1): 计算机视觉和模式识别方面最好的会议之一, IEEE主办, 每年举行. 虽然题 目上有计算机视觉, 但个人认为它的模式识别味道更重一些. 事实上它应该是模式识 别最好的会议, 而在计算机视觉方面, 还有ICCV与之相当. IEEE一直有个倾向, 要把 会办成"盛会", 历史上已经有些会被它从quality很好的会办成"盛会"了. CVPR搞不好 也要走这条路. 这几年录的文章已经不少了. 最近负责CVPR会议的TC的chair发信 说, 对这个community来说, 让好人被误杀比被坏人漏网更糟糕, 所以我们是不是要减 少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了. ICCV (1): 介绍CVPR的时候说过了, 计算机视觉方面最好的会之一. IEEE主办, 每年举行 . ICML (1): 机器学习方面最好的会议之一. 现在是IMLS主办, 每年举行. 参见关于NIPS的 介绍. NIPS (1): 神经计算方面最好的会议之一, NIPS主办, 每年举行. 值得注意的是, 这个会 每年的举办地都是一样的, 以前是美国丹佛, 现在是加拿大温哥华; 而且它是年底开会, 会开完后第2年才出论文集, 也就是说, NIPS'05的论文集是06年出. 会议的名字是 "Advances in Neural Information Processing Systems", 所以, 与ICML\ECML这样 的"标准的"机器学习会议不同, NIPS里有相当一部分神经科学的内容, 和机器学习有 一定的距离. 但由于会议的主体内容是机器学习, 或者说与机器学习关系紧密, 所以 不少人把NIPS看成是机器学习方面最好的会议之一. 这个会议基本上控制在Michael Jordan的徒子徒孙手中, 所以对Jordan系的人来说, 发NIPS并不是难事, 一些未必很 强的工作也能发上去, 但对这个圈子之外的人来说, 想发一篇实在很难, 因为留给"外 人"的口子很小. 所以对Jordan系以外的人来说, 发NIPS的难度比ICML更大. 换句话说, ICML比较开放, 小圈子的影响不象NIPS那么大, 所以北美和欧洲人都认, 而NIPS则有 些人(特别是一些欧洲人, 包括一些大家)坚决不投稿. 这对会议本身当然并不是好事, 但因为Jordan系很强大, 所以它似乎也不太care. 最近IMLS(国际机器学习学会)改选 理事, 有资格提名的人包括近三年在ICML\ECML\COLT发过文章的人, NIPS则被排除在 外了. 无论如何, 这是一个非常好的会. ACL (1-): 计算语言学/自然语言处理方面最好的会议, ACL (Association of Computational Linguistics) 主办, 每年开. KR (1-): 知识表示和推理方面最好的会议之一, 实际上也是传统AI(即基于逻辑的AI) 最好的会议之一. KR Inc.主办, 现在是偶数年开. SIGIR (1-): 信息检索方面最好的会议, ACM主办, 每年开. 这个会现在小圈子气越来 越重. 信息检索应该不算AI, 不过因为这里面用到机器学习越来越多, 最近几年甚至 有点机器学习应用会议的味道了, 所以把它也列进来. SIGKDD (1-): 数据挖掘方面最好的会议, ACM主办, 每年开. 这个会议历史比较短, 毕竟, 与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿. 在几年前还很难把它列 在tier-1里面, 一方面是名声远不及其他的top conference响亮, 另一方面是相对容易 被录用. 但现在它被列在tier-1应该是毫无疑问的事情了. 另: 参见sir和lucky的介绍. UAI (1-): 名字叫"人工智能中的不确定性", 涉及表示\推理\学习等很多方面, AUAI (Association of UAI) 主办, 每年开. The Second Class: tier-2的会议列得不全, 我熟悉的领域比较全一些. AAMAS (2+): agent方面最好的会议. 但是现在agent已经是一个一般性的概念, 几乎所有AI有关的会议上都有这方面的内容, 所以AAMAS下降的趋势非常明显. ECCV (2+): 计算机视觉方面仅次于ICCV的会议, 因为这个领域发展很快, 有可能 升级到1-去. ECML (2+): 机器学习方面仅次于ICML的会议, 欧洲人极力捧场, 一些人认为它已 经是1-了. 我保守一点, 仍然把它放在2+. 因为机器学习发展很快, 这个会议 的reputation上升非常明显. ICDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和SDM相当. 这个会只有5年 历史, 上升速度之快非常惊人. 几年前ICDM还比不上PAKDD, 现在已经拉开很大 距离了. SDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和ICDM相当. SIAM的底子很厚, 但在CS里面的影响比ACM和IEEE还是要小, SDM眼看着要被ICDM超过了, 但至少 目前还是相当的. ICAPS (2): 人工智能规划方面最好的会议, 是由以前的国际和欧洲规划会议合并 来的. 因为这个领域逐渐变冷清, 影响比以前已经小了. ICCBR (2): Case-Based Reasoning方面最好的会议. 因为领域不太大, 而且一直 半冷不热, 所以总是停留在2上. COLLING (2): 计算语言学/自然语言处理方面仅次于ACL的会, 但与ACL的差距比 ICCV-ECCV和ICML-ECML大得多. ECAI (2): 欧洲的人工智能综合型会议, 历史很久, 但因为有IJCAI/AAAI压着, 很难往上升. ALT (2-): 有点象COLT的tier-2版, 但因为搞计算学习理论的人没多少, 做得好 的数来数去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非计算 学习理论的内容. EMNLP (2-): 计算语言学/自然语言处理方面一个不错的会. 有些人认为与COLLING 相当, 但我觉得它还是要弱一点. ILP (2-): 归纳逻辑程序设计方面最好的会议. 但因为很多其他会议里都有ILP方面 的内容, 所以它只能保住2-的位置了. PKDD (2-): 欧洲的数据挖掘会议, 目前在数据挖掘会议里面排第4. 欧洲人很想把 它抬起来, 所以这些年一直和ECML一起捆绑着开, 希望能借ECML把它带起来. 但因为ICDM和SDM, 这已经不太可能了. 所以今年的PKDD和ECML虽然还是一起开, 但已经独立审稿了(以前是可以同时投两个会, 作者可以声明优先被哪个会考虑, 如果ECML中不了还可以被PKDD接受). The Third Class: 列得很不全. 另外, 因为AI的相关会议非常多, 所以能列在tier-3也算不错了, 基本上能 进到所有AI会议中的前30%吧 ACCV (3+): 亚洲的计算机视觉会议, 在亚太级别的会议里算很好的了. DS (3+): 日本人发起的一个接近数据挖掘的会议. ECIR (3+): 欧洲的信息检索会议, 前几年还只是英国的信息检索会议. ICTAI (3+): IEEE最主要的人工智能会议, 偏应用, 是被IEEE办烂的一个典型. 以前的 quality还是不错的, 但是办得越久声誉反倒越差了, 糟糕的是似乎还在继续下滑, 现在 其实3+已经不太呆得住了. PAKDD (3+): 亚太数据挖掘会议, 目前在数据挖掘会议里排第5. ICANN (3+): 欧洲的神经网络会议, 从quality来说是神经网络会议中最好的, 但这个领域 的人不重视会议,在该领域它的重要性不如IJCNN. AJCAI (3): 澳大利亚的综合型人工智能会议, 在国家/地区级AI会议中算不错的了. CAI (3): 加拿大的综合型人工智能会议, 在国家/地区级AI会议中算不错的了. CEC (3): 进化计算方面最重要的会议之一, 盛会型. IJCNN/CEC/FUZZ-IEEE这三个会议是 计算智能或者说软计算方面最重要的会议, 它们经常一起开, 这时就叫WCCI (World Congress on Computational Intelligence). 但这个领域和CS其他分支不太一样, 倒是和 其他学科相似, 只重视journal, 不重视会议, 所以录用率经常在85%左右, 所录文章既有 quality非常高的论文, 也有入门新手的习作. FUZZ-IEEE (3): 模糊方面最重要的会议, 盛会型, 参见CEC的介绍. GECCO (3): 进化计算方面最重要的会议之一, 与CEC相当,盛会型. ICASSP (3): 语音方面最重要的会议之一, 这个领域的人也不很care会议. ICIP (3): 图像处理方面最著名的会议之一, 盛会型. ICPR (3): 模式识别方面最著名的会议之一, 盛会型. IEA/AIE (3): 人工智能应用会议. 一般的会议提名优秀论文的通常只有几篇文章, 被提名 就已经是很高的荣誉了, 这个会很有趣, 每次都搞1、20篇的优秀论文提名, 专门搞几个 session做被提名论文报告, 倒是很热闹. IJCNN (3): 神经网络方面最重要的会议, 盛会型, 参见CEC的介绍. IJNLP (3): 计算语言学/自然语言处理方面比较著名的一个会议. PRICAI (3): 亚太综合型人工智能会议, 虽然历史不算短了, 但因为比它好或者相当的综 合型会议太多, 所以很难上升. Combined List: 说明: 纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全 . 同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令 人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的 tier-1: IJCAI (1+): International Joint Conference on Artificial Intelligence AAAI (1): National Conference on Artificial Intelligence COLT (1): Annual Conference on Computational Learning Theory CVPR (1): IEEE International Conference on Computer Vision and Pattern Recognition ICCV (1): IEEE International Conference on Computer Vision ICML (1): International Conference on Machine Learning NIPS (1): Annual Conference on Neural Information Processing Systems ACL (1-): Annual Meeting of the Association for Computational Linguistics KR (1-): International Conference on Principles of Knowledge Representation and Reasoning SIGIR (1-): Annual International ACM SIGIR Conference on Research and Development in Information Retrieval SIGKDD (1-): ACM SIGKDD International Conference on Knowledge Discovery and Data Mining UAI (1-): International Conference on Uncertainty in Artificial Intelligence tier-2: AAMAS (2+): International Joint Conference on Autonomous Agents and Multiagent Systems ECCV (2+): European Conference on Computer Vision ECML (2+): European Conference on Machine Learning ICDM (2+): IEEE International Conference on Data Mining SDM (2+): SIAM International Conference on Data Mining ICAPS (2): International Conference on Automated Planning and Scheduling ICCBR (2): International Conference on Case-Based Reasoning COLLING (2): International Conference on Computational Linguistics ECAI (2): European Conference on Artificial Intelligence ALT (2-): International Conference on Algorithmic Learning Theory EMNLP (2-): Conference on Empirical Methods in Natural Language Processing ILP (2-): International Conference on Inductive Logic Programming PKDD (2-): European Conference on Principles and Practice of Knowledge Discovery in Databases tier-3: ACCV (3+): Asian Conference on Computer Vision DS (3+): International Conference on Discovery Science ECIR (3+): European Conference on IR Research ICTAI (3+): IEEE International Conference on Tools with Artificial Intelligence PAKDD (3+): Pacific-Asia Conference on Knowledge Discovery and Data Mining ICANN (3+): International Conference on Artificial Neural Networks AJCAI (3): Australian Joint Conference on Artificial Intelligence CAI (3): Canadian Conference on Artificial Intelligence CEC (3): IEEE Congress on Evolutionary Computation FUZZ-IEEE (3): IEEE International Conference on Fu Systems GECCO (3): Genetic and Evolutionary Computation Conference ICASSP (3): International Conference on Acoustics, Speech, and Signal Processing ICIP (3): International Conference on Image Processing ICPR (3): International Conference on Pattern Recognition IEA/AIE (3): International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems IJCNN (3): International Joint Conference on Neural Networks IJNLP (3): International Joint Conference on Natural Language Processing PRICAI (3): Pacific-Rim International Conference on Artificial Intelligence 关于List的补充说明: 列list只是为了帮助新人熟悉领域, 给出的评分或等级都是个人意见, 仅供参考. 特别要 说明的是: 1. tier-1 conference上的文章并不一定比tier-3的好, 只能说前者的平均水准更高. 2. 研究工作的好坏不是以它发表在哪儿来决定的, 发表在高档次的地方只是为了让工作更 容易被同行注意到. tier-3会议上发表1篇被引用10次的文章可能比在tier-1会议上发表1 0篇被引用0次的文章更有价值. 所以, 数top会议文章数并没有太大意义, 重要的是同行的 评价和认可程度. 3. 很多经典工作并不是发表在高档次的发表源上, 有不少经典工作甚至是发表在很低档的 发表源上. 原因很多, 就不细说了. 4. 会议毕竟是会议, 由于审稿时间紧, 错杀好人和漏过坏人的情况比比皆是, 更何况还要 考虑到有不少刚开始做研究的学生在代老板审稿. 5. 会议的reputation并不是一成不变的,新会议可能一开始没什么声誉,但过几年后就野 鸡变凤凰,老会议可能原来声誉很好,但越来越往下滑. 6. 只有计算机科学才重视会议论文, 其他学科并不把会议当回事. 但在计算机科学中也有 不太重视会议的分支. 7. Politics无所不在. 你老板是谁, 你在哪个研究组, 你在哪个单位, 这些简单的因素都 可能造成决定性的影响. 换言之, 不同环境的人发表的难度是不一样的. 了解到这一点后 , 你可能会对high-level发表源上来自low-level单位名不见经传作者的文章特别注意(例 如如果计算机学报上发表了平顶山铁道电子信息科技学院的作者的文章,我一定会仔细读 ). 8. 评价体系有巨大的影响. 不管是在哪儿谋生的学者, 都需要在一定程度上去迎合评价体 系, 否则连生路都没有了, 还谈什么做研究. 以国内来说, 由于评价体系只重视journal, 有一些工作做得很出色的学者甚至从来不投会议. 另外, 经费也有巨大的制约作用. 国外 很多好的研究组往往是重要会议都有文章. 但国内是不行的, 档次低一些的会议还可以投 了只交注册费不开会, 档次高的会议不去做报告会有很大的负面影响, 所以只能投很少的 会议. 这是在国内做CS研究最不利的地方. 我的一个猜想:人民币升值对国内CS研究会有 不小的促进作用(当然, 人民币升值对整个中国来说利大于弊还是弊大于利很难说). 9. ... ... 最近,实验室的大牛Gawd也写了一个rank,说的也很好,并且反映了这些会议的一些最新 的变化。 1. NIPS:心中的痛,同样也是心中的梦想。尽管屡投屡被挫,但是要越挫越勇。不得不承 认,NIPS上的文章质量上还是非常上乘的。对于圈外人来说,NIPS总是很难。不管其匿名 与否,圈内的人一看便可猜个大概文章究竟出自何方神圣笔下。难为了我们这些无名小卒 。 1. UAI:同样也是梦想,文章质量一样的上乘,同样的难。 3. ICML:虽说去年国内人士灌水无数,但这并不能削弱ICML文章的质量和影响力,从另外 一个侧面讲,这正是说明了国内ML的进步神速。 3. AISTATS:别说他的文章接收率高,但和nips一样,想要进去还真得颇下一番功夫。看 看zoubin等人对此会如此钟爱便可知晓该会议文章质量究竟如何。当然,该会议每每选心 旷神怡之处做为栖身之地,也成为其吸引大牛竞相前往的得力手段。 5. IJCAI:且不论从前的IJCAI如何,上次在印度开的IJCAI可真是有点让人大跌眼镜,or al和poster文章数量之多都是一个里程碑。然而,并不能否定IJCAI在权内的影响力和号召 力,对于做AI的人来说,IJCAI应该还是一个最主要的会议。只是如果照上届那般海收,恐 怕文章质量无法保障。不知下届如何。 6. KDD:之所以把他写在IJCAI之后是因为他毕竟是从IJCAI上派生出来的,而其直至今日 的发展速度不可谓不让人赞叹。然而我认为,一个会如果不匿名,那么其文章质量必然得 不到大的飞跃。KDD里面的猫腻多了去了,不必熬述。希望可以尽快匿名。 7. ICCV:对于做CV的人来说,一定不同意把他排在第7位,然而就去年的iccv来看,在上 面发文的做方法的人比比皆是。对于做方法的人来说,这个位置我想比较公平。具体原由 大家只要看看上面做方法的文章便知。 7. CVPR:无法比较它与ICCV孰优孰劣,也许大部分人都认为ICCV稍胜一筹。我确认为不然 ,就去年ICCV上所发表的CVPR拒掉文章的数量便可见一斑。而且CVPR文章的投稿数量和接 收文章数都是与日俱增,不知是否在Miami可以看到上千人开会的场面。 7. SIGIR:做方法的人要在SIGIR上篇文章还是挺难的,因为实验的要求比较高。当然,M SRA除外。 10. AAAI:将其放在此处并不是从AI的角度,而还是从ML相关的方法的角度。该会议上出 现的ML以及PR文章的影响力不如上面8个会,不信可以去查citeseer。 11. SIGMM:当然,不可从做系统的同学的角度如此评价此会议。但是对于就是用ML的方法 做了MM应用的人来说,此会议也只能在这个地方了。 11. ECML:尽管上面有ICML押着,不过文章质量一直很坚挺,这点从接收率也可见一斑。 11. SDM:尽管老吴一直力挺ICDM,但我认为其文章质量仍无法与SDM相比。从参会的人就 可以看到。 11. ECCV:亏就亏在E字头了,不过文章质量不错。另外我发现上面发表的有关纯粹方法的 文章并不多。 15. ICDM:尽管一直用接收率标榜自己,然而一个最主要的原因是基数大。如果文章质量 没有硬保障,接收率也只是空谈。 上面也只是列出了我感兴趣的一些会议,从做方法的人的角度来看的rank。一家之谈,仅 供消遣。
个人分类: 科研道路|6315 次阅读|0 个评论
why hybrid? on machine learning vs. hand-coded rules in NLP
热度 1 liwei999 2011-10-8 04:00
Before we start discussing the topic of a hybrid NLP (Natural Language Processing) system, let us look at the concept of hybrid from our life experiences. I was driving a classical Camry for years and had never thought of a change to other brands because as a vehicle, there was really nothing to complain. Yes, style is old but I am getting old too, who beats whom? Until one day a few years ago when we needed to buy a new car to retire my damaged Camry. My daughter suggested hybrid, following the trend of going green. So I ended up driving a Prius ever since and fallen in love with it. It is quiet, with bluetooth and line-in, ideal for my iPhone music enjoyment. It has low emission and I finally can say bye to smog tests. It at least saves 1/3 gas. We could have gained all these benefits by purchasing an expensive all-electronic car but I want the same feel of power at freeway and dislike the concept of having to charge the car too frequently. Hybrid gets the best of both worlds for me now, and is not that more expensive. Now back to NLP. There are two major approaches to NLP, namely machine learning and grammar engineering (or hand-crafted rule system). As mentioned in previous posts, each has its own strengths and limitations, as summarized below. In general, a rule system is good at capturing a specific language phenomenon (trees) while machine learning is good at representing the general picture of the phenomena (forest). As a result, it is easier for rule systems to reach high precision but it takes a long time to develop enough rules to gradually raise the recall. Machine learning, on the other hand, has much higher recall, usually with compromise in precision or with a precision ceiling. Machine learning is good at simple, clear and coarse-grained task while rules are good at fine-grained tasks. One example is sentiment extraction. The coarse-grained task there is sentiment classification of documents (thumbs-up thumbs down), which can be achieved fast by a learning system. The fine-grained task for sentiment extraction involves extraction of sentiment details and the related actionable insights, including association of the sentiment with an object, differentiating positive/negative emotions from positive/negative behaviors, capturing the aspects or features of the object involved, decoding the motivation or reasons behind the sentiment,etc. In order to perform sophisticated tasks of extracting such details and actionable insights, rules are a better fit. The strength for machine learning lies in its retraining ability. In theory, the algorithm, once developed and debugged, remains stable and the improvement of a learning system can be expected once a larger and better quality corpus is used for retraining (in practice, retraining is not always easy: I have seen famous learning systems deployed in client basis for years without being retrained for various reasons). Rules, on the other hand, need to be manually crafted and enhanced. Supervised machine learning is more mature for applications but it requires a large labelled corpus. Unsupervised machine learning only needs raw corpus, but it is research oriented and more risky in application. A promising approach is called semi-supervised learning which only needs a small labelled corpus as seeds to guide the learning. We can also use rules to generate the initial corpus or seeds for semi-supervised learning. Both approaches involve knowledge bottlenecks. Rule systems's bottleneck is the skilled labor, it requires linguists or knowledge engineers to manually encode each rule in NLP, much like a software engineer in the daily work of coding. The biggest challenge to machine learning is the sparse data problem, which requires a very large labelled corpus to help overcome. The knowledge bottleneck for supervised machine learning is the labor required for labeling such a large corpus. We can build a system to combine the two approaches to complement each other. There are different ways of combining the two approaches in a hybrid system. One example is the practice we use in our product, where the results of insights are structured in a back-off model: high precision results from rules are ranked higher than the medium precision results returned by statistical systems or machine learning. This helps the system to reach configurable balance between precision and recall. When labelled data are available (e.g. the community has already built the corpus, or for some tasks, the public domain has the data, e.g. sentiment classification of movie reviews can use the review data with users' feedback on 5-star scale), and when the task is simple and clearly defined, using machine learning will greatly speed up the development of a capability. Not every task is suitable for both approaches. (Note that suitability is in the eyes of beholder: I have seen many passionate ML specialists willing to try everything in ML irrespective of the nature of the task: as an old saying goes, when you have a hammer, everything looks like a nail.) For example, machine learning is good at document classification whilerules are mostly powerless for such tasks. But for complicated tasks such as deep parsing, rules constructed by linguists usually achieve better performance than machine learning. Rules also perform better for tasks which have clear patterns, for example, identifying data items like time,weight, length, money, address etc. This is because clear patterns can be directly encoded in rules to be logically complete in coverage while machine learning based on samples still has a sparse data challenge. When designing a system, in addition to using a hybrid approach for some tasks, for other tasks, we should choose the most suitable approach depending on the nature of the tasks. Other aspects of comparison between the two approaches involve the modularization and debugging in industrial development. A rule system can be structured as a pipeline of modules fairly easily so that a complicated task is decomposed into a series of subtasks handled by different levels of modules. In such an architecture, a reported bug is easy to localize and fix by adjusting the rules in the related module. Machine learning systems are based on the learned model trained from the corpus. The model itself, once learned, is often like a black-box (even when the model is represented by a list of symbolic rules as results of learning, it is risky to manually mess up with the rules in fixing a data quality bug). Bugs are supposed to be fixable during retraining of the model based on enhanced corpus and/or adjusting new features. But re-training is a complicated process which may or may not solve the problem. It is difficultto localize and directly handle specific reported bugs in machine learning. To conclude, due to the complementary nature for pros/cons of the two basic approaches to NLP, a hybrid system involving both approaches is desirable, worth more attention and exploration. There are different ways of combining the two approaches in a system, including a back-off model using rulles for precision and learning for recall, semi-supervised learning using high precision rules to generate initial corpus or “seeds”, etc.. Related posts: Comparison of Pros and Cons of Two NLP Approaches Is Google ranking based on machine learning ? 《立委随笔:语言自动分析的两个路子》 《立委随笔:机器学习和自然语言处理》 【置顶:立委科学网博客NLP博文一览(定期更新版)】
个人分类: 立委科普|8706 次阅读|1 个评论
review: 马尔可夫逻辑网络研究
jiangdm 2011-9-24 22:51
马尔可夫逻辑网络研究 徐从富, 郝春亮, 苏保君, 楼俊杰 软件学报 , 2011 摘要: 马尔可夫逻辑网络是将马尔可夫网络与一阶逻辑相结合的一种统计关系学习模型,在自然语言处理、复 杂网络、信息抽取等领域都有重要的应用前景.较为全面、深入地总结了马尔可夫逻辑网络的理论模型、推理、权重和结构学习,最后指出了马尔可夫逻辑网络未来的主要研究方向. 关键词: Markov 逻辑网;统计关系学习;概率图模型;推理;权重学习;结构学习 the hard work of AI: 如何有效地处理复杂性和不确定性等问题? -- 统计关系学习(statistical relational learning, SRL) -- 概率图模型(probabilistic graphical model,PGM) 统计关系学习: 通过集成关系/逻辑表示、概率推理、不确定性处理、机器学习和数据挖掘等方法,以获取关系数据中的似然模型 概率图模型: 一种通用化的不确定性知识表示和处理方法 -- 贝叶斯网络(Bayesian networks) -- 隐马尔可夫模型(hidden Markov model) -- 马尔可夫决策过程(Markov decision process) -- 神经网络(neural network) idea: 统计关系学习(尤其是关系/逻辑表示) + 概率图模型 马尔可夫逻辑网络(Markov logic networks)= Markov网 + 一阶逻辑 Markov 网常用近似推理算法: 1 Markov 逻辑网 1.1 Markov网和一阶逻辑 Markov 网: Markov 随机场(Markov random field,MRF) 1.2 Markov逻辑网的定义和示例 定义: Markov 逻辑网 2 Markov 逻辑网的推理 -- 概率图模型推理的基本问题: 计算边缘概率、条件概率以及对于最大可能存在状态的推理 -- Markov 逻辑网推理: 生成的闭Markov 网 2.1 最大可能性问题 MaxWalkSAT 算法 LazySAT 算法 2.2 边缘概率和条件概率 概率图模型一重要推理形式: 计算边缘概率和条件概率,通常采用MCMC 算法、BP 算法等 3 Markov 逻辑网的学习 3.1 参数学习 3.1.1 伪最大似然估计 3.1.2 判别训练 训练Markov 逻辑网权重的高效算法: VP(voted perceptron)算法、CD(contrastive divergence)算法 3.2 结构学习 3.2.1 评价标准 结构学习两个难题: 一是如何搜索潜在的结构; 二是如何为搜索到的结构建立起一个评价标准,即如何筛选出最优结构. 3.2.2 自顶而下的结构学习 4 算法比较和分析 4.1 与基于Bayesian网的统计关系学习算法比较 基于 Bayesian 网的SRL 算法: 传统Bayesian 网的基础上进行扩展的SRL 方法 4.2 与基于随机文法的统计关系学习算法比较 4.3 与基于HMM的统计关系学习算法比较 5 Markov 逻辑网的应用 5.1 应用概况 5.2 应用举例 6 述评 Markov 逻辑网: 1) 将传统的一阶谓词逻辑与当前主流的统计学习方法有机地结合起来 2) 填补了AI 等领域中存在的高层与底层之间的巨大鸿沟. -- 一阶谓词逻辑更适用于高层知识的表示与推理 -- 基于概率统计的机器学习方法则擅长于对底层数据进行统计学习. Open problem: (1) 增强算法的学习能力,使其可以从缺值数据中学习; (2) 提高真值闭从句的计算速度,解决结构学习算法效率的瓶颈问题; (3) 从一阶逻辑和Markov 网这两个方面完善Markov 逻辑网的理论; (4) 增强Markov 逻辑网模型的实用性,从而更好地解决实际应用问题. 马尔可夫链蒙特卡洛(Markov chain Monte Carlo,简称MCMC)方法 信念传播算法 推理 学习 个人点评: 没看懂,可关注,问其与 Bayesian Network什么关系呢? 马尔可夫逻辑网络研究.pdf
个人分类: AI & ML|7260 次阅读|0 个评论
review: 李群机器学习研究综述
热度 1 jiangdm 2011-9-24 21:56
《李群机器学习研究综述》,李凡长 何书萍 钱旭培 计算机学报,2010 摘 要   文中简述了李群机器学习的相关研究内容,包括李群机器学习的概念、公理假设、代数学习模型、几何学习模型、Dynkin图的几何学习算法、量子群、辛群分类器的设计、轨道生成学习算法等. 关键词:  李群机器学习;公理假设;李群;分类器 李群机器学习(Lie Group Machine Learning, LML) 李群机器学 vs 流形学习 个人点评: 文章作为综述,弱了。文章层次和分类不清楚,首先摘要没写好。 李群机器学习研究综述.pdf
个人分类: AI & ML|4973 次阅读|1 个评论
review: ELIQoS: 一种高效节能、与位置无关的传感器网络服务质量
jiangdm 2011-9-19 23:26
ELIQoS: 一种高效节能、与位置无关的传感器网络服务质量 毛莺池 龚海刚 刘明 陈道蓄 谢立 计算机研究与发 2006 摘要 如何保证在覆盖足够的监测区域的同时延长网络的寿命是无线传感器网络所面临的最重要问 题之一,广泛采用的策略是选出工作节点以满足应用期望的服务质量(即覆盖率),同时关闭其他冗余节 点L分析了随机部署网络在已知监测区域大小和节点感知范围情况下,无需节点位置信息,应用期望的 服务质量与所需的工作节点数量之间的数学关系L在此基础上提出了一种高效节能、与位置无关的传 感器网络服务质量协议(ELIQoS),协议根据节点能量大小,选取最少的工作节点满足应用期望的服务 质量L实验结果表明,ELIQoS协议不仅可以有效地提供满足应用期望的服务质量,而且可以减少能量 消耗,实现能耗负载均衡 关键词: 无线传感器网络;服务质量;覆盖;节能;状态调度 ELIQoS 一种高效节能、与位置无关的传感器网络服务质量协议.pdf
个人分类: Network|1 次阅读|0 个评论
reading "machine learning:concepts and techniques"
barsterd 2011-8-17 16:38
I. 数据挖掘基本步骤: 1.数据清洗; 2.数据集成; 3.数据选择; 4.数据变换; 5.数据挖掘; 6.模式评估; 7.知识表示。 II. 知识的类型:特征、关联、分类、聚类、延边分析。 III.数据挖掘基于对象的分类: 1.分类,离散量预测; 2.预测,连续量预测; IV. diff. between ML and DM: In contrast to machine learning, the emphasis of data mining lies on the discovery of previously unknown patterns as opposed to generalizing known patterns to new data. V. diff. between ID3 and C4.5: C4.5 made a number of improvements to ID3. Some of these are: Handling both continuous and discrete attributes - In order to handle continuous attributes, C4.5 creates a threshold and then splits the list into those whose attribute value is above the threshold and those that are less than or equal to it. Handling training data with missing attribute values - C4.5 allows attribute values to be marked as? for missing. Missing attribute values are simply not used in gain and entropy calculations. Handling attributes with differing costs. Pruning trees after creation - C4.5 goes back through the tree once it's been created and attempts to remove branches that do not help by replacing them with leaf nodes. PS: C5 performs better than C4.5. to be continued...
个人分类: 论文总结|0 个评论
review: Knowledge Discovery in Databases: An Overview
jiangdm 2011-8-4 15:52
《Knowledge Discovery in Databases: An Overview》, William J. Frawley, Gregory Piatetsky-Shapiro, and Christopher J. Matheus, AAAI ,1992 Abstract: After a decade of fundamental interdisciplinary research in machine learning, the spadework in this field has been done; the 1990s should see the widespread exploitation of knowledge discovery as an aid to assembling knowledge bases. The contributors to the AAAI Press book \emph{Knowledge Discovery in Databases} were excited at the potential benefits of this research. The editors hope that some of this excitement will communicate itself to AI Magazine readers of this article the goal of this article: This article presents an overview of the state of the art in research on knowledge discovery in databases. We analyze Knowledge Discovery and define it as the nontrivial extraction of implicit, previously unknown, and potentially useful information from data. We then compare and contrast database, machine learning, and other approaches to discovery in data. We present a framework for knowledge discovery and examine problems in dealing with large, noisy databases, the use of domain knowledge, the role of the user in the discovery process, discovery methods, and the form and uses of discovered knowledge. We also discuss application issues, including the variety of existing applications and propriety of discovery in social databases. We present criteria for selecting an application in a corporate environment. In conclusion, we argue that discovery in databases is both feasible and practical and outline directions for future research, which include better use of domain knowledge, efficient and incremental algorithms, interactive systems, and integration on multiple levels. 个人点评: 一篇老些的经典数据挖掘综述,个人认为本文两个入脚点:一是Machine Learning (Table 1,2),二是文中 Figure 1 Knowledge Discovery in Databases Overview.pdf beamer_Knowledge_Discovery_Database_Overview.pdf beamer_Knowledge_Discovery_Database_Overview.tex
个人分类: AI & ML|1 次阅读|0 个评论
[转载]Slides of Machine Learning Summer School
timy 2011-6-17 10:36
From: http://mlss2011.comp.nus.edu.sg/index.php?n=Site.Slides MLSS 2011 Machine Learning Summer School 13-17 June 2011, Singapore Slides Speaker Topic Slides Chiranjib Bhattacharyya Kernel Methods Slides ( pdf ) Wray Buntine Introduction to Machine Learning Slides ( pdf ) Zoubin Ghahramani Gaussian Processes, Graphical Model Structure Learning Slides (Part 1 pdf , Part 2 pdf , Part 3 pdf ) Stephen Gould Markov Random Fields for Computer Vision Slides (Part 1 pdf , Part 2 pdf , Part 3 pdf )]] Marko Grobelnik How We Represent Text? ...From Characters to Logic Slides ( pptx ) David Hardoon Multi-Source Learning; Theory and Application Slides ( pdf ) Mark Johnson Probabilistic Models for Computational Linguistics Slides (Part 1 pdf , Part 2 pdf , Part 3 pdf ) Wee Sun Lee Partially Observable Markov Decision Processes Slides ( pdf , pptx ) Hang Li Learning to Rank Slides ( pdf ) Sinno Pan Qiang Yang Transfer Learning Slides (Part1 pptx Part 2 pdf ) Tomi Silander Introduction to Graphical Models Slides ( pdf ) Yee Whye Teh Bayesian Nonparametrics Slides ( pdf ) Ivor Tsang Feature Selection using Structural SVM and its Applications Slides ( pdf ) Max Welling Learning in Markov Random Fields Slides ( pdf , pptx )
个人分类: 机器学习|4265 次阅读|0 个评论
[转载]Statistical Machine Translation 基于统计的机器翻译系统及原理
geneculture 2011-6-15 09:36
Statistical Machine Translation Abstract We have been developing the statistical machine translation system for speech to speech translation. We focus our research on text-to-text translation task now, but we will include speech-to-speech translation among our research topics soon. We have an interest in building a translation model, decoding a word graph and combining statistical machine translation system and speech recognizer. http://isoft.postech.ac.kr/research/SMT/smt.html Statistical Machine Translation Input : SMT system gets a foreign sentence as a input. Output : SMT system generates a native sentence which is a translation of the input Language Model is a model that provides the probability of an arbitarary word sequence. Translation Model is a model that provides the probabilities of possible translation pairs. Decoding Algorithm is a graph search algorithm that provides best path on a word graph. Decoding process A Decoder is a core component of the SMT systzm. The decoder gets possible partial translations from the translation model, then selects an re-arranges them to make the best translation. Initialize : create small partial model for caching an pre-calculate future cost. Hypothesis is a partial translation which generated by applying a series of tranlation options. Decoding process is iterations of two taks: choosing a hypothesis and exapnding the hypothesis. The process terminates if there is no remainig hypothesis to expand. Speech to Speech Machine Translation Speech to Speech Machine Translation can be achieved by cascading three independent components: ASR , SMT system and TTS system. That is, an output of ASR be an input for the SMT system and an output an output of the SMT system be an input for the TTS systm. We use cascading approach now, but we have an interest in joint model which combines ASR and SMT decoder. http://isoft.postech.ac.kr/research/SMT/smt.html
2034 次阅读|0 个评论
[转载]Classical Paper List on ML and NLP
wqfeng 2011-3-25 12:40
Classical Paper List on Machine Learning and Natural Language Processing from Zhiyuan Liu Hidden Markov Models Rabiner, L. A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition. (Proceedings of the IEEE 1989) Freitag and McCallum, 2000, Information Extraction with HMM Structures Learned by Stochastic Optimization, (AAAI'00) Maximum Entropy Adwait R. A Maximum Entropy Model for POS tagging, (1994) A. Berger, S. Della Pietra, and V. Della Pietra. A maximum entropy approach to natural language processing. (CL'1996) A. Ratnaparkhi. Maximum Entropy Models for Natural Language Ambiguity Resolution. PhD thesis, University of Pennsylvania, 1998. Hai Leong Chieu, 2002. A Maximum Entropy Approach to Information Extraction from Semi-Structured and Free Text, (AAAI'02) MEMM McCallum et al., 2000, Maximum Entropy Markov Models for Information Extraction and Segmentation, (ICML'00) Punyakanok and Roth, 2001, The Use of Classifiers in Sequential Inference. (NIPS'01) Perceptron McCallum, 2002 Discriminative Training Methods for Hidden Markov Models: Theory and Experiments with Perceptron Algorithms (EMNLP'02) Y. Li, K. Bontcheva, and H. Cunningham. Using Uneven-Margins SVM and Perceptron for Information Extraction. (CoNLL'05) SVM Z. Zhang. Weakly-Supervised Relation Classification for Information Extraction (CIKM'04) H. Han et al. Automatic Document Metadata Extraction using Support Vector Machines (JCDL'03) Aidan Finn and Nicholas Kushmerick. Multi-level Boundary Classification for Information Extraction (ECML'2004) Yves Grandvalet, Johnny Marià , A Probabilistic Interpretation of SVMs with an Application to Unbalanced Classification. (NIPS' 05) CRFs J. Lafferty et al. Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data. (ICML'01) Hanna Wallach. Efficient Training of Conditional Random Fields. MS Thesis 2002 Taskar, B., Abbeel, P., and Koller, D. Discriminative probabilistic models for relational data. (UAI'02) Fei Sha and Fernando Pereira. Shallow Parsing with Conditional Random Fields. (HLT/NAACL 2003) B. Taskar, C. Guestrin, and D. Koller. Max-margin markov networks. (NIPS'2003) S. Sarawagi and W. W. Cohen. Semi-Markov Conditional Random Fields for Information Extraction (NIPS'04) Brian Roark et al. Discriminative Language Modeling with Conditional Random Fields and the Perceptron Algorithm (ACL'2004) H. M. Wallach. Conditional Random Fields: An Introduction (2004) Kristjansson, T.; Culotta, A.; Viola, P.; and McCallum, A. Interactive Information Extraction with Constrained Conditional Random Fields. (AAAI'2004) Sunita Sarawagi and William W. Cohen. Semi-Markov Conditional Random Fields for Information Extraction. (NIPS'2004) John Lafferty, Xiaojin Zhu, and Yan Liu. Kernel Conditional Random Fields: Representation and Clique Selection. (ICML'2004) Topic Models Thomas Hofmann. Probabilistic Latent Semantic Indexing. (SIGIR'1999). David Blei, et al. Latent Dirichlet allocation. (JMLR'2003). Thomas L. Griffiths, Mark Steyvers. Finding Scientific Topics. (PNAS'2004). POS Tagging J. Kupiec. Robust part-of-speech tagging using a hidden Markov model. (Computer Speech and Language'1992) Hinrich Schutze and Yoram Singer. Part-of-Speech Tagging using a Variable Memory Markov Model. (ACL'1994) Adwait Ratnaparkhi. A maximum entropy model for part-of-speech tagging. (EMNLP'1996) Noun Phrase Extraction E. Xun, C. Huang, and M. Zhou. A Unified Statistical Model for the Identification of English baseNP. (ACL'00) Named Entity Recognition Andrew McCallum and Wei Li. Early Results for Named Entity Recognition with Conditional Random Fields, Feature Induction and Web-enhanced Lexicons. (CoNLL'2003). Moshe Fresko et al. A Hybrid Approach to NER by MEMM and Manual Rules, (CIKM'2005). Chinese Word Segmentation Fuchun Peng et al. Chinese Segmentation and New Word Detection using Conditional Random Fields, COLING 2004. Document Data Extraction Andrew McCallum, Dayne Freitag, and Fernando Pereira. Maximum entropy Markov models for information extraction and segmentation. (ICML'2000). David Pinto, Andrew McCallum, etc. Table Extraction Using Conditional Random Fields. SIGIR 2003. Fuchun Peng and Andrew McCallum. Accurate Information Extraction from Research Papers using Conditional Random Fields. (HLT-NAACL'2004) V. Carvalho, W. Cohen. Learning to Extract Signature and Reply Lines from Email. In Proc. of Conference on Email and Spam (CEAS'04) 2004. Jie Tang, Hang Li, Yunbo Cao, and Zhaohui Tang, Email Data Cleaning, SIGKDD'05 P. Viola, and M. Narasimhan. Learning to Extract Information from Semi-structured Text using a Discriminative Context Free Grammar. (SIGIR'05) Yunhua Hu, Hang Li, Yunbo Cao, Dmitriy Meyerzon, Li Teng, and Qinghua Zheng, Automatic Extraction of Titles from General Documents using Machine Learning, Information Processing and Management, 2006 Web Data Extraction Ariadna Quattoni, Michael Collins, and Trevor Darrell. Conditional Random Fields for Object Recognition. (NIPS'2004) Yunhua Hu, Guomao Xin, Ruihua Song, Guoping Hu, Shuming Shi, Yunbo Cao, and Hang Li, Title Extraction from Bodies of HTML Documents and Its Application to Web Page Retrieval, (SIGIR'05) Jun Zhu et al. Mutual Enhancement of Record Detection and Attribute Labeling in Web Data Extraction. (SIGKDD 2006) Event Extraction Kiyotaka Uchimoto, Qing Ma, Masaki Murata, Hiromi Ozaku, and Hitoshi Isahara. Named Entity Extraction Based on A Maximum Entropy Model and Transformation Rules. (ACL'2000) GuoDong Zhou and Jian Su. Named Entity Recognition using an HMM-based Chunk Tagger (ACL'2002) Hai Leong Chieu and Hwee Tou Ng. Named Entity Recognition: A Maximum Entropy Approach Using Global Information. (COLING'2002) Wei Li and Andrew McCallum. Rapid development of Hindi named entity recognition using conditional random fields and feature induction. ACM Trans. Asian Lang. Inf. Process. 2003 Question Answering Rohini K. Srihari and Wei Li. Information Extraction Supported Question Answering. (TREC'1999) Eric Nyberg et al. The JAVELIN Question-Answering System at TREC 2003: A Multi-Strategh Approach with Dynamic Planning. (TREC'2003) Natural Language Parsing Leonid Peshkin and Avi Pfeffer. Bayesian Information Extraction Network. (IJCAI'2003) Joon-Ho Lim et al. Semantic Role Labeling using Maximum Entropy Model. (CoNLL'2004) Trevor Cohn et al. Semantic Role Labeling with Tree Conditional Random Fields. (CoNLL'2005) Kristina toutanova, Aria Haghighi, and Christopher D. Manning. Joint Learning Improves Semantic Role Labeling. (ACL'2005) Shallow parsing Ferran Pla, Antonio Molina, and Natividad Prieto. Improving text chunking by means of lexical-contextual information in statistical language models. (CoNLL'2000) GuoDong Zhou, Jian Su, and TongGuan Tey. Hybrid text chunking. (CoNLL'2000) Fei Sha and Fernando Pereira. Shallow Parsing with Conditional Random Fields. (HLT-NAACL'2003) Acknowledgement Dr. Hang Li , for original paper list.
个人分类: 模式识别|3020 次阅读|0 个评论
获取cpu逻辑核的数量
热度 1 hillpig 2011-1-18 20:23
在many-core程序的设计中,往往需要获取cpu核的数量,觉得这段代码很好,摘录下来: 摘自:http://stackoverflow.com/questions/150355/programmatically-find-the-number-of-cores-on-a-machine #ifdef _WIN32 #include windows.h #elif MACOS #include sys/param.h #include sys/sysctl.h #else #include unistd.h #endif int getNumCores () { #ifdef WIN32 SYSTEM_INFO sysinfo ; GetSystemInfo ( sysinfo ); return sysinfo . dwNumberOfProcessors ; #elif MACOS int nm ; size_t len = 4 ; uint32_t count ; nm = CTL_HW ; nm = HW_AVAILCPU ; sysctl ( nm , 2 , count , len , NULL , 0 ); if ( count 1 ) { nm = HW_NCPU ; sysctl ( nm , 2 , count , len , NULL , 0 ); if ( count 1 ) { count = 1 ; } } return count ; #else return sysconf ( _SC_NPROCESSORS_ONLN ); #endif } 加我私人微信,交流技术。
个人分类: postgresql|6069 次阅读|2 个评论
临床营养学_百度百科—translate this page
zuojun 2010-12-2 14:31
Before you read this Blog , I have a short story to share with you. One day many months ago, a colleague asked me how I was going to make a living in a few years when MACHINE will be translating, say English into Chinese, or vice verse. I didn't know how to answer his question, and became worried (because I was planning to be a full-time freelance English editor). So, I went home and did my homework, by asking the machine to translate a page for me online. Guess what happened? This is what a machine can do for us, in terms of translation. Enjoy 百科名片 Wikipedia card 临床营养学是关于食物中营养素的性质,分布,代谢作用以及食物摄入不足的后果的一门科学。 Journal of Clinical Nutrition is about the nature of nutrients in food, distribution, metabolism and food intake in the consequences of a science. 临床营养学中的营养素是指食物中能被吸收及用于增进健康的化学物。 In Clinical Nutrition is the food nutrients can be absorbed and used to improve the health of the chemicals. 某些营养素是必需的,因为它们不能被机体合成,因此必须从食物中获得。 Certain nutrients are necessary because they can not synthesized by the body and therefore must obtain from food. 对患者来说,合理平衡的营养饮食极为重要。 For patients, a reasonable balance diet is extremely important. 医食同源,药食同根,表明营养饮食和药物对于治疗疾病有异曲同工之处。 Medical and Edible food and medicine from the same root, that diet and medication for the treatment of diseases would be similar. 合理的营养饮食可提高机体预防疾病、抗手术和麻醉的能力。 A reasonable diet can improve the body to prevent disease, the ability of anti-surgery and anesthesia.
个人分类: Thoughts of Mine|5373 次阅读|0 个评论
一周科技新闻简评——机器时代
songshuhui 2008-9-3 15:59
wilddonkey 发表于2008-04-21 星期一 18:35 分类: 其他 | | NASA 的工程师们正在对一种巨大的机器人进行测试,这种机器人的 使命是在荒无人烟的月球上充当宇航员的坐骑。这些大家伙宽 7.5 米,有六条 6 米多长的腿,绰号运动员,最快时速 10 公里。 运动员行动起来很稳重,像一只海龟,这有些辜负了它们的绰号。但稳重是必需的,因为背上是宇航员的住所。运动员每条腿都装上了轮子,可以行驶,经过有坡度的地方,各条腿的长度会自动进行调整,以确保住所里的宇航员坐的安稳。遇到大的沟坎,或是轮子陷进土里,运动 员会把轮子变成脚,六只脚轮流抬起、放下,小心翼翼走出困境。 有了这样一个坐骑,宇航员们就不必在固定的基地里日复一日的例行公事,而是有机会过上一种自由、浪漫的游牧生活。在荒凉的月球上四处游荡,在感兴趣的地方安营扎寨,勘探研究一番后,拔寨启程,开始新的旅途。 从月球到地球,人类越来越依赖于机器,各式各样的困难都试图通过 机器来解决。比如父母们在孩子长到一定程度,确切地说是牙齿已长齐并且能够独立使用牙刷的时候,会面临一个难题,那就是如何说服他们去刷牙。孩子们不喜欢刷牙,即便你成功地引发了他们的刷牙愿望,他们也会因为技术问题刷的不尽如人意,比如 5 岁的孩子通常只能清洁到 1/4 的牙齿。 为了解决这一难题,台湾大学的一个研究小组把这项枯燥乏味的琐事改造成了一场游戏。这场游戏的参与者包括接在普通牙刷 尾部的一个长方形小盒子,盒子的四个面嵌有以不同模式排列的三个发光二极管;一个安在盥洗台上方,通过发光二极管实时跟踪牙刷移动的摄像机;一个放在盥洗台上的计算机,接收摄像机发来的牙刷实时移动数据,据此精确计算出哪颗牙正在被刷到,并在屏幕上显示出一颗虚拟的牙齿从脏兮兮的五颜六色变为了光亮白净;最后,还需要一个觉得看到屏幕上的虚拟牙齿随着自己的动作一个个变干净非常有趣,乐在其中的孩子。 这场刷牙游戏或许还能吸引更大一点的孩子,甚至成年人,不过那需要屏幕上显示出 的场景更好玩一些。 家中添置了新机器,那些比电冰箱、洗衣机更高级、更智能的机器会给我们的 生活 带 来什 么新的改变?一个盘子大小的机器人正 在家中各个阴暗角落里 辛勤工作,确切地说它是一个自动吸尘器,商品名 Roo mba , iRobot 公司生产。但它的主人 不会认同这种说法,主人给它套上了外套,另起了名 字,赋予了性别,它成为了家中的一员。人们开始对身边的机器产生感情。 在伊拉克的美国士兵承认当他们的机器人被炸弹、地雷摧毁时,他们感到非常悲伤。 2020 年后,常驻月 球的宇航员们也会对自己的坐骑生出情感。未来,人与机器将演绎出更为复杂动人的情感纠葛。 标签: machine time , news
个人分类: 其他|1350 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-8 12:56

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部