科学网

 找回密码
  注册

tag 标签: 统计学习理论

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

统计学习理论和SVM的不足(0)
dataminer 2009-4-9 19:29
Vapnik的统计学习理论在理论上的最重要的贡献是提出了衡量学习器容量的VC维,根据VC维可以计算学习风险的上界。因此可以通过选择不同VC维的学习器来同时控制经验风险和结构风险。Vapnik的理论产生的最重要的应用成果就是SVM(Support Vector Machine)。SVM一直被认为是建立在坚实理论基础上的机器学习算法。 最近读了Vapnik的《统计学习理论》,虽然还没有读完,刚刚看完Vapnik关于指示函数的风险分析以及VC维的引出,后面还有相当多的部分包括实函数的风险分析,SVM等部分。Vapnik的理论是优美的,揭示了机器学习中的本质问题。其理论甚至有哲学上的意义, 如VC维无线意味着不可证伪性,如从特殊-一般-特殊的认识规律不一定比从特殊-特殊的方法好等等。 不过本人认为Vapnik的统计学习理论和SVM仍然有些不足。 1. VC 维是多次放松的界,并不是很紧的界。 2.对很多学习算法而言,VC维并不好计算(Decision Tree). 3. 对学习问题的定义就引入了Sampling 的Bias.对如何解决Skewed问题没有回答。 4. SVM只能用在复空间。对于一般的nominal feature的向量空间必须映射到复空间。 5 SVM对于缺失值的处理缺乏有效手段。 5.SVM 对于非线性问题,kernel的函数的选择是一个艺术问题。 ==================================== 1. 一般来说,VC维确定的学习风险的界过于悲观。首先从证明过程来说,VC维确定的风险界是通过多次不等式的放松而得到的,这就使得风险的界有可能放大。其次,VC维确定的界是基于学习样本的分布任意的一致界。对于小样本学习问题(此时很难从这么少的样本中准确的估计出样本的分布情况),这个界是很有意义的。但是对于样本较多的学习问题(此时能够比较准确估计样本的分布情况),这个一致的界就会变得太松。另一方面,VC维理论并未考虑学习器的解的分布情况。从数学形式上来看,我们无法预先知道解的分布,预先假设解的分布是没有意义的。但是对于实际问题,尤其是高维问题,解的分布常常是具有一些特征的。实际上为了解决不适定问题,引入正则化方法就是认为假设解的各维分布以0为中心点呈正态分布。对于不是定问题Vapnik的《统计学习理论》也有深入讨论,但是Vapnik是从解决积分函数不连续的这个角度来讨论的。另一方面,从近年来研究较多的矩阵分解方法和Comperessive Sensing方法的研究结果来看,一个对应实际问题,有意义的高维线性系统的解通常是非常稀疏的,即在大多数甚至是绝大多数维度上解的值都为0. 而VC维理论显然没有考虑这一点,将整个解空间平等的拿进来考虑,那些在实际问题中几乎不可能出现的解也被考虑进了学习器的容量中来,而这些解通常又造到了解空间的很大部分(稀疏的解只能是解空间中极小的部分),自然以此为基础估计出来的学习器的界往往就变得悲观了。 2. 用VC维还有一个缺点就是计算起来不方便。要确定一个学习器的VC维通常不是一件容易的事。有时在估计VC维的时候有可能再一次通过不等式放大VC维,从而进一步放松界。 3. 统计学习理论研究的风险的界是 可以用来确定学习器的风险
个人分类: 生活点滴|40 次阅读|0 个评论
统计学习理论与支持向量机
郭崇慧 2009-1-19 19:34
统计学习理论( Statistical Learning Theory , SLT )是一种专门研究有限样本情况下的统计理论 。该理论针对有限样本统计问题建立了一套新的理论体系,在这种体系下的统计推理规则不仅考虑了对渐近性能的要求,而且追求在现有有限信息的条件下得到最优结果。 V. Vapnik 等人从 20 世纪 70 年代开始致力于此方面研究,到 20 世纪 90 年代中期,随着其理论的不断发展和成熟,也由于神经网络等方法在理论上缺乏实质性进展,统计学习理论开始受到越来越广泛的重视。统计学习理论是建立在一套较坚实的理论基础之上的,为解决有限样本学习问题提供了一个统一的框架。 同时,在统计学习理论基础上发展了一种新的通用预测方法支持向量机( Support Vector Machines , SVM ),已初步表现出很多优于已有方法的性能 ,它能将很多现有方法(比如多项式逼近、径向基函数方法、多层感知器网络)纳入其中,有望帮助解决许多原来难以解决的问题(比如神经网络结构选择问题、局部极值问题等)。 SLT 和 SVM 正在成为继神经网络研究之后新的研究热点,并将推动数据挖掘与机器学习理论和技术的重大发展 。 参考文献: 1. V. Vapnik. The nature of statistical learning theory. Springer-Verlag, 1995. 2. V. Vapnik. Statistical learning theory. John Wiley and Sons, Inc., 1998. 3. B. E. Boser, I. Guyon, V. Vapnik. A training algorithm for optimal margin classifiers. In: D. Haussler, Editor, Proceedings of the Fifth Annual ACM Workshop of Computational Learning Theory, 144-152, ACM Press, 1992. 4. C. Cortes, V. Vapnik. Support-vector networks. Machine Learning, 1995, 20, 273-297 5. J. C. Burges. A tutorial on support vector machines for pattern recognition. Data Mining and Knowledge Discovery, 1998, 2(2), 121-167
个人分类: 科研笔记|8122 次阅读|2 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-19 13:16

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部