科学网

 找回密码
  注册

tag 标签: 可解释性

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

继承Zadeh先生遗志,开创可解释性AI新局面
热度 4 dwchen 2019-9-22 18:02
神经网络的再度兴起带动了这一波人工智能(AI)的新高潮。通过大量的训练数据,深度神经网络,尤其是深度卷积神经网络(DCNN) 很好解决了高维图片的分类等问题,精度超过了人类,给人工智能的支持者打了一阵强心剂和兴奋剂。深度神经网络算法是调参高手,在大数据和GPU的帮助下,能自动学习和调整高达几千万甚至上亿的参数,达到非常高的精度,令专家和外行都惊叹不已。 深度神经网络(DNN)的参数多,效果好,但是可解释性就难以保证了。设计算法的人(调参师)也不知道这么多参数究竟是什么意义? 反正效果好就行了。没法解释的DNN或者难以解释的DNN,用于安全相关的领域,就不得不令人捏把汗了。特斯拉汽车发生的几起事故表明:再多的训练数据也不可能涵盖实际所有的道路状况。 因此,DNN做内插拟合可以,做外推就不好说了。也就是说可解释性差的DNN,对未知世界没有把握,只能做到“举千(万)反一 ”,而难以做到“举一反三”的高级人类智能。这样的AI水平做孔子的学生是不合格的,因为“子曰 :...举一 隅不以三隅反,则不复也。—《论语 述而》 ” 在2016年AlphaGO占胜围棋世界冠军李世石之后,基于大数据和DNN的AI技术狂飙突进了好几年。现在,我们已经冷静了很多,已经开始反思:1)深度学习不仅仅只有深度神经网络这一种实现方式;2)可解释性AI也许是下一个发展方向;3)小数据低成本的AI也应有发展空间。 作为世界人工智能著名专家(入选首批AI名人堂,模糊理论之父,论文总引用约20万次),美国工程院院士Zadeh教授的访问学者,我回想起10年前,我在伯克利加州大学访问时,已经80多岁高龄的Zadeh教授仍坚持每周都开学术研讨会,其中有好几次对神经网络的“批斗会”,批评其可解释性太差(Although the accuracy is very good, the interpretablity of neural netwok is too weak) 。当时,虽然模糊系统难以处理高维大数据问题,Zadeh教授就鼓励我们要坚持研究可解释性好的模糊系统(Fuzzy System),发展新的方法。虽然Zadeh先生已经仙逝2年了,但是他对科学的远见(Vision),坚持(Insistness)和洞察力(Insightness)一直留在我们的心中,激励我们继续前进。 在此,我必须再次指出模糊系统的几点优势: 1) Fuzzy logic (模糊逻辑)是连续逻辑,比二值逻辑更科学更合理;2)Fuzzy reasoning(模糊推理) 类似与人类的思维模式,可解释性很好;3)Fuzzy rules(模糊规则)是一种从数据中获取知识的重要方式。正如Zadeh教授10年前预测的那样,可解释性AI,是AI的一个重要的前沿方向,正逐渐得到广泛认可。我认为模糊系统将在可解释AI中发挥重要作用,也许深度模糊系统也是深度学习的另一种实现方式。我认为将Zadeh先生提出的理论方法向前推进一步,使之能够解决高维大数据问题,克服“维数灾难”问题,就是纪念先生的最好方式。
个人分类: Zadeh|6440 次阅读|10 个评论
[转载]NIPS 2017经典论文奖获得者机器学习「炼金术」说引热议。。。
fanlixin 2017-12-11 10:17
转评:Ali Rahimi 的炼金术 (或者按中国传统,炼丹术)评论并不是无的放矢, 特别地, 他举了 batch-normalization 的例子来说明,没有理论支持的各种tricks很可能会误导研究的方向。无独有偶,我的NIPS文章 也说明了batch-normalization并不是本质性的和必不可少的。 但是,学界必须鼓励以实验为导向的研究。 类似于地理大发现,早期的探索者们并不会有完整的理论 ( 地图 ) ,但他们的发现极大地延伸了我们的视野,将为理论的建立奠定基础。 Revisit Fuzzy Neural Network: Demystifying Batch Normalization and ReLU with Generalized Hamming Network http://papers.nips.cc/paper/6788-revisit-fuzzy-neural-network-demystifying-batch-normalization-and-relu-with-generalized-hamming-network ========== 观点 | NIPS 2017经典论文奖获得者机器学习「炼金术」说引热议,LeCun发起反驳 2017-12-08 机器之心 机器之心报道 参与: 路雪、刘晓坤、李泽南 去年的 NIPS 曾因 GAN 引发了一场风波 ,而今年的 NIPS 同样有着不同思想的碰撞,而这场机器学习「炼金术」讨论竟是从大会颁奖典礼上开始的。 谷歌研究员,MIT 博士 Ali Rahimi 获得了今年 NIPS Test of Time 大奖,他在颁奖时上做了一番演讲,主要介绍之前的研究成果,他在演讲中还打了个比方「机器学习是炼金术」,但这一言论遭到了 Yann LeCun 的反驳。在这篇文章中我们将看到不同思想的碰撞。 Ali Rahimi 的完整演讲视频 Ali Rahimi 在演讲中说道: 「吴恩达曾说过, 机器学习就像是新时代的电力 。我却认为,机器学习正在变成新时代的炼金术。炼金术本身并不坏,它引出了冶金、纺织、玻璃制造,也推动了人类医疗科技的发展;但与此同时,炼金术师还用水蛭来给人治病,希望让其他金属变成金子。」 「对于 18 世纪的物理学和化学而言,想要理解宇宙的法则,科学家们需要努力抵抗有两千年历史的炼金术的不利影响。」 「现在,如果我们想要做一个图片分享系统,『炼金术』是可以奏效的。但我们的需求早已不止这些了。我们正在试图构建基于人工智能的医疗服务系统、对话系统,我们的机器学习系统甚至影响了大选结果。我希望我所生活的世界是基于非常稳固、有规律的、理论性的知识之上的——而不是炼金术之上。」 「过去 NIPS 大会上经常出现的『学术警察』在哪里?我非常怀念他们。」 …… 「我们现在是这样构建新知识的:我们应用最好的工具,简单地分析自己做的设置,我们学习现象,然后在自己不理解背后原理的情况下完成了研究。就这么完成了。」 Yann LeCun 对此番言论表示道: Ali Rahimi 在 NIPS 上的演讲很好,很有意思,但是我不同意他的观点。他的主要观点是机器学习的当前实践就像「炼金术」(alchemy)。 这种观点具有侮辱性,而且也是错误的! Ali 抱怨当前机器学习尤其是深度学习使用的很多方法缺少(理论)理解。(理论或其他方面的)理解当然重要。这正是我们很多人参加 NIPS 大会的目的。但另一个重要目标是发明新方法、新技术和新技巧。 在科技发展史上,工程的发展几乎总是先于理论理解:镜头和望远镜的发展早于光学理论、蒸汽机的发展超越热动力学、飞机的发展快于空气力学、无线电和数据通信的发展快于信息理论、计算机的发展早于计算机科学。 原因何在?因为理论家本能地研究「简单的」现象,不主动研究复杂现象,除非它具备很重要的实践意义。 仅仅因为理论没有追赶上实践的水平,就批评整个机器学习社区使用「炼金术」,这种言论是危险的。 为什么危险?正是这种态度使机器学习社区放弃神经网络 10 年有余,尽管大量实证研究证明神经网络在很多情况下非常有效。 之前,神经网络和非凸损失函数不确保一定会收敛,不过它们在实践中是奏效的(和现在一样)。但是人们就这样不分良莠地将它舍弃,转而专注于「可证明」的凸方法或「被夸大的」模板匹配方法(甚至 1957 年的随机特征方法)。 坚持一套方法仅仅因为它的理论比较充分,并因此忽视另一套实践效果更好的方法,仅仅因为缺乏理论理解,这种做法何异于缘木求鱼(原文:就像你在街灯下找丢失的车钥匙,虽然心里明明知道丢钥匙的地方并不在这)。 是的,我们需要更好地理解方法。但是正确的态度是尝试改变现状,而不是因为现状没有得到改变而去侮辱整个社区。 我组织和参加过很多深度学习研究者和理论家参与的 workshop,有些 workshop 由 IPAM 举办。作为 IPAM 科学顾问委员会的一员,我的使命就是使深度学习获得数学社区的注意。事实上,我作为联合组织者组织了一场将于 2018 年 2 月举办的 workshop(http://www.ipam.ucla.edu/…/wo…/new-deep-learning-techniques/)。 如果你不满意我们对你们日常使用方法的理解,那么就去改变它:研究深度学习理论,而不是抱怨别人不去做这件事,也不是认为如果仅使用「理论正确」的方法,NIPS 会变得更好。并不是这样。 Ali Rahimi 的回复: Yann,感谢你的理智回应。「If you don't like what's happening, fix it」正是 Moritz Hardt 一年前告诉我的话。仅靠一个小群体是很难做出重大成果的,说实话,我已经被这个任务的巨大规模所淹没而不知所措。我这次演讲的目的就是请求他人的帮助。 我认为问题并不在于理论,而在于教育。我呼吁的是简单的定理和简单的实验,从而让所有人能无障碍地交流各自的见解。你很擅长构建深度学习模型,是因为你运行实验的经验比多数人都丰富。想象一下新手的困惑处境吧。我们做的事情的确看起来像魔法,因为我们并不讨论技术细节,而是模型整体。入门的过程太神秘了。 我同意炼金术式的方法很重要,正是它们使我们加快速度。这些方法解决了很多紧迫的问题。 我很尊重那些能快速在大脑中构建直觉和可行系统的人。你和我在谷歌的大多数同事都具备这种能力,但你们只是少数。 我希望你们传授一些技术细节,帮助我们也能达到你们级别的生产能力。而这就需要:简单的实验,简单的理论。 Yan LeCun 的回复: 简单而通用的理论当然很好。 热力学理论告诉我们不要浪费时间寻找拥有 100% 效率的热机或者永动机。 机器学习中也已经有这样适用于所有学习机器包括神经网络的理论(例如,VC theory consistency/capacity、没有免费午餐定理等)。 但我们很可能不会有具体到神经网络的「简单」理论,就像纳维-斯托克斯方程和三体问题也没有解析解。 虽然目前机器学习的部分工具还存在「黑箱」区域,但这项技术毫无疑问正处在越来越快的发展过程中,正如 Ali Rahimi 在演讲中所说的,希望随着人们的努力,我们能够最终将「炼金术」转化为真正的「电力」。 本文为机器之心报道, 转载请联系本公众号获得授权 。 ✄------------------------------------------------
1960 次阅读|1 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-26 15:30

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部