科学网

 找回密码
  注册

tag 标签: 中文屋子

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

人工智能新测试
热度 2 Babituo 2017-1-5 09:24
人工智能新测试 从AlphaGo到Master的启示 随着暂获59胜人类顶尖棋手的Master庐山真面目终于显露。人们对于人工智能的膜拜似乎更彻底了。事实上,人类长期以来以会制造和使用工具将自己区别于一般动物,尤其是象电子计算机这样的高度复杂的智能工具。 且慢,当人工智能发展到今天,图灵测试似乎可以通过了,但人类的绝大多数可能还是不甘承认人工智能的独立性:人工智能再强大,也还是人类制造和使用的一种工具而已。这种想法,挥之不去。 “中文屋子”的测试只是证明了图灵测试的无效,并没有举出更有效的测试方法,可证明人工智能的独立性。 怎么证明人工智能已经不仅仅是人类的工具了?而是一种超越工具性的独立智能主体了呢? 很简单,人类利用工具总是以取得比不用工具更高的效能为成功的证明的,那好,就用人类利用工具和工具本身比试一下好了。如果人类利用工具还赢不过工具本身,那么,工具未被人利用的那部分必定胜过人类了! 强烈建议 AlphaGo和人类顶尖棋手+AlphaGo大战一番! 在人类顶尖棋手+ AlphaGo这边,由人类来判断是否接受AlphaGo的对局建议。 如果纯 AlphaGo获胜,那么,才能证明,AlphaGo是纯人工智能,背后没有人机协作,因为人机协作已经打不过它了,也才能证明,人工智能有超越人类智能的独立智能部分了。
个人分类: 电脑围棋|3950 次阅读|4 个评论
【泥沙龙笔记:关于“中文屋子”的人工智能之辩】
热度 4 liwei999 2016-4-5 16:58
重温AI历史上的思维实验:老外不会中文,正如机器没有理解 博文在沙龙引起争论,实录如下。 ............ AI 历史上的 “中文房间”(Chinese room,the Chinese room argument)的思维实验是批判强人工智能的一个著名事例。这是最简单也最强有力的揭示机器本质的一个场景描述。可惜的是,这么一个简单明了的思维实验,却不被大众理解,或被很多人忽视或无视。 QUOTE: “ Searle创造了“中文房间” 思想实验来反驳电脑和其他人工智能能够真正思考的观点。 房间里的人不会说中文;他不能够用中文思考。 但因为他拥有某些特定的工具, 他甚至可以让以中文为母语的人以为他能流利的说中文。 根据Searle,电脑就是这样工作的。 它们无法真正的理解接收到的信息,但它们可以运行一个程序, 处理信息,然后给出一个智能的印象。 ” (from http://baike.baidu.com/view/ 911657.htm ) 房间的人不会说中文,正如机器永远不会“理解” 任何语言一样显然,机器只会做语义“计算”而已。一切的理解都是人类自己跟自己玩。争论的都是一种约定, 怎样的数据结构可以让人能更加舒服地操作,以达到语义落地(到应用)的目标而已。 (from 重温AI历史上的思维实验:老外不会中文,正如机器没有理解 ) Nick: @wei 我觉得中文屋并不能refute强人工智能。不应该问屋中人是否理解中文,而应问屋子(包括人及屋内所有工具)as a blackbox是否理解中文。如果按行为主义: it walks like a chicken, tastes like a chicken, it must be a chicken. 白: 这涉及词语的专属性问题。把“理解”垄断成人类专属的,可以奏效一时,不能奏效一世。 关键是,在这场垄断战役中,谁负有举证义务?是垄断方,还是反垄断方? Nick: 那是不是在牛津字典里加一条理解的解释,强ai就成立了? 刘: 学习、理解、感觉、认知等方面,人机都不同 我: @Nick 中文屋子 与其说是一个 argument,不如说是一个最接近真实的科普式场景描述。 “理解” 本身的专属不专属已经不是要点,我们永远可以创造一个词汇(譬如:comp-stand,计算式理解)作为 “理解” 或 “智能” 的上位概念,排除其一切专属特征,作为机器无可争议的能力。 中文屋子的科普或启蒙意义在于,世界上有很多人被误导了,对于电脑和机器人的自主思考和感情,心存敬畏或恐惧。 这个思维实验生动地揭示了这种敬畏或恐惧的没有理据。 这是哲学家的思维实验,而恰恰也是我们 AI practitioners 的 real life 的场景再现。 我们不管把自然语言理解做到怎样的极致,怎样地以假乱真,甚至于达到超越一般民众的 “语言理解”的 能力,我们心里都明白那一切都建立在人与人自己玩的形式化体系(包括树结构,包括概念网络,知识图谱或本体知识库等等)之上。 而机器只是在0与1的 “计算” 之间跳跃。 但是,这个场景对于普罗大众并不了然。科幻的洗脑和小报的麻醉,使得相当多的AI门外汉,以及非电脑人士,实实在在地拜倒在AI前。 面对普罗的敬畏和恐慌,我们业内人是推波助澜,还是像那个哲学家一样去揭示真实场景,我觉得是科学良心的问题。 至于场景被揭示和有效传达以后,受众对于中文屋子整体去作行为主义的图灵测试式解读,还是对屋内老外不懂中文事实的认定,那是启蒙以后的 “教义” 选择而已,这涉及信仰,可以各行其是,互相尊重。 白: 这是一个层次问题。电视节目在电视机上最终不过是像素。 到底人们在看故事还是看像素。 电视机也“不过”是在搬像素, 和中文屋子没啥本质区别。 我: exactly,人在看故事,机器在放像素。现在的问题是,AI 及其媒体鼓噪,硬要让人相信机器 “自主地” 在放故事,而不是搬弄像素。 白: 既然在看像素的同时可以看故事,就可以在接受不懂中文的人搬弄出来的貌似理解的效果。 自主是一个哲学范畴,第一线干活的人根本不用理。 我: 编故事的人就是我们这些 AI 系统开发者。这里没有机器 “自主” 出场的任何理由。 白: 领导之所以“亲自”上厕所会让人大惊小怪,是因为领导让人代劳的印象太根深蒂固了。 词语专属权如何演化,最终取决于用系统的人。比如阿法狗,下围棋的人已经把“想”的专属权扩展到它了。 做系统的人其实没什么发言权。 我: 第一线干活的人根本不用理,第一线干活的人从来都没有疑问,大家心知肚明。现在要“启蒙”的不是我们业内人士,而是被无限误导的普罗百姓,他们不理解电脑的工作原理和场景。 其实 本来也 无蒙可启,可叹的是这些 “蒙昧” 一多半被强加或洗脑而来,其中甚至有 AI 共同体某种“合谋”的不光彩的印记在。 白: 启蒙也是砸饭碗,何必呢。 我: 这话倒是大实话,就是太实在了,有些不落忍 。于情不落忍于大众和自己的良心 , 于理不落忍于同仁和小我 。说到底,我们都是 人工智能神话的受益者。 白: 不要说对用户,就算对投资人,对市场部门,甚至对员工,启蒙也是负面效果大于正面效果。 Nick: 再回到中文屋子,没人argue说老外不懂中文啊。但老外加上工具合起来懂不懂才是关键。searle在偷换概念。 白: 一样的,电视机不懂故事,电视机加上演员导演摄像化妆一众,也不懂吗? 我: @Nick 你的问题没有意义, 因为 “懂不懂” 的定义没有明确界定之前,争论黑箱子还是老外懂不懂,没有任何意义。 Nick: 更简单的:一个近视的人不戴眼镜,肯定看不见,戴上眼镜就看见了。关键是测试主体是谁,戴眼镜的人还是不戴眼镜的人。这个不分清楚,道理随你讲了。很不解中文屋子有啥深刻的。这样被捧是哲学界弱智的标志。 我:哲学家的过人之处,就在于不被这些定义的分歧所干扰,而是直面惨淡的现实,然后揭示给受众。不得不佩服哲学和哲学家了,虽然平时我们往往都小看或漠视他们。 Nick: 你这是抒情,不是argue 我: 抒情和argue之外,还有一个小崔的 “实话实话”。 Nick: 所以中文屋子的本质是怎么定义理解,和启蒙没啥关系 我: 就是先把场景 “描述” 清楚,然后再让人自己去选择态度和宗派。场景都不清楚,还谈什么科普。传播的结果不是骗局就是幻想。 Nick: 偷换概念,不是实话实说 我: 像现在这样,是以其昭昭,使人昏昏。 Nick: 又抒情 我: 如果是在 AI 圈内争论强弱,那是 arguments, 如果是信息和知识都不对称地对于普罗大众传达所谓 “强 AI”,除了以 marketing 的需要做挡箭牌自慰(卫)以外,就有些不诚信了,哪里还谈得上 argue 不 argue。 Nick: 你的意思是我们应该异口同声地对searle说: shut the fuck up,你丫管不着。 我: 无论如何,学界没有理由与科幻作家处在一个层次。还煞有介事的。 《计算机原理》是我们几乎每一个人的入门课,而对普罗大众却高不可攀,这就是现状。 白: 问题是,等你们定义清楚,黄花(瓜?)菜都凉了。老百姓该叫啥早叫开了,就如“电脑”,想改都难。 我: 叫啥不重要,AI 从诞生第一天起,就爱取花里胡哨的名字。 实际效果是(与科幻和小报)合谋误导。 当然,正如有什么样的人民,就有什么样的政府,普罗大众似乎也乐意被误导(虽然也有不乐意的),误导和科幻帮助他们张开了想象的翅膀,生活因此多了一份神秘和盼望。科学也可以作为宗教去膜拜。 Nick: 你这话应该说给你们公司销售副总。 白:问题是,什么层次上说什么层次的话,在科学界也是惯例。分子热运动,拿到宏观就是温度,可以测量的。 Nick: 对呀,戴眼镜看,就不是看了。你要非说不是看也可以,我发明一个新动词就叫(戴眼镜看),这玩意就是lambda演算啊,searle估计没学过 我: 我已经创造了一款新术语了,保证各位相安无争论: compstanding 代替 understanding Nick: 那还是不行,我还可以往下走找你麻烦:即使是understaning,你我都是人,为啥你的understanding就是我的understanding。他人即地狱。你咋知道我understand了?那是不是还要再创造u-understand,i-understand? 冰园还不兼容呢 白: 科学网太慢了 我: 服务器越来越糟糕,以前很好的。 白: 决定词语专属权的绝大多数情况下都不是学者。 学者说宇宙没有“外边”,可是老百姓“宇宙的外边是啥”照问,而且彼此可以理解。 Nick: compstand的主语是谁?searle还是屋子? 我: u-understand or i-udnerstand, they are still in the same reference frame or space. Here is some related dialogue in my previous blog: 应行仁 2016-4-5 11:41说“理解”,其实人类也是如此。同一个词一句话甚至一个理论,不同的人“理解”的实际都只是自己知识结构里的东西,言者与听者的感受并非都一样。虽然在共同的文化和经历的人群中,有许多共同的复盖,但还是存有许多不同。“红花”在常人,红绿色盲的人和天生盲人的理解都不同。成语“朝三暮四”,多少人用的是它原来的含义?《周易参同契》,丹鼎派和全真派都认为是描述他们进展的景象。人们在评价其他创造物时,往往忘记了自己也能落入同样的局限,并非是驾凌它们之上的“万物之灵”。 博主回复(2016-4-5 13:14):人与人之间的理解鸿沟,与机器是否“理解”人,处在不同的平面。当我们说张三没有理解李四的时候,或张三只部分理解了李四,或张三完全理解李四,我们能得出这个结论,是基于处于同一个理解框架。如果用同一个框架,机器根本就谈不上“理解”或者“不理解”人(或人类语言)。 我: 这个框架不是图灵测试这样的表象 Nick: 所有的arguments都是冰冰圆圆。 我: u are not right. u r not even wrong. R ight and wrong must be in the same space so we can judge or argue right and wrong, but u and me are out of space, so are bing and yuan. The understanding between human and machine and the understanding between humans are in different spaces. They are not a thing no matter how similar they look to each other. 【相关】 重温AI历史上的思维实验:老外不会中文,正如机器没有理解 【新智元笔记:强弱人工智能之辩】 【泥沙龙笔记:从机器战胜人类围棋谈开去】 、 NLP 历史上最大的媒体误导:成语难倒了电脑 ; NLP 围脖:成语从来不是问题 【置顶:立委科学网博客NLP博文一览(定期更新版)】
个人分类: 立委科普|4811 次阅读|10 个评论
图灵测试:你幸福吗?
热度 3 Furaibo 2012-10-24 16:00
图灵测试:你幸福吗?
图灵测试:你幸福吗? 图灵测试是计算机科学中的一个著名的话题,他涉及到“计算机与智能”的哲学问题,即“计算机有智能吗?”“计算机怎样才算有了智能?”等。 维特根斯坦认为: 计算机能做出正确的行为,在屏幕上给出令人满意的结果。但是,屏幕上给出的正确结果是程序设计者行为的产物,不是机 器的‘智力行为’表现 ,它不知道那些显示字符的意义,它什么也不知道,什么都不理解。 同时,他认为 智力无法脱离感情力和意志力,思维是生命现象。把意志、热情、欲望、疼痛归于机器是无意义的。机器知道疼痛吗?要知道,就是我们人的身体都不知道疼痛,而是我的脑袋里有疼痛。这些是生命物的能力,是具有内在目的、自行确定目的、追求幸福的生物的能力,机器没有;这些也是思想的根源,不是机器计算的根源。机器有计算力,没有生命性。 ( 摘自《智能学简史》 ) 1950 年, 图灵 在《思想》杂志上发表了著名哲学论文:《计算机器与智能》,提出了判断一台计算机是否具智能的 “模拟游戏”(测试方法),即现在通常所谓图灵测验。 图灵提出的这个测验的目的,是提供一个令人满意的、基于计算行为的智能定义。假设有一位询问者,在彼此看不见的条件下对一个人和一台机器进行问答测验 。 比如询问者问:“你幸福吗?”,一个回答“不,我姓图!”,而另一个回答“我不知道,莫言幸福”。当你说:“今天真热啊!”,一个说:“真是热死我了,亲!”,另一个则说:“终于有点夏天的味道了。” 你说哪一个是人呢? 象这样, 如果在问答中询问者完全分辨不出回答者是人、还是机器,那么,我们就 可以 说机器有了智能,或者认为机器已达到了人类智能行为的水平。 对图灵测试的质疑从来就没有间断过,其中罗素说:“ aeronauticalengineeringtextsdonotdefinethegoaloftheirfieldasmakingmachinesthatflysoexactlylikepigeonsthattheycanfoolotherpigeons ”,对这种通过机器的行为来判断其是否具有智能的方法,在罗素看来很可笑。对图灵测试的另一个质疑是 Searle 提出的中文屋子。 抛开这些质疑不谈, 到目前为止, 人工智能学者 为了让机器顺利通过图灵测验而做了大量工作, 但并 没有取得很大成果。但是,要让机器在测验中达到较高的水平,例如,一个普通询问者在 3 分钟提问后还搞不清楚对方是人还是机器, 聊天机器人已经在一些电子商务网站上得到应用 。 图灵测试的另一个成功的应用是“反图灵测试”而用之的,它不是试图让计算机通过图灵测试,而是通过设置一些计算机难以解决的问题,来判断网上的某种行为是人还是计算机,例如许多网站的登录界面的验证码。这也许是图灵所没有预料到的吧。
7193 次阅读|8 个评论
自由意志系列14:西尔勒的中文屋子
jingpeng 2012-7-14 15:15
自由意志系列14:西尔勒的中文屋子
这是一个假想的思想实验(哲学家经常这样干,俗称YY)。第一次看到是在彭罗斯的皇帝新脑,当时没有理解。昨天看一本人工智能的书,终于理解了,其实挺简单的,但很深刻。 这个实验,是用来反驳强人工智能的观点的。先解释一下,强人工智能观点就是认为机器可以和人一样,有想法和情感感受。相对的,弱人工智能观点认为,机器可以模拟到和人的行为一样,在行为模式上非常像人,甚至表现出悲伤等情绪的样子,但实质上是没有思维和感情的。西尔勒(John Searle)认为,机器永远是机器,不管表现得多么像人,也是冰冷的没有感情的机器。 他提出了著名的中文屋子思想实验。有一间与世隔绝的屋子,只有一个小孔,通过传递纸片与外界沟通。屋子里有人和文本对照的规则,假设这个文本对照本非常强大,可以把中文的问题,转换成中文的回答。屋子里的人把传进来纸片的内容,转换成对应的中文回复。注意一点,这里的转换仅仅是文本内容的映射,屋子里的人是完全不懂中文的,他完全不理解转换出去的中文的含义。但从外面的人看来,这个屋子里的传出的纸条,又像是和一个理解问题的人对话。比如,传进去“今天太他妈热了”,传出来“是啊,而且蚊子超多,真烦!”。类似这种对话,里面转换文本的人完全不理解。 问题就来了,即使一个物体表现得和有思维和感情一样,这也不能表明他/她是有意识或者智能的。西尔勒的中文屋子是完全可以通过图灵测试的,但即使这样,内部的人仍然只是机械地执行步骤,表现得和有思维一样,实际上完全没有理解。这有点像我们现在的程序,可以表现得和有思维一样,但还是没有实在的感情。 我的看法在前文《 Creating the Impossible ! -- 创造意识 》已经讲过了,赞同强人工智能的观点。中文屋子实验并不能完全证明机器没有智能,而是说表现得像有智能,并不一定真的有智能。我们现在的机器没有智能和情感,只是没有按照脑的规律进行设计。要满足脑的特性,制造机器是有非常大的技术挑战的,目前来看,还没有看到可行的技术路线。 这已经不是一种理想,而似乎是一种信仰了! John Searle 参考资料: 【1】 罗杰·彭罗斯. 皇帝新脑 . Translated by 许明贤 and 吴忠超. 湖南科学技术出版社, 2007. 【2】 拉塞尔, and 诺文. 人工智能——一种现代方法 . 北京: 人民邮电出版社, 2004.
个人分类: 哲学-自由意志|8582 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-20 06:26

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部