科学网

 找回密码
  注册

tag 标签: 图灵测试

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

质能与信智的根本区别在于:时空与序位的区别,质点与格点的区别
geneculture 2020-4-29 09:50
个人分类: 融智学前期探索|1047 次阅读|0 个评论
中美塞尔研究中心关注Mind和强弱AI的认知问题
geneculture 2020-4-28 09:49
心灵或心智成为最重要的关注焦点,说明思想家们越来越关注它及其可左右一切的超级作用。正如塞尔所说:我们对各个问题(比如意义的本质、理性与一般语言等)的理解是以理解最为基本的心智过程为前提的。 认知科学这一新学科的产生,为哲学打开了研究所有形式的人类认知的整个研究领域。发明认知科学的乃是跨学科团队,包括反对哲学中的行为主义的哲学家、专注于哲学的心理学家、语言学家、人类学家和计算机科学家。我相信今天在哲学中最为活跃的、最富有成果的一般性研究领域乃是一般性认知科学领域。   认知科学的基础主题是各种形式的意向性。“意向性”是哲学家所使用的一个专门术语,指称所有那些指称或关涉世界中的物体和事态的心智现象。被如此定义的“意向性”与日常意义上的“意欲”(比如我今晚打算去看电影)并没有特殊联系。意欲只是各种意向性中的一种。被如此定义的意向性至少包括信念、欲望、记忆、知觉、(日常意义上的)意向、意向行为和情感。 由此可见塞尔老师的重要贡献,这就是他为什么会有如此重要的影响力。 号称国际十大悖论之一的中文屋论题,从图灵测试的角度开启了人工智能的强弱之分及其带来的人们的一系列后续的选择。其重要性再次被证明。 中美塞尔研究中心关注的焦点首先就从它(mind)和强弱AI作为突破口。具体做法就是由虚到实地贯通了古希腊哲学与近现代科学的第一次人类认知飞跃,进而迈入了第二次人类认知大飞跃,从而,明确地开启了三智双融的融智学系列课程(见:清华大学雨课堂)。 附录:塞尔谈心灵哲学与认知科学   心—身问题是一系列更为广泛的问题,即心灵哲学的一部分。心灵哲学不仅包括传统的心—身问题,还包括了大量其他问题,分别涉及心灵和意识的本质、知觉、意向行为和思维的意向性等。过去二、三十年中发生了一件十分奇怪的事情——心灵哲学成为了哲学的核心所在。哲学的许多其他分支,比如认识论、形而上学、行为哲学甚至是语言哲学,现在都被看作是依赖于心灵哲学的,有时它们甚至被当做是心灵哲学的分支。五十年前语言哲学还被视为是“第一哲学”,而今心灵哲学取代了这一位置。这一转变有着许多原因,但其中的两个最为重要。   首先,对于许多哲学家来说,越来越很明显的是,在许多主题中,我们对各个问题(比如意义的本质、理性与一般语言等)的理解是以理解最为基本的心智过程为前提的。举个例子,语言表征实在的方法是依赖于心灵表征实在的方法的,后者在生物学上更为基本,并且实际上语言表征乃是更为基础的心智表征(比如信念、欲望和意向等)的有力拓展。   第二,认知科学这一新学科的产生,为哲学打开了研究所有形式的人类认知的整个研究领域。发明认知科学的乃是跨学科团队,包括反对哲学中的行为主义的哲学家、专注于哲学的心理学家、语言学家、人类学家和计算机科学家。我相信今天在哲学中最为活跃的、最富有成果的一般性研究领域乃是一般性认知科学领域。   认知科学的基础主题是各种形式的意向性。“意向性”是哲学家所使用的一个专门术语,指称所有那些指称或关涉世界中的物体和事态的心智现象。被如此定义的“意向性”与日常意义上的“意欲”(比如我今晚打算去看电影)并没有特殊联系。意欲只是各种意向性中的一种。被如此定义的意向性至少包括信念、欲望、记忆、知觉、(日常意义上的)意向、意向行为和情感。   悖谬的是,认知科学乃是以一个错误为基础的。一个学术科目以一个错误为基础,这并不必然是致命的,事实上许多科目都是以错误为基础的。比如化学就是以炼金术为基础的。但是与错误紧密相连总会导致低效率,并且对进步来说也是一个阻碍。就认知科学而言,其错误乃是假设脑是一个数字化的计算机,而心灵则是一个计算机程序。   要证明这是一个错误,其实有很多办法,但最简单的一个就是指出应用性计算机程序完全是根据符号或句法程序来定义的,因而是独立于硬件的物理学的。但另一方面,心灵所包含的东西要比符号或句法要素要多得多,心灵包含着伴随有思维、感觉等形式的语义内容的真实心智状态,这些都是由脑中的十分特殊的神经生物学过程所引起的。心灵不可能存在于程序当中,因为对于保证真实心智过程的语义内容来说,程序的句法操作其自身并不是充足的。这一点已经在多年前被我用中文屋论证加以证明了。   关于各种版本的心灵的计算理论的争论还在继续。一些人认为引入使用平行分布式处理(PDP)的计算机,就能够回答我刚刚所提出的异议,这种观点有时也被称为联结主义。但我并没有看到引入联结论证产生了什么不同。问题在于,任何可以在连结程序中执行的计算,同样可以在传统的冯·诺依曼系统中执行。从数学结果我们可以得知,任何可计算的函数都可以用通用图灵机来计算。在此意义上,依靠连结架构并没有增加什么新的计算能力,尽管连结系统可以工作得更快,因为它们可以有数个不同的平行运行且相互作用的计算程序。因为连结系统的计算力量并不比传统的冯·诺依曼系统更为强大,所以如果我们声称连结系统更具优越性,那么我们就必须诉诸于此系统的某些其他特征。但连结系统唯一拥有的其他特征必须落实于并联式运作(非串联式运作)的硬件之中。然而如果我们声称是连结架构而非连结计算该对心智过程负有责任,那么我们就不是在发展心灵的计算理论,而是在做神经生物学思索了。伴随着这一假设,我们放弃了心灵的计算理论,而赞成尚不确定的神经生物学。   在认知科学中实际发生的乃是范式转换,也就是从心灵的计算模型转变为更多地以神经生物学为基础的心灵概念。我很欢迎这一发展,其原因到现在应该已经是很清楚了。随着我们更加了解脑的运作,在我看来我们将成功做到逐步用认知神经科学来替代计算认知科学。实际上我相信这一转变已经在发生了。   认知神经科学中的进步似乎创造了更多的哲学问题,远比它所解决的要多得多。举个例子,提高对脑之运作的认识在何种程度上将迫使我们对用来描绘出现于思维和行为中的心智过程的常识词汇表做出概念修正?就最简单的情况而言,我们可以在现存的概念机制中对认知神经科学的发现加以消化吸收。因而当我们引入神经生物学研究向我们展示的那类区分时,我们并不需要对记忆这一概念作出太大的修正。现在在大众语言中,我们会区分短期记忆和长期记忆,并且毫无疑问随着研究的继续,我们还会作出进一步的区分。或许图像记忆这一概念已然成为了受过教育的人们的一般语言。然而就某些情况而言,看起来我们被迫要作出概念修正。很长时间以来我都认为,把记忆看作是储存体验和知识的仓库这一常识概念,无论是在心理学上还是在生物学上都是不恰当的。我认为在这一点上,当代研究会为我作证。我们必须把记忆看作是一个创造性过程,而不是一个恢复性过程。一些哲学家认为,未来神经生物学的发现将把比这更激进的概念修正强加于我们。   当我们开始调查出现于成年人中的心智现象和关于心智现象的发展证据之间的关系时,另一系列的哲学问题出现了。对于信念和真的关系,幼儿很明显和成年人有着不同的概念。我们应当多认真地来看待这些区别?我们是否应当通过对发展资料加以合并来丰富我们的意向性理论?我们还不知道这些问题的答案,我之所以提到它们,是想引起对下述事实的关注:即使我们消除了假设脑是一个数字化计算机这一哲学错误,并且有了更为成熟的、更为精致的认知神经科学,我们依旧还要处理大量哲学问题。  
个人分类: 融智学前期探索|2022 次阅读|0 个评论
虚拟的孪生图灵机——以双语信息处理为例
geneculture 2019-7-2 12:38
虚拟的孪生图灵机——以双语信息处理为例 【摘要】: 本文阐述一种虚拟的孪生图灵机,即:由两个图灵机组成的孪生并行计算机,其特征是其受限模式与派生模式分别由汉语的言即单音节字的基本符号对象和语即双音节多音节字组的符号组合解释为例加以说明。其作用在于基于它可建构理想的双语信息处理系统,即:协同智能计算系统;应用它可形成并行计算、分布计算、网格计算、虚拟计算和云计算乃至超级计算。其意义在于借助它蕴含的协同智能计算本质——虚拟与现实的关系,可把图灵可计算性、计算复杂性(其中揭示了一个基本原理——NP=P当且仅当N可有可无)和图灵测试连贯起来。 【作者单位】 : 中国地质大学(北京)高等教育研究所;塞尔研究双语信息处理课题组; 【基金】: 中美合作项目:塞尔研究双语信息处理课题(20110128) 【分类号】: TP338.6 虚拟的孪生图灵机_以双语信息处理为例_邹晓辉.pdf (全文)
个人分类: 双语信息处理|1044 次阅读|0 个评论
重温图灵的可计算性、基于序数的逻辑系统、计算机与智能
geneculture 2019-4-13 08:04
可否这样做一个简单的概括(希望听取不同的意见或建议!): 1936年图灵确立了通用计算机可计算的约束条件(可否计算的界限或标准)。 1938年图灵论证了基于序数的逻辑系统(对哥德尔定理之后的形式化数学系统的探索)。 1950年图灵不仅提出了后来被称为“图灵测试”的人工智能形式化判定方式(是否具有人工智能的界限或标准)而且还论及了学习机器。 学习机器的想法 对某些读者来说似乎有些矛盾,机器的操作规则怎么能改变呢?无论机器过去经历什么,未来会有什么变化,其操作规则都应该完整地描述机器会如何反应,即这些规则是不随 时间变化的。 学习机器的一个重要特征是,老师通常对其内部发生的事情不了解,尽管老师仍然可以在一定程度上预测其学生的行为,经过实验而设计良好(或程序)的儿童机器的后期教育尤其如此。 这一点与使用机器进行正常计算的过程形成鲜明对比:那里的目标是要清楚明白机器在计算中任意时刻的状态,而要达到此目标则需要付出艰苦的努力。如此,“机器只能按我们的要求做事”的观点就会显得很奇怪了,能够输入机器的大部分程序终归会做一些我们无法理解的事情,或者被认为是完全随机的行为。 智能行为应该和完全服从命令的行为有别,但又不能太大,不应该产生随机的行为或无限循环。通过教育和学习使我们的机器能够进行模仿游戏的一个重要结果是,“人类犯错误”可能会被相当自然忽略掉,即不需要专门的“指导”(读者应该将其与第 页上的观点调和)。学习的过程并不会产生百分之百的确定结果,否则就不是学习了。 在一个学习机器中加入随机元素应该是明智的 (参见第 页)。当我们寻找某个问题的解时,随机元素相当有用。例如,我们想找到一个介于 50 和 100 之间的数,它等于各个数字的和的平方。我们可以从 51 , 52 开始一直试下去直到找到满足条件的数。另一个方法是随机的选数直到找到满足条件的数,这种方法的优点是不需要跟踪已经尝试过的值,但缺点是一个数可能重复试两次,如果存在多个,这点并不很重要。 系统化方法的一个缺点,是可能存在很大一段数中并不存在解,但我们需要先判断它。 现在的学习过程可以看成寻找满足老师的要求 (或一些其他的标准 ) 的行为, 既然可能存在大量的可能解,随机方法可能比系统方法更好。 应该注意到,在进化过程中有相似的方法,那里系统方法是不可能的,如何跟踪已经尝试过的不同基因组合,从而避免重复呢? 我们希望机器最终能和人在所有纯智力领域竞争,但何处是最好的开端 ?甚至这也成为困难的选择。许多人认为抽象的活动, 例如 国际象棋 可能是最好的选择 ;也有人认为最好用钱给机器买最好的传感器,然后 教它 听说英语 ,和教一个正常的小孩一样,教它命名事物等等。 我并不知道正确的答案,但是我想 两方面都应该试试 。 基于统计的机器学习已经蕴含在其中了。 这项已经超越并进一步发展到围棋程序了。 这项在继续努力的进程中,例如:机器翻译已经有很大的进步了。 附录: 1936年,图灵发表了他的论文“关于可计算数字,对Entscheidungsproblem的应用”(1936)。 在本文中,图灵重新阐述了KurtGödel于1931年关于证明和计算限制的结果,用形式化和称为图灵机的形式和简单假设设备取代了哥德尔基于通用算法的形式语言。 Entscheidungsproblem(决策问题)最初由德国数学家David Hilbert在1928年提出。图灵证明了他的“通用计算机”能够执行任何可以想象的数学计算,如果它可以表示为算法。 他继续证明决策问题没有解决办法,首先表明图灵机的暂停问题是不可判定的:无法通过算法决定图灵机是否会停止。 On Computable Numbers, with an Application to the Entscheidungsproblem https://en.wikipedia.org/wiki/Turing%27s_proof In 1936, Turing published his paper On Computable Numbers, with an Application to the Entscheidungsproblem (1936). In this paper, Turing reformulated Kurt Gödel 's 1931 results on the limits of proof and computation, replacing Gödel's universal arithmetic-based formal language with the formal and simple hypothetical devices that became known as Turing machines . The Entscheidungsproblem (decision problem) was originally posed by German mathematician David Hilbert in 1928. Turing proved that his universal computing machine would be capable of performing any conceivable mathematical computation if it were representable as an algorithm . He went on to prove that there was no solution to the decision problem by first showing that the halting problem for Turing machines is undecidable : It is not possible to decide algorithmically whether a Turing machine will ever halt. 1938年,基于序数的逻辑系统,数学家Alan Turing的博士论文。 图灵的论文不是关于一种新型的形式逻辑,也不是对源于序数或相对编号的所谓“排序逻辑”系统感兴趣,在这种系统中,可以在相对准确性的基础上对真实状态进行比较。相反,图灵研究了使用康托尔的无限方法解决Godelian不完备性条件的可能性。因此可以说明这种情况 - 在所有具有有限公理集的系统中,排他性或条件适用于表达能力和可证明性;即一个人可以拥有能力,没有证据,证明也没有能力,但两者都不能。 本文是对哥德尔定理之后的形式数学系统的探索。哥德尔证明了任何形式系统S足以代表算术,有一个定理G是正确的,但系统无法证明。可以将G作为附加公理添加到系统中以代替证明。然而,这将创建一个新的系统S',它具有自己的不可证实的真定理G',依此类推。图灵的论文考虑将过程迭代到无穷大,创建一个具有无限公理的系统。 该论文在Alonzo Church的普林斯顿大学完成,是一部经典的数学着作,引入了序数逻辑的概念。 马丁戴维斯表示,尽管图灵使用计算神谕不是论文的主要焦点,但事实证明,它在理论计算机科学中具有很高的影响力,例如:在多项式时间层次中。 Systems of Logic Based on Ordinals https://academic.oup.com/mind/article/LIX/236/433/986238 https://en.wikipedia.org/wiki/Systems_of_Logic_Based_on_Ordinals Systems of Logic Based on Ordinals was the PhD dissertation of the mathematician Alan Turing . Turing’s thesis is not about a new type of formal logic, nor was he interested in so-called ‘ranked logic’ systems derived from ordinal or relative numbering, in which comparisons can be made between truth-states on the basis of relative veracity. Instead, Turing investigated the possibility of resolving the Godelian incompleteness condition using Cantor’s method of infinites. This condition can be stated thus- in all systems with finite sets of axioms, an exclusive-or condition applies to expressive power and provability; ie one can have power and no proof, or proof and no power, but not both. The thesis is an exploration of formal mathematical systems after Gödel's theorem . Gödel showed for that any formal system S powerful enough to represent arithmetic, there is a theorem G which is true but the system is unable to prove. G could be added as an additional axiom to the system in place of a proof. However this would create a new system S' with its own unprovable true theorem G', and so on. Turing's thesis considers iterating the process to infinity, creating a system with an infinite set of axioms. The thesis was completed at Princeton under Alonzo Church and was a classic work in mathematics which introduced the concept of ordinal logic . Martin Davis states that although Turing's use of a computing oracle is not a major focus of the dissertation, it has proven to be highly influential in theoretical computer science , e.g. in the polynomial time hierarchy . 1950年, “计算机器和智能”是由Alan Turing撰写的关于人工智能主题的开创性论文。 这篇论文于1950年出版于Mind,是第一个向大众介绍他现在称为图灵测试的概念的论文。 图灵的论文考虑了“机器可以思考吗?”的问题。 由于“思考”和“机器”这两个词不能以一种满足每个人的明确方式来定义,图灵建议我们“用另一个与其密切相关的问题代替问题,用相对明确的词语表达。” 要做到这一点,他必须首先找到一个简单而明确的想法来取代“思考”这个词,其次他必须准确地解释他正在考虑哪些“机器”,最后,凭借这些工具,他提出了一个与之相关的新问题。 首先,他认为他的回答是肯定的。 A.M. Turing, Computing machinery and intelligence, Mind,59, 433- 460 , 1950. https://www.csee.umbc.edu/courses/471/papers/turing.pdf Computing Machinery and Intelligence https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence Computing Machinery and Intelligence is a seminal paper written by Alan Turing on the topic of artificial intelligence . The paper, published in 1950 in Mind , was the first to introduce his concept of what is now known as the Turing test to the general public. Turing's paper considers the question Can machines think? Since the words think and machine cannot be defined in a clear way that satisfies everyone, Turing suggests we replace the question by another, which is closely related to it and is expressed in relatively unambiguous words. To do this, he must first find a simple and unambiguous idea to replace the word think, second he must explain exactly which machines he is considering, and finally, armed with these tools, he formulates a new question, related to the first, that he believes he can answer in the affirmative.
个人分类: 学术研究|3083 次阅读|0 个评论
形式化理解模型及其原理可预言图灵测试将因为字棋系统普及而全面通过
geneculture 2019-4-10 08:39
战略全局不仅对一个国家和民族至关重要(而且对一个人、一个家庭乃至一个单位也都至关重要)古今中外不知有多少人都试图参悟通透但是很遗憾都只能望洋兴叹(即使在大数据与深度学习参与的时代也无济于事因为棋理不明)因此大大小小的棋局的棋理能否全面贯通至关紧要。1996-1997国际象棋大师输给IBM深蓝曾震惊世界,2016-2017欧洲乃至国际围棋冠军相继输给谷歌阿尔法围棋新一代人工智能系统更是震撼了世界,因此,我们预言:2019-2023中国乃至国际的阅读理解系统和机器翻译系统都将输给基于塞尔字棋系统以及智能化双字棋理支配的全球语言定位系统和全球知识定位系统乃至全球软件定位系统。
个人分类: 学术研究|1355 次阅读|2 个评论
【尼沙龙笔记:图灵测试是语言理解的合理表示吗?】
liwei999 2018-2-23 18:20
毛: 伟哥对 理解 的理解似乎与二师兄不同?@wei 李: 董老师是我的启蒙老师 他当年的逻辑语义学说 回答了一个语句理解的问题 觉得豁然开朗 迄今也没别的学说这样让我信服过。@董振东 毛: 愿闻其详 ? 李: 说理解了一句话 就是解构出里面的逻辑语义:谁是逻辑主语 逻辑宾语 等。董老师定义了将近 100 种逻辑语义角色,形成一个 hierarchy,最上层的逻辑语义角色不过10种。简单说 就是搞明白 谁 对谁 做了 什么 何时 何地 何原因 如何做的 等等。 毛: 那就必定是符号派了? 乡下的老太太,根本不知道主语谓语,她们不是也能理解吗? Nick: @毛德操 老太太不知道,但老太太的大脑知道。老太太不知道自己的大脑知道 李: 是啊 老太太知道 “她喜欢红烧肉” 与 “红烧肉她喜欢” 是一个意思,也知道与 “红烧肉喜欢她” 意思正好相反,后者是胡说。所以老太太的逻辑语义是明白的 虽然她不懂得这就叫 parsing 或逻辑语义解析。 毛: 那怎么知道老太太的大脑知道?她可能并未转化成符号并加以解析。 @wei 你讲的 理解 是否包含对于因果的认知? 李: 语句理解包含部分的因果。 毛: “部分”,多大的部分?有多大的部分,才算是 理解 了?老太太的大脑知道,其外部表现是什么?如何判定? 郭: “理解”,我的理解如下:我脑子里有一个我自己的“大前提”,或者叫“common sense”,就是我的“认知”。你说一句话,如果我“理解”了,我就可以把你的话作为“小前提”。然后,我可以用“我自己的逻辑”,“推导”出“我的结论”来。这里,是否“符号”并不必然。这“逻辑”,也完全可以“非 亚里士多德”,更不必“因果”。但无论如何,要能再走一步。 毛: 这其实就是图灵测试的变形,只是把它用在人与人之间(而不是机器与人之间)。你是以你自己的认知作为对照,看老太太的反应是否与这个对照者等同。所以,我认为唯一的办法就是图灵测试。 郭: “老太太的大脑”的判定,其实无异于图灵测试。你说“我喜欢红烧肉”,她如果回答“我小时候吃不起啊”,我就认为她“理解”了。 毛: 对。你还可以问:“为什么吃不起”,如果回答“没钱”,就更说明她理解了。通过了图灵测试,就可以认为测试目标真的理解了,或者说具有了(正常)人的智能。图灵在五几年就想透了这一层。问题其实在庄子那个时候就提出来了(子非鱼),但是他没有答案,没有提出方法。 郭: 不过,图灵测试,可是批评者众啊!也是问题一大堆。 白: 图灵测试这思路不对。 毛: 愿闻其详 ?批评者众可以,但是得要提出替代方案。 白: 我喜欢Winograd Scheme的路子。用代词指代考系统。 毛: 那都涉及语法,可是许多人根本不知语法为何物。比方说我五岁的外孙女,她已经能理解不少事情了,但是她根本不知道语法。 白: 没有显性语法,普通人做得出来的。比如“张三告诉李四他很伤心,他安慰了他。” 然后问:谁很伤心?谁安慰了谁?这完全不涉及显性的语法。 毛: 问题是,你怎么知道她会运用隐性的语法?你钻不到她脑子里,只能从外部观察。 白: 都是这套路。不管有没有隐性语法,做出来算。 毛: 对,做出来算,这实质上就已经是图灵测试了。 白: 不是自然对话,是语言学家和NLP专家设计出来的考题。比较人和机器的考分。 毛: 这实质上仍是图灵测试,形式上有所不同。当然,现在机器一般而言还没有能通过图灵测试。但是观察目标物对于外部刺激所作的反应,并与对照物相比,这个原理是一样的。我们在考察一个软件模块时只看其外部表现,即API, 而不追究其内部实现,也是同样的思路。 白: 其实音乐和语法问题很类似。会唱的听众可以不识谱,但是哪里跟原曲不一致是可以听出来的。 毛: 对的。其实这就对应着符号和神经两条路线的差异。 白: 但是用什么记谱更精确,这个问题是有答案的。 李: 说一千道一万,我还是迷信SVO,即逻辑语义。 毛: 你自己已经说了,迷信。 白: 手握精确武器的人对手握原始武器的人,的确有傲视的资本。 毛: SVO是高级的思维活动,而神经元是低级的,接近于本能的反应(所谓 下意识 的反应)。下意识的反应猫狗都有,而 SVO 只有人能做。所以脱离 SVO 谈人工智能是不现实的,只是目前的热点是在解决 下意识 活动而已。 白: 记谱法的好坏不需要迷信。 毛: 记谱方法的好坏,是符号派内部的冲突。简谱与五线谱,基本上就是首调唱名与固调唱名的分岐,我觉得都有道理。一些年轻人把人脸识别说得神乎其神,我说: 别以为你这就有多牛,你去牵条狗来,它照样也能人脸识别。 白: 比如说切分音,这个概念在不同记谱法里面可能表现形式不同,这无关大局。但假设一个记谱法里居然没办法表示切分音,这就是落后的记谱法了。 毛: 是的。这就是所谓“不完备”。这里又可看出深度学习与符号推理之间的差异。前者相当于能跟着唱,或记住了几支小调,但绝对成不了音乐家。所以,连接主义所能达到的水平,只能相当于人类中的文盲。而若想要知书达理,就得上学校去读书,学习符号与推理。 白: 当年表示不了“异或”的情况,就很像表示不了切分音的记谱法。 毛: 对对对 白: 如今表达不了robustness的符号逻辑,则是另一种尴尬。都构成被鄙视的理由。 毛: 反正戈德尔已经说了,逻辑本身就是不完备的。但是这并不意味着可以不要逻辑。 白: 表达不了灵活语序的形式语言,也是另一种尴尬。也不意味着逻辑不要创新。 毛: 那是因为有得必有失。你把语言简化了,当然就得付出代价。 白: 还原复杂的路径不止一条,也不为某种技术路线所专属。 毛: 对,应该互补。所以符号推理与深度学习都需要,而且得要能打通才好。 白: 也许真相离大家都有点远,谁不创新都是危险的。 毛: 是啊。但是创新难呐。 【相关】 【李白宋93:汉语语序的自由与不自由】 【语义计算:李白对话录系列】 【置顶:立委NLP博文一览】 《朝华午拾》总目录
个人分类: 立委科普|4345 次阅读|0 个评论
[转载]未来简史(20)
罗非 2017-10-4 10:16
生命的等式 科学家并不知道,大脑中电子信号的集合究竟是怎么创造出主观体验的。更关键的是,他们不知道这种现象在进化上到底有什么好处。这是我们在理解生命时最大的空白。人类有脚,是因为几百万个世代来,我们的祖先要去追兔子,逃离狮子的利爪。人类有眼睛,是因为若干万年来,我们的祖先要看到兔子去了哪儿,狮子又从哪儿来。然而,人类为什么要有饥饿和恐惧这样的主观体验? 不久之前,生物学家提供了一个非常简单的答案。主观体验之所以对人类的生存至关重要,是因为如果我们不会感到饥饿或恐惧,根本就懒得再去追兔子或躲狮子了。看到狮子,人为什么要逃?很简单,他被吓到,就逃了。所以,主观体验能够解释人类的行为。但如今,科学家又提供了更详细的解释。人看到狮子,电子信号便从眼睛传向大脑,刺激某些神经元,神经元又放出更多信号,于是整条线路上的神经元一一受到刺激、放出信号。如果有足够多神经元、用足够快的速度放出信号,指令就能传到肾上腺,让大量肾上腺素传遍全身,心脏也收到指令要跳得快一些,同时在运动中枢的神经元也向腿部肌肉发出信号,让肌肉开始伸展或收缩,于是这个人从狮子旁边逃之夭夭。 讽刺的是,我们越能清楚地描绘这个过程,反而越难解释为何要有各种意识感受。我们越理解大脑,心灵反而越显得多余。如果整个系统就是电子信号从这里传到那里,那我们何必去感觉这种事情?如果就是一连串的电化学反应,从眼睛里的神经细胞一路传到腿部肌肉,何必要在这一连串反应里加入主观体验?主观体验到底有什么作用?骨牌没有任何主观体验,还是能够一块一块自己倒下。那么,为什么神经元要有感觉才能互相刺激,或是告诉肾上腺开始分泌肾上腺素?事实上,在各种身体活动(包括肌肉运动和激素分泌)中,有 99% 并不需要任何意识感觉。那么,不过就是为了剩下的那 1% ,为什么神经元、肌肉和腺体就需要去感觉呢? 你可能会说,我们之所以需要心灵,是因为心灵能够储存记忆、做出规划,并且自动产生全新的影像和想法,而不只是对外界的刺激做出反应。例如,一个人看到狮子,并不是直接对这个猎食者自动产生反应,而是先想起一年前有头狮子吃了他的阿姨,于是开始想象自己被狮子撕成碎片的模样,又想到如果这样自己的小孩就没了爸爸。这才是他会逃的理由。确实,很多连锁反应都是从心灵开始,而不是从任何直接的外部刺激开始的。因此,可能某人的心灵中突然出现关于过去狮子攻击人的记忆,而让他开始思考狮子造成的危险。于是他就聚集所有部落成员,大家一起思考有什么新方法能把狮群吓跑。 但等一下,究竟这些所谓的记忆、想象和想法又是什么?它们存在于哪里?根据目前的生物学理论,我们的记忆、想象和想法并不是存在于什么更高层而无形的领域,它们也是几百亿神经元发射出的电子信号。所以,就算我们已经把记忆、想象和想法也纳入考虑,整件事情仍然就是一连串通过数百亿神经元的电化学反应,以肾上腺和腿部肌肉开始活动为结尾。 到底在这个漫长而曲折的旅程中,有没有哪个步骤(例如在这个神经元传到下个神经元的那一瞬间)让心灵介入干预,并决定下个神经元要不要放出信号?有没有任何的实质动作甚至是某个电子的移动,是出于 “ 恐惧 ” 这种主观体验,而不是因为前一个电子的运动?如果没有这种运动 —— 每个电子的运动都是因为先前其他电子的运动 —— 那我们究竟为何需要体验到恐惧?我们对此一无所知。 哲学家将这个谜团包裹在一个吊诡的问题中:有什么事是发生在心灵中的,但没有发生在大脑中?如果心灵中的一切都发生在我们庞大的神经元网络中,那又何必把心灵独立出来说呢?而如果确实有些发生在心灵里的事,是在实际神经网络之外发生的,它们究竟发生在哪里?假设让我问你,你觉得荷马 · 辛普森对于克林顿和莱温斯基的丑闻有何想法?在这之前,你可能从没想过这件事,所以现在你的心灵就要融合两个过去不相关的记忆,可能想到的画面就是荷马喝着啤酒,看着电视上的克林顿说着 “ 我与该名女子并无性关系 ” 。这种融合究竟发生在何处? 一些脑科学家认为,这种融合发生在许多神经元互动所形成的 “ 球形工作区 ” 。 4 但在这里, “ 工作区 ” 只是个比喻。而比喻背后的现实是什么?到底不同信息是在什么地方交会融合的?从目前的理论来看,这肯定不会发生在什么第五维度,而是像两个原本不相连接的神经元,突然开始彼此发送信号。于是,在克林顿神经元和荷马神经元之间长出了新的突触。但如果是这样,这也不过就是两个神经元互相连接的实际事件,我们为什么又需要超越其上的意识体验? 同样这个谜团,我们也可以用数学术语来呈现。目前的看法认为生物就是算法,而算法能用数学公式来呈现。你可以用数字和数学符号写出自助饮料机准备一杯茶的步骤顺序,或是写出大脑发现狮子接近时的一连串反应。若是这样,只要意识体验确实有某些重要功能,应该就能用数学来表示,因为它们正是算法的重要部分。如果我们写出 “ 恐惧 ” 的算法,将恐惧分成一连串的计算,我们应该找到: “ 就在这里,计算过程第 93 步,这正是主观体验到恐惧的时候。 ” 但在数学这个博大精深的领域里,有没有哪种算法中能找到主观体验?到目前为止,我们并不知道有这样的算法。虽然人类在数学和计算机科学领域知识广博,但目前创造出的所有数据处理系统都不需要主观体验就能运作,与痛苦、快乐、愤怒或爱的感受无关。 5 又或许,我们需要有主观体验,才能够反观自我?在大草原上游荡、计算自己生存和繁衍机会的动物,必须想象出自己的行动和决定,而且有时也要将这种想象传达给其他动物。如果大脑要设想出一个自己如何决策的模型,就会被困在无限的循环中,开始胡言乱语!而跳出这个循环,出现的就是意识。 这种说法在 50 年前可能听来合理,但到了 2016 年已经有所不同。包括谷歌和特斯拉在内的几家公司正在设计自动驾驶汽车,而且部分已经上路。控制自动驾驶汽车的算法每秒会做几百万次计算,判断其他车辆、行人、交通信号和坑洞等种种因素。自动驾驶汽车能够自动红灯停、绕过障碍,并与其他车辆保持安全距离,而不会感到恐惧。自动驾驶汽车也必须把自己的情况列入考虑,将自己的计划和想法传递给周围车辆,因为如果它决定突然右转,必然会影响其他车辆。这种自动驾驶汽车没有半点意识,但开起车来也没有半点问题。自动驾驶汽车并非特例,还有许多其他计算机程序也能自己运作,但都没有发展出意识,也不会有什么感觉或欲望。 6 图15 路上的谷歌自动驾驶汽车 * 如果我们无法解释心灵,也不知道它有什么功能,为什么不干脆放弃这个概念呢?在科学史上,已有太多概念和理论被弃而不用。例如,现代早期的科学家想解释光的移动,就设想有一种称为 “ 以太 ” ( ether )的物质充满整个世界,而光是以太的波动。但科学家一直没能找到任何实证证据证明以太存在,反而找到了其他更能解释光的理论。因此,以太的概念就被丢进科学的垃圾堆里了。 同样,几千年来人类曾经用 “ 神 ” 来解释许多自然现象。为什么会有闪电?因为神。为什么会下雨?因为神。地球上的生命是怎么来的?神创造的。但在过去几个世纪里,科学家并没有找到任何实证证据证明神的存在,反而对闪电、下雨和生命的起源有了更详细的解释。因此,现在除了几个哲学子领域之外,在经过同行评议的科学期刊上,已经不会出现真心相信神存在的文章。历史学家不会说同盟国是因为有神相助才赢得第二次世界大战,经济学家不会认为是上帝造成了 1929 年的经济危机,地质学家也不会说板块运动是神的旨意。 而 “ 灵魂 ” 这个概念也是如此。成千上万年来,我们相信自己所有的行为和决定都由灵魂做出。但因为找不到任何支持的证据,而且又出现了其他更详细的理论,所以生命科学已经抛弃了灵魂的概念。就个人而言,许多生物学家和医生仍然可能相信灵魂的概念,但他们绝对不会在严肃的科学期刊上以此为题。 或许, “ 心灵 ” 的概念也会像灵魂、神和以太一样,被丢进科学的垃圾堆?毕竟,没有人曾经用显微镜看到过所谓痛苦和爱情的体验,而且我们对于痛苦和爱情已经有非常详细的生化解释,不再有主观体验的空间。然而,心灵与灵魂(以及心灵与神)之间仍然有个关键的差异。说有永恒存在的灵魂,完全是个臆测;但对于痛苦的体验,则是非常直接而具体的现实。如果我踩到一枚钉子,百分之百会感觉到痛苦(就算至今我对此无法提出科学的解释)。相较之下,如果伤口感染,让我因为坏疽而丧命,我的灵魂能不能继续存在,这我就不得而知了。虽然灵魂是个很有趣且让人轻松的说法,我也很乐意相信,但我就是无法直接证明它的真实性。而像是疼痛和怀疑之类的主观体验,因为所有科学家自己也会不断体验到,所以他们也无法否认这些体验的存在。 另一种要抛弃心灵和意识概念的做法,则是从否认其实用性入手,而不是去否认它们的存在。包括丹尼尔 · 丹尼特( Daniel Dennett )和斯坦尼斯拉斯 · 德哈纳( Stanislas Dehaene )在内的一些科学家,认为所有相关问题都可以从研究大脑活动来解答,完全用不到主观体验的概念。这样一来,科学家就可以再也不必用到 “ 心灵 ”“ 意识 ” 和 “ 主观体验 ” 这几个词了。然而到下面的章节我们就会看到,现代政治和道德就是建筑在主观体验的概念之上的,而且讲到各种道德上的困境,很难只用大脑活动的说法来圆满解决。举例来说,虐待或强奸有什么错?如果从纯粹的神经学角度来看,一个人遭到虐待或强奸,不过是脑中出现某些生化反应,某些电子信号从一些神经元传到另一些神经元而已。这有什么关系呢?大多数现代人之所以对虐待和强奸有道德上的质疑,正是因为其中涉及主观体验。如果哪个科学家说主观体验无关紧要,他们面临的挑战就是要在不引用主观体验的情况下,解释为什么虐待或强奸是错的。 最后,也有一些科学家虽然承认意识是真实的,也可能有极高的道德和政治价值,但认为这在生物学上没有任何用处。也就是说,意识是大脑某些程序制造出来但没有用途的副产品,就像飞机的喷气发动机会发出隆隆巨响,但噪声并不会推动飞机前进。人类并不需要二氧化碳,但每次呼吸都让空气里的二氧化碳更多。同样,意识可能就是在复杂的神经网络信号传送之后造成的心理污染,没有任何功用,就是存在那里罢了。如果确实如此,也就是说这几百万年来,几十亿生物所经历的痛苦和快乐只是一种心理污染。这绝对是个值得思考的想法,虽然可能并不正确。但这也让我们很惊讶地发现,当代科学在今天要解释 “ 意识 ” ,这竟然已经是目前最佳的理论。 * 也许生命科学看这个问题的角度错了?生命科学认为生命就是用来处理数据的,而生物体就是进行运算和做出决定的机器。然而,把生物体类推成算法可能是个误导。 19 世纪,科学家把大脑和思想比作蒸汽发动机。为什么用蒸汽发动机做比喻?因为当时那就是最先进的科技,能够推动火车、轮船和工厂,所以要解释生命的时候,他们也相信应该采用类似的原则。于是,他们相信心灵和身体就像是由各种管道、汽缸、阀门和活塞构成的,能够蓄积和释放压力,从而做出各种运动和行为。这种想法甚至也对弗洛伊德的心理学影响甚深,至今仍有很多心理学术语来自机械工程。 举例来说,让我们看看弗洛伊德的以下主张: “ 军队会控制士兵的性冲动,以推动军事上的攻击性。军队招募的就是性冲动达到顶峰的年轻男子,而又限制士兵通过性活动释放压力的机会,于是让压力在士兵体内不断累积。军队接着会将这种被抑制的压力重新导向,并允许压力以军事攻击的形式释放。 ” 这根本就是蒸汽发动机的运作原理。先将沸腾的蒸汽限制在一个密闭容器内,让蒸汽压力不断累积,直到突然打开阀门,让压力往预定的方向释放,就能用来推动火车或纺织机。不只是在军队,我们在各种活动领域都常常抱怨觉得心里有股压力越来越大,如果不能找个方法释放压力,就快要爆炸了。 到了 21 世纪,再说人类心理就像蒸汽发动机,可能听来有点幼稚。而既然我们现在有了计算机这项更为复杂的科技,也就开始将人类心理比喻成处理信息的计算机,而不再说是调节压力的蒸汽发动机。但就算是这个新的比喻,也可能其实一样太过天真。毕竟,计算机没有心灵。就算程序出了问题,它们也无可奈何;专制政权把整个国家的网络切断,互联网也是不痛不痒。所以,我们又为什么要用计算机来作为理解心灵的比喻呢? 话又说回来,我们真能确信计算机没有感觉或欲望吗?而且就算它们现在真的没有,或许某天变得足够复杂之后,也可能发展出意识?如果真的发生这种事,我们又要如何面对?等到计算机取代了公交司机、老师、心理医生,我们怎么知道它们是真有感情,还是这只是无意识的算法集合? 讲到人类,我们现在已经能够分辨 “ 有意识的心理体验 ” 和 “ 无意识的大脑活动 ” 有何差别。虽然我们距离理解意识还很远,但科学家已经成功找出意识的一些电化学特征。科学家的做法是先假设,如果人类说现在自己有意识,就是真的有意识。基于这种假设,科学家就能开始观察脑波,看看有哪些脑波只会在人类有意识时出现,而无意识时绝不会出现。 这样一来,科学家就能判断看似成为植物人的中风患者究竟是完全失去了意识,还是只是失去控制身体和语言的能力。如果患者的大脑显示出有意识的脑波特征,很有可能虽然患者不能行动或言语,但其实仍有意识。事实上,医生最近也已经开始使用功能性磁共振成像来和这样的病人进行沟通。医生会问病人是非题,告诉他们如果想要答 “ 是 ” ,就想象自己在打网球,如果想要答 “ 否 ” ,则在脑中想着自己家的位置。如果病人想的是打网球,运动皮层就会变得活跃(也就代表他想答 “ 是 ” );而如果活跃的是负责空间记忆的大脑区域,也就代表病人想答 “ 否 ” 。 7 这套方法用在人类身上很方便,但用在计算机上又如何?由于计算机是以硅为基础的,而人类的神经网络是以碳为基础的,两者架构大不相同,因此人类意识的特征很可能无法套用。我们似乎陷入一个死循环。一开始,我们相信人类说自己有意识的时候就是真的有意识,然后我们就能找出人类意识的脑波特征,接着就能用这些特征来 “ 证明 ” 人类确实有意识。但如果人工智能也说自己有意识,我们应该相信吗? 到目前为止,我们对这个问题还没有很好的答案。早在几千年前,哲学家就已经发现,没有办法明确证明除了自己以外的任何事物具有意识。而且就算只把范围限制在其他人类,我们也只是假定他们有意识,而无法真正确定。搞不好,其实全宇宙只有我自己能感觉到什么,而其他所有人类和动物都只是没有心灵的机器人?或许,是我在做梦,而遇见的每个人都只是我梦里的角色?又或许,我是被困在一个虚拟世界里面,看到的一切都是虚拟的? 根据目前的科学定论,我所体验到的一切都是脑电活动的结果,所以理论上确实能够模拟出一个我完全无法与 “ 真实 ” 世界分辨的虚拟世界。一些脑科学家相信,在不太远的未来,我们就能做到这种事。也有可能,你已经身在这样的世界里了?搞不好今年实际上是 2217 年,你是个穷极无聊的青少年,泡在一个 “ 虚拟世界 ” 的游戏里,正在模拟 21 世纪早期这个原始却又令人兴奋的世界。只要你一承认这种事情确有可能,数学逻辑就会把你带向一个非常可怕的结论:因为只会有一个真实的世界,而可能的虚拟世界无穷无尽,所以你所在的这个世界碰巧是真实的可能性实际上接近于零。 这个知名而难缠的问题称为 “ 他心问题 ” ( Problem of Other Minds ),到目前为止所有科学突破都还无法克服这个问题。目前学者对此提出的最佳测试方法称为 “ 图灵测试 ” ( Turing Test ),但这项测试其实只能测试社会常规。图灵测试认为,想判断某台计算机算不算具备心灵,做法是安排测试者同时和计算机及另一个真人沟通,而测试者不知道哪个是计算机,哪个是真人。测试者可以向计算机和真人任意问问题、玩游戏、辩论,甚至是调情,而且时间长短不限,然后再来判断哪个是计算机,哪个是真人。如果测试者无法决定,或根本选错,就等于计算机通过了图灵测试,我们应该认定它具有心灵。但当然,这种测试并不能作为证明。承认其他心灵的存在,只能说是一种社会和法律惯例。 图灵测试由英国数学家阿兰 · 图灵于 1950 年发明,图灵可以说是计算机时代的奠基者之一。他也是一个同性恋,但当时同性恋在英国属于违法,于是他在 1952 年被判犯有同性恋行为,并被迫接受化学阉割。两年后,他自杀身亡。图灵测试其实就是复制了每个同性恋男子在 1950 年英国必须通过的日常测试:你能装成一个异性恋吗?图灵从自己的个人经验就知道,你究竟是谁根本不重要,重要的是别人对你的看法。而根据图灵的看法,未来的计算机就像 20 世纪 50 年代的男同性恋者,计算机究竟有没有意识并不重要,重要的是人类会怎么想。
个人分类: 科普|670 次阅读|0 个评论
阿尔法狗超越了图灵测试,AlphaGo棋局欣赏(全)
热度 13 kghao 2017-6-13 23:23
阿尔法狗超越了图灵测试, AlphaGo 棋局欣赏 ( 全 ) 西北大学 郝克刚 (一) 今年, 2017 年 5 月 23-27 ,在世界注目的中国围棋峰会 ( 乌镇 ) 上,计 算 机围棋软件阿尔法狗,以 3 比 0 的辉煌战绩,战败了世界排名第一的青年围棋高手柯洁。同时还战胜了由 5 名世界冠军级的棋手组成的中国团队。这不是一次偶然性的胜利,它宣布了计算机软件的围棋水平己经远远超过了人类棋手。阿尔法狗己经镇服了人类围棋界。所有专业顶尖棋手,个个表态输得心服口服。中国围棋界赫赫有名的棋圣聂卫平,已经改口称阿尔法狗为 阿老师 了。柯洁输后感叹说: “ 在我看来它就是围棋上帝,能够打败一切。 可见这是人类文明历史上的一个重大事件,是人的智慧创造的人工智能超过了个体人的智能的重大转折时刻。它以无可争辩的事例证阴,在特定的领域,人工智能可以超过人的智能。过去认为下围棋,这是人类的高级智能活动,是计算机不可能超越的领地。现在事实证明,计算机的围棋水平可以超过人类棋手。那还有什么领域是计算机最终不能超越的呢?这对人类的文明和智慧的发展,是莫大的鼓舞。 (二) 上世纪 50 年代,当计算机刚刚出世,开始显露出他的强大的逻辑推理能力的时候,就提出了 计算机能思维吗? ″ 的问题。图灵 1950 年 10 月在英国曼彻斯特大学发表论文 “ 计算机和智能 ” ,把这个问题转化为一种可操作的方法,那就是测试。后来被称为图灵测试。 简单说就是与其争论 “ 计算机能否达到人类的思维水平 ” ,不如我们去做个实验测试。计算机通过了测试就说该计算机能思维,否则就说还达不到人类的思维水平。 所谓图灵测试,就是测试者同计算机进行背对背的对话交流。如果在对话中,测试者识别和区分不出对方是人还是计算机,那就说明计算机通过了测试,达到了人类的思维水平。如果对话中发现计算机所答非所问,或犯有人的对话中不可能出现的漏洞,从而断定对方不是人时,就说明计算机没有通过测试,计算机没有达到人类思维的水平。 (三) 显然,阿尔法狗这个下围棋的软件,肯定能通过图灵测试。因为它己经达到足够的围棋水平,能同人类棋手进行正常的手谈。不会在围棋对弈中让你发现他会下出绝对的昏着,水平太差。我在这里要说的是,阿尔法狗不仅通过了图灵测试,而且超越了图灵测试。就是说你通过对弈可以发现对手不是人类,但是不是因为它的棋力太差,而是因为它的水平太高,超过了人类对弈的能力,从而断定它不是人类棋手。这就是超越图灵测试的意思。 从这里不难看出 67 年前,图灵提出的通过测试的标准的局限性。图灵说: “ 如果机器在某些条件下,能够非常好地模仿人回答问题,以至提问者在相当长时间里误认它不是机器,那么机器就可以被认为是能够思维的。 ” 图灵万万没有想到计算机不仅可以模仿人的思维,达到人的思维水平,而且可以超过人的思维水平。当计算机超越了人的思维能力时,测试者同样可以识别出对手不是人类,是机器。所以说测试的标准不应是可否识别人同机器的区别,最后还要看能力的高低。所以说阿尔法狗战败人类棋手,已经突破和超越了图灵测试! (四) 我去年己经超过八十岁了。能在这有生之年,见证了这一人类文明史上的重大里程碑的事件,实在是太有幸了。为了珍惜和反复重温这一庄严吋刻,我搜集到所有能找到的 AlphaGo 的棋谱,配上我编的围棋欣赏软件,制作了这个 AlphaGo 棋局欣赏 ( 全 )″ 的网页。供献给所有爱好围棋的朋友们。大家能通过它仔细欣赏和回味这个事件的每一步过程。 在网页上注有“ ( 全 ) ”字,应该是名符其实的。这个网页搜集了 DeepMind 公布的全部棋局。其中包括 AlphaGo 在 2015 年同欧洲冠军樊麾的对局, 2016 年同韓国冠军李世石的对局, 2016 年底 2017 年初 Master 同世界顶尖棋手的 60 盘对局, 2017 年 5 月在中国围棋峰会上同柯洁的对局,配对赛,团队赛 ( 同 5 名冠军的中国团队 ) 的对局,以及最新公布的从 AlphaGo 的数百万计的自我对局中选出的 50 局,还有由樊麾详细讲解的带变化棋谱的 3 局棋等。也许以后还会有新的棋局。只要有,我会及时补全。不过不是说 AlphGo 退役了嘛。如果是真的退役,不再对弈了,现在的这个网页就真的是“全”的了。 欣赏 AlphaGo 棋局 ( 全 ) 网页,请点击此链接: http://mainpage.nwu.edu.cn/hkg/home/games/2017/
个人分类: 围棋|15922 次阅读|22 个评论
人工智能新测试
热度 2 Babituo 2017-1-5 09:24
人工智能新测试 从AlphaGo到Master的启示 随着暂获59胜人类顶尖棋手的Master庐山真面目终于显露。人们对于人工智能的膜拜似乎更彻底了。事实上,人类长期以来以会制造和使用工具将自己区别于一般动物,尤其是象电子计算机这样的高度复杂的智能工具。 且慢,当人工智能发展到今天,图灵测试似乎可以通过了,但人类的绝大多数可能还是不甘承认人工智能的独立性:人工智能再强大,也还是人类制造和使用的一种工具而已。这种想法,挥之不去。 “中文屋子”的测试只是证明了图灵测试的无效,并没有举出更有效的测试方法,可证明人工智能的独立性。 怎么证明人工智能已经不仅仅是人类的工具了?而是一种超越工具性的独立智能主体了呢? 很简单,人类利用工具总是以取得比不用工具更高的效能为成功的证明的,那好,就用人类利用工具和工具本身比试一下好了。如果人类利用工具还赢不过工具本身,那么,工具未被人利用的那部分必定胜过人类了! 强烈建议 AlphaGo和人类顶尖棋手+AlphaGo大战一番! 在人类顶尖棋手+ AlphaGo这边,由人类来判断是否接受AlphaGo的对局建议。 如果纯 AlphaGo获胜,那么,才能证明,AlphaGo是纯人工智能,背后没有人机协作,因为人机协作已经打不过它了,也才能证明,人工智能有超越人类智能的独立智能部分了。
个人分类: 电脑围棋|3937 次阅读|4 个评论
机器能思考吗?——2计算主义
热度 17 xying 2016-6-10 09:11
早期人们对心智问题的研究,基本是内省的感悟,这个感悟构建的心理学独立于物理世界之外,表现为物质和心灵的二元论。到了 20 世纪,行为主义开始流行,不讲主观感觉只重客观行为,观察人的外在表现和倾向,不在乎所谓的心理解释。计算机发明后,特别是图灵的工作,功能主义取代了行为主义,成为心灵和智能研究的主流。在功能主义旗帜下的计算主义,以实现功能的计算来窥探认知,至今仍是人工智能研究和认知科学的标准范式。 17 世纪英国哲学家霍布斯说:“思想就是计算”。计算主义 (computationalism) 将认知过程理解为计算的过程,认为所谓 心理状态、心理活动和心理过程不过是智能系统的计算状态、计算活动和计算过程,总之认知就是计算。 这个认知计算主义称为“心智的计算理论”( the Computational Theory of Mind )。它是广义计算主义的最初领域,也称为狭义计算主义。 计算主义接着进入生命邻域。数学家电子计算机的构建师冯·诺依曼说:生命系统可以看作是一台自动机,自动机包含程序与数据两部分,依程序化的指令对数据进行信息处理。他提出了元胞自动机的概念,元胞依其周边关系( 数据 输入)按简单的规则(程序),决定它下一步的命运( 数据 输出)。程序是元胞个体生命存亡和繁衍的算法,元胞族的分布数据是对生命特征的描述,如同细胞族之于生物体。人们以此研究人工生命,对自然生命的理解有了新的视角,认为生命的本质,不是构成生命的物质材料,而是计算。基因科学的发展进一步丰富了计算主义的生命观。基因是生物细胞中的算法程序,如同元胞自动机的程序一样左右着生物的种类、形态和命运。信息、算法和计算成为理解生命本质的重要概念。 物理学,先验地相信世界是按照一定规则运动的,用数学公式来表达其中的关系。因此计算可以揭示物理世界中各种形态的变化和性质。但是世间万物并非都像钟表一样有着精细脆弱的结构,也难有天然系统像电子计算机一样的集中串行计算,它们是怎么运作的? S . Wolfram 系统地研究元胞自动机的状态变化,发现自然界许多复杂的形态,如雪花、岩石和叶子,都不难用元胞自动机的机制来生成,它们按照极为简单的规则并行运算,世间万象只是不同规则自动机的运行状态。他将研究元胞自动机的成果写了一本巨厚的书叫《一种新科学》,相信这将对物理、化学、生物和科学主流有着革命性的影响。物理学有些计算主义者,觉得时空是离散的,这个世界与其说是在连续时空下运行,不如说是无数的个体按照简单规则,在时空晶格中计算的演化。有人认为宇宙是一个计算系统,信息是万物之源,宇宙的历史是不断的量子计算过程,物质是宇宙计算机的硬件,宇宙的奥秘在于程序的密码。 与过去只是在冥想中猜测推理不同,现代计算机升级了思考者手中的纸与笔,给计算主义提供了一个万用的工具,可供构建各种功能模型,在计算中考察状态的变化。它让我们可以窥探和理解基于物质之上的系统状态和变化过程。许多过去难以探究的现象,也许不过是系统在简单规则演化下,涌现出的宏观性质。到了现代,计算已经成为与实验和理论三足鼎立,支撑着各种科学的理论基础和研究方法,在哲学上成为了审视世界一种新的观念。 生物和物理上的元胞自动机和人工神经网络,属于联结主义模型的计算。它们是最早被研究,现在已是人工智能研究的主流。但计算主义在上世纪很长时间,被称为“经典心智的计算理论( CCTM )”中的符号主义所主导。它建构在近代数理逻辑亮丽的研究基础上,有着清晰的机理脉络。它模仿人类的理性,以谓词逻辑的运算和启发式的搜寻,通过符号运算来获得得机器的智能。这个基于逻辑推理和知识系统的智能研究路线,使得专家系统在 70 和 80 年代成为人工智能的代名词 ,期许可以用之解读心智 。那时人们相信,在理论上只要有适当的程序,计算机就可以像人一样地理性思考。实现具有人类智慧的机器,只是一个工程问题了。 80 年代,当计算主义信心满满地研究智能、展望未来时,哲学家塞尔用“中文房间”思想实验,提出质疑。塞尔形象地模拟专家系统的符号运算,说他不懂中文,躲在装有许多中文字片的房间里,收到外面传来中文字条,他只是按预订的规则挑选对应的中文字片,作为回复,就给人一种能用中文思考的感觉。计算机也是如此,只是按规则搬弄字符,无论表现得多么神奇,其实都不会思考。 那时的 AI 是按照符号主义的思想来构建的,认为认知和思维的基本单元是符号,知识用符号依句法形成符号串表示为命题,认知是按形式逻辑处理符号串的过程,研究的工作是怎么最有效地搜索知识库来求解。塞尔质疑心灵活动能够通过这样机械式的计算来描述。 他认为思考不是简单的逻辑运算,必须由具有内在因果性的机制和意向性的动力来驱动。当问起,肉包与窝头那样更好吃时,中国人脑子里浮现出两者的形象、香气和味道,在喜好的意向驱动下,组织成语言作答。而专家系统和中文房间中的塞尔,都没有对肉包和窝头真切的感觉,只是分析句法,依搜索到最佳的字片回答。虽然惟肖 惟妙 ,但谈不上理解中文,更没有思想。 专家系统的研究者认为,人类理性思考并不是按照塞尔所说方式进行的。当人们问起 1+2 等于几,可能会想起一个苹果和两个苹果,也可能是背诵答案。但是对更需要理性的问题,如问 7 × 8 时,则一定是按九九表作答。科学上的很多概念,比如原子、电磁波、基因、超越数,人们都没有直接感性的经验,所有这类问题的回答,都是根据书本知识的记忆和推理来的。难道这样的工作也谈不上理解和思想? 然而,塞尔是哲学家,他关心的不是按照科学理论和逻辑推理所构造,那个被认为是客观世界的科学认知。他关心是意识和思维,人的内心与外在环境的互动,这涉及的是语义内容的感知、思考过程的因果机制和在这之上的意向力驱动。 塞尔说:程序完全是在形式上的工作(语句形式的, syntactic );人的思想则具有心理的内容(语义上的, semantics );语句形式既非由语义内容构成,也不足以确定语义的内容;所以计算机程序下的操作不触及语言的内涵,不构成思考,也不足以反映思想。 即使专家系统的知识库,如同词典一样装有对符号解释的句子,人们综合句法分析和自己经验可以解读语义。但这只是对人类读者而言是如此,计算机本身只是个形式推理的工具,对各种符号串依句法和逻辑规则下做符号运算,即使对知识库中的解释句子也是如此,机器不需要也不存在着理解,只是对符号串进行形式加工而已,机器的运作与这些符号串中的语义无关。 反驳者说,抽象的形式系统确实不及语义,但实现形式系统的机器却与符号串中的内容有关。当回答理性问题时,人和机器在抽象意义下都是一个形式推理机器,只是实现其功能的具体系统不同而已。单就程序而言,它只是按逻辑分析句法,搜寻最佳答案。但运行程序的计算机系统是由许多门电路组成,每个字符串都有它物理状态的含义,这也是一种符合句子表达的语义,尽管这个语义与理解这语句的人类解读不同,但不能否认计算机系统的答案也是在它的语义解读下,根据最佳回复的“意向”驱动,依电子电路和计算机系统下含义的物理因果机制来运作的。人类和计算机,对这类理性问题都在模拟形式推理系统,尽管对语义的解读不同,但输出结果应该并无二致。智能的评判应该是中立的,不能基于人类沙文主义,歧视不同的机制和意向。 然而对于感性问题,许多问题的答案并非是逻辑的,这需要的是模式识别的智能,进行联想式的判断。形式系统在此则显得笨拙和僵化,与人类的表现差异巨大。所以基于符号主义的中文房间在回答理性问题可能通过图灵测试,对感性问题则不能。对输入语句分析处理中,语义内容中关联的不同造成了这个差异。这个不足一直等到联结主义的智能机器出现才得以消减。 除了塞尔在哲学方面的质疑,计算主义的另一个挑战来自数学。既然等价于图灵机的现代计算机只是实现一个形式系统,哥德尔定理说,一个包含着算术的自洽系统,一定存在着不能被它证明的命题,这意味着人类的心灵能够“看出”某个命题真伪,但不能被形式推理所证明。因此人的心灵能力,不能被拥有不矛盾知识的形式系统所刻画。这确实指出了以逻辑推理为核心的智能系统的局限。专家系统的 AI 身陷其中。 这些对“经典心智的计算理论( CCTM )”挑战的背景,都是计算机只能在实验室中玩五子棋的年代,到现在的 30 多年中,心智研究的计算模型回归联结主义, AI 主流已经从符号主义,转到深度学习机器的联结主义机制上了。其主导代表是人工神经元网络。一个神经元有着与多个神经元联结的输入,对此加以各自的权重累计起来与阈值相较,其功能是在多元空间输入值中,划出一条直线作个模糊的判断。改变联结输入的权重可以改变这判断的倾向。神经网络是由巨量的神经元联结而成,而联结的权重可以通过样本的学习来调整,以求网络能够最大程度地拥有这些样本的知识。神经网络通过学习,获得了如同人类一样,能够举一反三、由此及彼,联想推测的“感性”认知能力。近些年来,以联结主义为核心的机器智能已具备不输人类识别声音和图像的能力,在棋类智力对抗中打败了人类。 2014 年英国雷丁大学举办一场“图灵测试”,俄罗斯团队开发的“尤金·古兹曼”软件,成功地通过测试,让 33% 的裁判相信它是一个乌克兰的 13 岁男孩。 有人疑惑,这些人工神经元网络,至今还不是仍在与图灵机等价的电子计算机上实现的吗?从理论上说,这仍然是一个形式推理系统,它怎么不被哥德尔定理所限?同样的,语言形式的操作不及语义,也必如塞尔所述,应该并无本质的突破吧?答案是“模拟”。这里是以比特( bits )为单元的形式运算系统,在低层支持着对神经网络系统联结并行运算的模拟。正如人类以大脑神经系统在低层支持着逻辑推理的模拟。又如手工计算和计算机的工作都在有限世界,但可以模拟无穷的世界。在有限的世界里不能实现也不可企及无限世界中的事物,但用有限的数字计数,以及计算机用有限的门电路状态,可以任何需要的精度模拟表达实理数的功用。计算机模拟神经网络系统也是如此。语言形式的操作仍然不及语义,但神经网络系统回答问题时,不仅仅是形式操作,系统不只模拟逻辑推理,也在低层模拟对语义的联想。 塞尔笑了,我说过,我早在 1980 年用“中文房间”说明,这个人工智能的机器只是一个模拟的扮演。复制和模拟是不同的概念,“理解”与“理解的模拟”不能混为一谈! 这说法貌似有理,但难以深究。金属的人工心脏是模拟,还是复制了心脏功能?行走通常是用腿来实现的生物现象,那么用假肢是真的在走,还是在模拟行走?有金属腿的机器人呢?科学研究中任何的概念都是一种抽象的归类,抓住本质的一些共同属性,忽略无关细节上的差异。所以有些哲学家认为,如果某一概念的所有属性都是依赖于功能性的结构,而不是其他细节,那么具有这些相同属性的模拟与实现复制就是同一回事。这样看来,图灵测试已是直击智能的本质了。计算主义在原则上并没有出错。 至于塞尔的中文房间和符号主义 AI 不能很好地解读心灵,那不过是形式推理系统的局限,能够通过图灵测试的全能机( Oracle machine )并非如此。 从进化的观点来看,塞尔说功能不足以确定心灵也是站不住脚的。因为生物依赖于功能来面对生存竞争自然淘汰,如果心灵与功能无关,那它怎么能在进化中,从低等简单的物质产生并被保留下来? 经典心智的计算理论( CCTM )以符号主义清晰的形式推理程序,让人可以沿着串行程序运行的轨迹,分析计算过程的细节来理解它所表现的功能。使得它成为研究的犀利工具。由于它的局限性,现在的主流转到了联结主义模型。联结主义虽然成果斐然,微观机制极其简单清晰,但巨量的单元,复杂的联结,并行的计算,却让人们迷失在追踪和综合上。人们知其然而不知其所以然了,对发展也失去了理论指导,只能在模拟自然造化中摸索爬行。这条道路上成果辉煌,技术上有突破性的进展,按其趋势,不难造出麓美于人类的智能机器,但我们同时失去了分析解剖的刀,对心灵问题的深入理解依旧茫然。 (待续) 【参考资料】 Stanford Encyclopedia ofPhilosophy : The Computational Theory of Mind http://plato.stanford.edu/entries/computational-mind/ Internet Encyclopedia ofPhilosophy : The Computational Theory of Mind http://www.iep.utm.edu/compmind/#SH2a Stanford Encyclopedia ofPhilosophy : The Chinese Room Argument http://plato.stanford.edu/entries/chinese-room/
个人分类: 反思|14815 次阅读|41 个评论
【泥沙龙笔记:强人工智能的伟哥测试】
热度 1 liwei999 2016-5-24 23:29
立委按: 群沙龙的乐趣在于智、爱(ai)与悟的碰撞,一切尽在闲言碎语中。 沙: 可组织本群出一份《如何伪装成AI专家》 毛: 本群人才济济,可以出一套三册: 初级班《如何伪装成AI专家》,中级班《如何成为AI专家》,高级版《如何当好AI专家》。 还有一本introduction层次的:《如何假装懂点AI》,这本书最好由群主亲自操刀。 马: 急需这本书啊 毛: 马老师得要领衔主编高级班教材。 马: 需要先入门 毛: 马老师就不要客气了。中级班咱拜托白老师和立委,洪爷就屈尊写那本低级班吧? 洪: 三部曲,三级跳, 弯曲数据群承包。 凑近AI黏住靠, 三班保你节节高。 独: 如何三天成为AI专家 我: 洪爷可以进一步缩短到3小时 毛: 其实精华尽在Introduction和低级班,市场需求也最大。我就等着读《如何假装懂点AI》了。 白: 我已经AI得要吐 我: 我当年写过一篇 科学网—《 立委随笔:一小时学会世界语语法 》 洪爷的3小时学会 AI 可以比照我的 1 小时 学会一门语法。 1 小时不是瞎说的,而是有具体教程的。 毛: 白老师就忍一忍吧,这不也是内啥公益事业吗。 按现在的行情,假装懂点世界语回报率不高,远不如假装懂点AI。人家抄党章还抄上好几个小时吶 董: 一般的科学研究多讲求要需求牵引,如今的AI是在千方百计的要创造需求。例如,Google的眼镜、拼接式手机、会谈情说爱的陪聊。 毛: 对啦,董老师那就是咱这《懂点AI丛书》主编啦。 董: 你要吓死我呀。我连一个程序猿都不是呢。 白: 应该是《董点AI》了, 董老师点评AI 毛: 好! 白老师就是灵。《董点AI》丛书一套四册。 马: 三天太长了 洪: 三个小时入门慢, 多快好省可简便。 借花献佛妙计献, 入门就读新智元! 马: 《董点AI》,好书! 毛: 脂批红楼,董点AI。脂批红楼董点爱。 我: 哈哈 新智元, 读三小时新智元,保你变成强人智死硬派 洪: 打了鸡血就好办, 正而八经说科幻。 奇点来临AI先, 深度学习不怕浅。 毛: 非言强人智不足以充专家 白: 咱语义计算群好像从来不扯强AI的 我: 说的是 “心智元 news feed”, 不是【心智元语义计算群】,前者有点像强AI粉丝的孵化器,不过这也符合媒体的本性。媒体跟专业人士不可能角度一致。 毛: 白老师是真专家,所以不扯强爱。 马: 我以上说的,有一个前提,就是用计算机实现AI,不包括将来哪天用生物、化学的方法来实现。无论是以前的统计方法还是现在的深度学习,都如同前白硕说的,实质就是曲线拟合。 陈: 赞曲线拟合 毛: 即使用计算机,也没有人证明肯定不能。 图灵机上有些问题无解,例如停机问题,但是没有人证明强人工智能的问题在图灵机上无解。 我: 做实际系统的人几乎无法成为强爱派,强ai大多是那些局外人(包括霍金、李彦宏、科幻作家、媒体、科幻读者普罗群氓)唱的调子 Nick: @毛 伟哥说你外行 毛: 是的,做实际系统的人往往“只顾埋头拉车,不抬头看路”。 我: 我说的自己切身体会,你姑且听之。做系统的可以进入到内部,譬如 semantic representation,局外人看这不是很 intelligent 吗,设计这个 representation 的architect,其实就是玩积木一样摆弄那些个 representation,怎么可能相信里面暗藏着非拟人性的智能,更别说自主智能。 毛: 所以科学家和哲学家常常是两拨人。现在用什么方法,做到什么程度,那与可能会怎样,是两码事。 所以强爱派的问题是他们早早就说现在就已经达到了。这也不奇怪,就像当年列宁多次预言欧洲的革命马上就会发生。 我: 强ai 的命名很有意思,是负负得正的 semantic compositionality 的无奈。本来 ai 有个修饰语 a,这一下子把自主智能堵死了,有多少人工a,就有多少智能i。这个 a 怎么看怎么不顺眼,可又去不掉,他就是要说人的智能与机器的智能没有区别。这个人工在前面捣乱。于是不得不再加一个前缀,取得了负负得正否定之否定的效应。“强”压住了a,智能i天下大同,人机不分了。预计最后的结局,可能是强ai学派宣告退出ai 独立成一个新学科,可以叫 天地人机。 毛: 图灵当年提出图灵测试,不是也离实际很远吗? 问题不在你是否加上什么限定词,而在于那中情况有没有可能发生。究竟是忧天,还是预见。 其实,即使独立成立一个学科,他们所用的方法还是跟AI基本一致。 我: 地球毁灭是可能的,不小心按错了核按钮也可能。人有毁灭人类的可能,那么机械程序也有可能犯这个错。 毛: 对呀,于是就有人回去研究地球毁灭的问题,而这很可能与地学,天文学,宇宙起源等等问题重合。 我: 即便如此,也还不是机器强ai了,所以威胁了人类 毛: 那只是你怎么说,怎么定义的事。对于一般的人来说,是这威胁是否存在,有多大。 洪: 转:这个还是有点逗的 主持人问女选手:“男人用伟哥的目的是什么?”女选手红着脸思考了很久说:“想不出来。”主持人立即说:“恭喜你答对了!” 我: 你这个带色笑话涉嫌恶攻伟哥。动补结构 vs 动宾结构,后一个是 subcat 洪: 无心之过,兄多包涵!这问答太妙了 Nick: 这玩意不用知识图谱,parse不了 马: 今天刚测的心理年龄为15,所以看了半天你的段子,才明白。 洪: 就怕以后强AI兴起了,用这样的段子都测不出丫是机器人 马: 即便机器毁灭了地球,也不是ta自主意识的这么做。 毛: 你也只是预言,没有证明。马老师。 马: 是的,证明不了 南: 今天的讨论应该整理出来啊,呼唤伟大的图书管理员 毛: 洪爷,我觉得这是完全可能滴。 马: “老板,出事了” “怎么了?” “我造了一个可以通过图灵测试的机器” “这不是好事吗?” “可他没有通过测试” 这才是可怕的 洪: 反正美国这次Obama一颁布厕所新法律,以后无性机器人进厕所问题顺便解决 最高级的图灵测试应该是:测他是不是图灵。估计图灵死后谁也过不了;强AI做强,兴许有可能 毛: 没有通过测试是常态,是好事,怕的就是某天它真的通过了。 马: 可怕的是他假装没通过, 南: “天若有情天亦老,人间正道是沧桑。” 这句话是不是可以用来对付AI? 毛: 真的到了那一天,要么就是机器人成为人的奴隶,要么就是人成为机器人的奴隶,奴隶制成了社会的常态。奴隶是“会说话的工具”。。。那时候除民族问题,种族问题以外,又出来个机族问题。 我: 当下的所有机器人和VR的设计都是以机器为奴作为 assumption,甚至包括微软小冰,也带有浓重的性奴的意味,觉得反正是机器,不奴役它白不奴役。没人争取机器人权。其实我担心这样下去,不仅人心不古,而且可以惯出人的恶来。 毛: 对呀,但是有没有可能倒过来?这是最可怕的。如果倒了过来呢?现在没有,不能保证将来也没有。咱们群主就好像已经是冰冰的奴隶。所以,AI的发展,可能会对人类发生极其深刻的影响。 我: 你奴役机器人伴侣习惯了,保不定就带到真实人类社会来。其实文明社会的“宠物是家人(family)” 的动物权倡导者,也是基于这种顾虑。 虐待宠物犯法,罚款坐牢,不是因为真地要保护动物权,因为真要保护,就应该禁止肉食。 毛: 将来也可能会有保护机器人权的主张的 我: 其所以惩罚虐待宠物,是因为虐待者完全可能延伸到同类 毛: 不完全是,这里面也有同情和爱惜的成分。 我: 杀人不眨眼的 precursor 是杀动物不眨眼。同情爱惜,那就应该推向动物全体,只对宠物爱惜,一边大鱼大肉,典型的人类道德的精神分裂,无论如何不能一致。 毛: 动物有是否“可爱”的区别。比如猫就很可爱 我: 最有意思的有养猪为宠物而虐待者被判刑,辩护律师提到更残忍的宰猪场做辩护,法官不认,此猪非彼猪也。猪族歧视。小时候读孔孟,最觉得滑稽的是君子远庖厨。 毛: 其实是有道理的 迈: @wei 对号入座 我: 我已经从肉食在向草食的状态转移中,估计再有10年,这个过程可以完满,就成为百分百的素食者了。 毛老是没指望了。 我肉食越来越少,等到哪一天看到肉就恶心,也就得道了。 毛: 所以我对刚才那个深度解析问题已经无动于衷。不过肉还是要吃滴。那是另一回事。人家一百多岁还常吃红烧肉哩。说了,什么时候找邓总切磋一下养生之道。 马: 机器人权可能会有,但跟AI无关,你虐待一个小朋友的布娃娃,她也会跟你玩命。 毛: 但是如果是机器人出来争机器人权,那就与AI有关了。 马: 但我不相信ta会争, 毛: 万一会呢? 马: 也不能证明,我先说了,哈哈 我: 他如果不疼,怎么会争取不被打的权利呢?哪怕ai编辑把叫疼的声音写进程序。骗过了图灵,它还是不疼啊。 毛: 不是那位刘教授就在研究机器的情绪问题吗? 洪爷? 我: 此情绪非彼情绪也。我还一直做情感挖掘呢,做了五六年了。本来无一物,何处有情绪? 毛: 你挖掘的是人的情感,他研究的是机器的人工情感吧? 我: 洪爷知道,应该是一回事儿。刘教授不会对着空气去挖掘或分析 毛: 我想他那个不是挖掘分析吧?应该是让机器模仿人的情感吧? 我: 这与小冰说“尼克 我爱你”,其实她不爱,或没爱,一样。 洪: @wei 说的对,刘兵教授和伟爷一样做文本的情绪挖掘。不过以前教授的确是爱丁堡学AI的phd 毛: 那他怎么能有那么牛?情绪挖掘又不是什么新的研究方向。 我: 情感分析 sentiment analysis 是相对年轻的学科,比信息抽取这个新兴的学问还晚了约5到10年。 毛: 就像人工智能一样,将来会有人工情感的。 我: 信息抽取从第一届 MUC 正式算起,有25年左右的历史了,而情感分析大概是不到20年的历史。后来因为工业界觉得 sentiment 更有价值,催化了它的运用,可与基于信息抽取的知识图谱媲美了。 毛: 人工情感其实也是机器学习。看看人家处在相似情况下会作出什么反应,就怎么反应。所以我猜将来也会有机器人的愤怒和反抗,会有机器人罢工,机器人维权的。 我: “尼克哥哥 ~ 偶也很爱你呀” 这哪里是示爱,这是鹦鹉学舌。小冰没有爱的能力和冲动,爱 is beyond 冰冰 白: sentiment是输出,是最终效果。其输入很可能是不含sentiment的。 我: 没有sentiment的感受能力,光有一张嘴说怎能当真了?没有疼痛的感受能力,哪里可能去维权,要求不被打呢?刘教授挖掘情绪,到了记者嘴里,就可能变成机器的自主情感。岂止10万八千里地。 Nick: 尼克测试:有没有智能不能光说不练。不能隔着墙传纸条。还得有个地方脱裤子比大小。 我: 这个测试还不够, 你懂的。 伟哥测试:有没有情感,不仅是要说爱,还要做爱,而且做爱后不能永远不怀孕。 Nick: 哲学里correspondence真理观,语言里denotational semantics不就是讲要落地嘛。图灵测试被争议的地方之一就是不让落地,只能传纸条。 我: 等到通过伟哥测试了,强ai就可以站住了。 否则全是扯蛋。 Nick: @wei 回头我整个prolog机器人给你生娃。btw,要男孩要女孩? 我: 图灵测试的前提是ai,所有的自主思考或情感都是要先推翻a的前提,然后在图灵测试已经不再适用的条件下继续使用图灵测试作为推翻前提的证据。 这就是强爱的要害。 图灵要测试的是机器,是人工的机器。 强ai否定机器是机器,否定人工的前提, 然后又不得不用图灵测试来支持自己。 因此,强ai真要站住,就必须突破或放弃图灵测试,应该采用伟哥测试。 雷: viagra? 我: 伟哥测试:有没有情感,不仅是要说爱,还要做爱,而且做爱后不能永远不怀孕。 尼克哥哥 偶也爱你,与说天凉好个秋一样,无法通过伟哥测试。小冰什么时候怀上了尼克的孩子,强ai就落地了。 南: AI要生孩子,是怎么个生法?把基因copy过去重组一下? 我: 问强ai呀。是他们主张的机器具有情感,能自主意识。 南: 强AI是谁? 我: 李彦宏,霍金 南: 不在本群就算了 我: 在,在,也许是故意制造不同声音,所以权且算他半个。 半个毛老, 大半个尼克 南: 问“半个老毛”+“大半个尼克”:AI怎么生孩子? (我是严肃的) 我: 尼克说法,是用 Prolog 生娃。 五代机死翘翘了,还 Prolog 呢。 南: Prolog只是工具,我关注的是“娃”。 “娃”=? 我: 你要生男娃还是女娃?so asked Nick 南: 按照现在人,娃=f(父亲的基因,母亲的基因)。AI和人一起生的娃怎么定义? 南: nick大师估计又讲八卦去了 我: 毛老呢,捻须微笑,置身事外了? 白: 我已经无论如何严肃不起来了…… 南: 白老师不严肃的时候一定很好玩 我: 严肃不起来,那就戏说呗,@白 南: 本群一边倒,不好玩 我: 一个群主半个群,一个毛老再压一角,分量够足了。 南: 都怪wei老师。你把群的根本问题都篡改了,:) 一毛=一角,需要四个毛老压阵 我: 那样的话,那条狗也胜不了了 白: 东西南北中,凑五毛 我: 总有一天我们的每一个爱情表达都会被清晰分解成力比多的一条分泌路径,把这个力比多建造进机器人,是不是机器就具有自主情感了? 南: 我想起《阿甘》:人生就是一盒巧克力,你永远不知道下一颗是什么味道。如果都知道了,太无趣了。如果强AI,就意味着意识、感情等都是可以演算的了?如果这样岂不是剥夺了人生的乐趣? 白: 自己咯吱自己 南: 自己咯吱自己,呵呵,好比喻 我: 强ai的真正难点不在思想和感情的难以形式化或程序化,而在于如何让生物成分(e.g. 力比多)与非生物电器结合一体。这条鸿沟迄今只能在科幻中跨越。虽然宇宙历史支持了无生物演化为生物的科学假说。 Nick: 自摸 查: 糊了。清一色 白: 心理学里有个归属理论,同样注射肾上腺素,但是告诉被试不同的信息、把被试放到不同情景下,被试对自身心理状态的认知是完全不同的。 【相关】 【新智元笔记:反伊莉莎效应,人工智能的新概念】 The Anti-Eliza effect, New Concept in AI 《新智元笔记:机器的秒杀人类和霍金的杞人忧天》 【新智元笔记:强弱人工智能之辩】 重温AI历史上的思维实验:老外不会中文,正如机器没有理解 【泥沙龙笔记:从机器战胜人类围棋谈开去】 【让机器人解读洪爷的《人工智能忧思录》(1/n)】 有感于人工智能的火热 《立委随笔:人工“智能”》 《 立委随笔:一小时学会世界语语法 》 【置顶:立委科学网博客NLP博文一览(定期更新版)】
个人分类: 立委科普|4936 次阅读|1 个评论
破解图灵测试之困,量化分析机器与人类智慧之争
热度 4 liufeng 2014-6-16 16:29
作者:刘锋 1.关于机器与人类智慧未来的分歧 2011年2月18日,超级电脑“沃森”打败了人类,站在了与人类智力竞赛的最高领奖台上。著名的未来学家库兹韦尔相信,由于信息技术正朝着“超人类智能”的奇点迈进。当这个信息奇点在2045年到来的时候,人工智能将超越人类智慧。 但也有不少科学家认为机器智慧超越人类智慧还只是一个科学幻想,包括麻省理工的计算机学教授罗勃•米勒(Rob Miller),Facebook人工智能实验室主任、深度学习专家Yann LeCun,都认为机器算法在一些领域的确超越了人类的能力范围。 但在一些领域,例如对社会和文化的认知领域,包括不断发明各种新词汇、传播小猫的视频并点赞,或一起参与构的其他文化现象。这些是机器算法很难企及的领域。 1950年,图灵发表题为《机器能思考吗?》的论文,第一次提出“机器思维”的概念。提出假想:一个人在不接触对方的情况下,通过一种特殊的方式,和对方进行一系列的问答,如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机具有同人相当的智力,即这台计算机是能思维的。这就是著名的“图灵测试”(Turing Testing)。 图灵测试经常用来检验机器是否具备人的智能,但图灵测试受人为因素干扰太多,严重依赖裁判者和被测试者的主观判断,而且只判断机器是否具备了人的智能,但机器与人类智慧的差距和变化速度并不能得到定量的分析。因此往往有人宣称其程序通过图灵测试,例如2014年6月英国雷丁大学客座教授凯文•沃维克宣称一款名为“尤金•古特曼(Eugene Goostman)”的计算机软件通过了测试,但很快就被人揭发他们的测试有很大漏洞并由欺诈嫌疑。 那么有没有一种方法,能够定量检测人工智能智力的发展水平和速度,并与人类智力进行对比,观察可能潜在的风险并进行防范。2013年以来我们在AI智商方向进行了探索,初步成果已经发表在2014年6月6日举办的ITQM会议上,下面我们将简要介绍如何定量分析机器与人类智慧的未来之争。 2.机器与人类智商通用测试方法(MH IQ) 在心理科学中,智力(intelligence)是最难理解的概念之一。 目前有关智力的定义累积起来不下百种, 但一个基本共识是,智力是人们认识客观事物并运用知识解决实际问题的能力。 对人类智力的测量即智商测试由比奈西蒙最早提出,1905年比奈西蒙发表了《诊断异常儿童智力的新方法》, 即比纳西蒙智力量表 ,标志着智力测验的正式出现。 1916年,美国斯坦福大学教授推孟(L.M. Ter man)将比纳西蒙量表介绍到美国并予以修订,修订之后的量表称为斯坦福比纳量表,它成为目前世界上广泛流传的标准测验之一。 因为目前机器智力发展还很不完善,不能完全套用对人的智商测试。几乎没有任何机器系统能够完成人类智商测量的操作能力测试,因此我们需要吸收以上智商测试量表的优点,设计新的智力评价体系和建立测试题库。使之能同时对机器系统和不同年龄阶段的人类进行测试。这样得出的结果将可以定量的看出机器智慧与人类智慧的差距,通过定时测试,也可以发现机器智慧与人类智慧差距的变化情况。 基于“智力是人们认识客观事物并运用知识解决实际问题的能力”这一基本认知,可以从知识的获取能力(观察能力),知识掌握能力,知识创新能力,知识的反馈能力(表达能力)等四大方面建立新的机器与人类通用智商评价体系,从这四个方面建立15个分测试,并采用德尔菲法对其赋予权重。 具有机器智慧的程序有很多种类,其中搜索引擎具有很强的代表性,作为目前互联网最重要的应用之一,搜索引擎代表有Google,Baidu,Bing等,这些搜索引擎目前在通过各种方式不断提高搜索引擎的智能水平。 例如 1.从只能识别文字增加到能够识别声音和图片;2引入“语义理解”技术,试图理解用户的搜索意图;3,通过深度学习,让搜索引擎可以自动识别图像中是什么物体。因此选择对搜素引擎进行智商测试并与人类进行对比将具有典型的意义。 3.世界搜索引擎排名与机器智慧的弱点 根据机器与人类通用智力量表,可以建立机器与人类通用智商测试题库(因为篇幅问题,本文不进行详细介绍),2014年5月我们利用这个测试题库对全世界50个搜索引擎和3个不同年龄阶段的人类群体进行测试得到结果如下 通过测试我们发现搜索引擎在知识的掌握能力上远远超过人类,但在知识的创新能力上全部得分为0. 由于知识创新能力在通用智商测试(MH IQ)的权重更高,因此世界范围的搜索引擎的总体智商大大低于人类智慧,最高的Google的智商值也不到人类6岁儿童的一半。 从上述研究还可以看出智能或智力是由不同的因素组成,例如天文,地理,历史等常识,数学计算,语言翻译。这些方面机器或互联网已经远远超过普通人类的能力,甚至强大到令人恐怖的地步,这也是库兹韦尔的观点能够震慑住很多人的主要原因。 但我们往往忽略,除此之外,智力还包括猜测预测,排列组合,规律发现,创新创造,伪装欺骗等更高等级的智慧因素,而在这些方面,机器和互联网表现的基本为0,更不用说与婴儿比较。 从科技的发展看,低端的智能,机器的能力突飞猛进,高端的智能,机器的能力举步维艰,数十年来毫无进展,未来的智慧世界应该是机器与人类的分工,低端重复性的智能由机器承担,高端的创造性的智能由人类来承担。过分的宣扬机器智慧超越人类智慧,正如Facebook人工智能实验室主任Yann LeCun所说“人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。”, 最后需要指出,目前建立的机器与人类通用智商测试量表(MH)还有很大的改进空间,但希望这是一个起点,能够解决图灵测试的不足和缺陷,为定量分析机器智慧能否超越人类智慧打下初步的基础。 刘锋供网易科技专稿,地址: http://tech.163.com/14/0616/07/9URH7N8P00094OG4.html 转载请注明出处。文章仅代表个人观点。 更多互联网前沿科技文章欢迎关注微信号ITXlab
个人分类: 互联网进化论|8448 次阅读|8 个评论
图灵测试:你幸福吗?
热度 3 Furaibo 2012-10-24 16:00
图灵测试:你幸福吗?
图灵测试:你幸福吗? 图灵测试是计算机科学中的一个著名的话题,他涉及到“计算机与智能”的哲学问题,即“计算机有智能吗?”“计算机怎样才算有了智能?”等。 维特根斯坦认为: 计算机能做出正确的行为,在屏幕上给出令人满意的结果。但是,屏幕上给出的正确结果是程序设计者行为的产物,不是机 器的‘智力行为’表现 ,它不知道那些显示字符的意义,它什么也不知道,什么都不理解。 同时,他认为 智力无法脱离感情力和意志力,思维是生命现象。把意志、热情、欲望、疼痛归于机器是无意义的。机器知道疼痛吗?要知道,就是我们人的身体都不知道疼痛,而是我的脑袋里有疼痛。这些是生命物的能力,是具有内在目的、自行确定目的、追求幸福的生物的能力,机器没有;这些也是思想的根源,不是机器计算的根源。机器有计算力,没有生命性。 ( 摘自《智能学简史》 ) 1950 年, 图灵 在《思想》杂志上发表了著名哲学论文:《计算机器与智能》,提出了判断一台计算机是否具智能的 “模拟游戏”(测试方法),即现在通常所谓图灵测验。 图灵提出的这个测验的目的,是提供一个令人满意的、基于计算行为的智能定义。假设有一位询问者,在彼此看不见的条件下对一个人和一台机器进行问答测验 。 比如询问者问:“你幸福吗?”,一个回答“不,我姓图!”,而另一个回答“我不知道,莫言幸福”。当你说:“今天真热啊!”,一个说:“真是热死我了,亲!”,另一个则说:“终于有点夏天的味道了。” 你说哪一个是人呢? 象这样, 如果在问答中询问者完全分辨不出回答者是人、还是机器,那么,我们就 可以 说机器有了智能,或者认为机器已达到了人类智能行为的水平。 对图灵测试的质疑从来就没有间断过,其中罗素说:“ aeronauticalengineeringtextsdonotdefinethegoaloftheirfieldasmakingmachinesthatflysoexactlylikepigeonsthattheycanfoolotherpigeons ”,对这种通过机器的行为来判断其是否具有智能的方法,在罗素看来很可笑。对图灵测试的另一个质疑是 Searle 提出的中文屋子。 抛开这些质疑不谈, 到目前为止, 人工智能学者 为了让机器顺利通过图灵测验而做了大量工作, 但并 没有取得很大成果。但是,要让机器在测验中达到较高的水平,例如,一个普通询问者在 3 分钟提问后还搞不清楚对方是人还是机器, 聊天机器人已经在一些电子商务网站上得到应用 。 图灵测试的另一个成功的应用是“反图灵测试”而用之的,它不是试图让计算机通过图灵测试,而是通过设置一些计算机难以解决的问题,来判断网上的某种行为是人还是计算机,例如许多网站的登录界面的验证码。这也许是图灵所没有预料到的吧。
7177 次阅读|8 个评论
近期发现:融智系统涵盖了图灵测试和中文房间两个极端的特例
geneculture 2012-8-17 17:00
广义双语协同处理思维训练系统架构的发现和发明,不仅包容了“图灵测试”(Turing test)和“中文房间”(Chinese room)两个特例,而且,进一步预示了“自然人的大脑智力”和“计算机的电脑智能”之间所遵循的“合理分工、优势互补;高度协作、优化互动”融智方针和策略的“人和机的协同智慧”的存在及其功能乃至可再造与易于重复被调用的一系列特点。 附录 : 中文房间(Chinese room)与图灵测试(Turing test)揭示了两个争锋相对的观点 http://blog.sina.com.cn/s/blog_65197d93010127ke.html
个人分类: 融智学前期探索|2527 次阅读|0 个评论
[小红猪]电子游戏有人工智能吗?
songshuhui 2010-1-16 23:48
小红猪小分队 发表于 2010-01-10 10:25 译者:第一滴泪 想看原文点 这 在译文的之后,附上方弦的旧文一篇,更加详细的说明什么叫AI。 确实如此,如果从某个角度上看。 朱莉亚和我正在Wii上玩《超级马里奥赛车》(Super Mario Kart)。在这款赛车游戏里,我们可以选择一辆赛车,在各种赛道同幽灵、电脑或者世界各地的其他真人玩家进行对抗。我突然想到:每次玩游戏时,我们都在进行图灵测试。 当通过联网进行比赛时,我们知道对手是真人玩家。这个游戏运作的信息不仅来自我们对游戏模式的选择,还由于其他一些难以被忽视的讯息。于是,由于我们预先知道了对手是人工智能电脑还是真人,所以这并不是一个真正的图灵测试。我设想可以在那些不了解游戏的人身上进行这个测试,但工作量会很大,而且需要允许他们使用我们的账号,而他们也许还会加以破坏,使得这个测试无法进行。但我们可以深入的思考关于机器与人类之间的不同,这亦是我们在游戏中生存的安身立命之本。 【图灵测试:如果一个人使用任意一串问题去询问两个他不能看见的对象:一个是正常思维的人;一个是机器,如果经过若干询问以后他不能得出实质的区别,则此机器通过图灵试验。】 按照游戏能力的高低来划分的话,游戏中的电脑对手有四个级别。朱莉亚和我每次都能百分之百地轻松击倒两个最低级别的电脑对手。多数时候,朱莉亚还可以在大部分的赛道上击败第三等级的电脑对手;我的成功率稍低,但是在大部分情况下我也能赢。第四等级的电脑对手的能力同第三等级的差不多,只是第四等级里的赛道被颠倒,变成了常规赛道的镜像模式。这种改变对电脑来说易如反掌我想它们只是做些简单伎俩,诸如把脑袋里的什么芯片颠倒下,要不就是把眼睛装到脑壳后之类,这样它们就可以将镜像模式作为正常赛道来比赛。朱莉亚对赛道很熟悉,把赛道的布局牢记在心里,因此只是在为数不多的几次镜像模式挑战赛中碰到麻烦,这种改变对于我来说难度中等,没跑好主要是因为开局没把握好。可以说,这种以颠倒赛道比赛的方式并没有使我偏出赛道和撞上障碍物的几率增加。 然而,当我们来上一场真人PK的话,这又是另外一番完全不同的景象了。我们会看到这些人类伙伴所拥有的能力模式和策略更为复杂。 一小部分真人对手的能力稍差或者注意力不集中,我们可以立马把他们甩到身后,让他们望尘莫及。我们猜这些玩家是真正赛车手的小弟妹。如果他们选择的游戏角色是个小娃娃的话,就更符合我们的猜想。(大约三分之一的游戏角色,包括我经常选择的那个,都是卡通化的成人形象。这些角色体重更轻,可以驾驶机动性更强的赛车角色的选择会对比赛成绩产生影响,而且必须和赛车的风格相匹配。)这些人大概都是些游戏菜鸟或小白,要不就是那种游戏玩到一半还要跑到冰箱里拿啤酒喝的心不在焉的家伙。 还有一类游戏达人级的真人玩家,他们的游戏水平连电脑也赶不上,我们更是自叹不如了。这些人也许在现实中就是个赛车很厉害的家伙,要不就是玩过那些我们还没闯过的关,从而被锻炼得能力超强。或者他们已经把游戏给黑了来作弊。无论如何,我们都讨厌他们。 另外有一些玩家通常玩得相当好,朱莉亚可以经常打败他们,我则基本上都是他们的手下败将。这些真人的玩家,包括朱莉亚和我,都有自己所擅长或不擅长的赛道(作为游戏策略的一部分就是要投票选择比赛的赛道,通常是从最初投票选择的赛道中随机选一条)。所以当我们在不同的赛道上同其他玩家比赛时,结果也会不同。 简单说来,我们之所以能判定对手为电脑,不仅因为他们不犯错误,也因为他们不会去抓住一些机会,而在机会面前真人玩家通常会去碰碰运气。我们游戏中的一个策略,便是往赛道上扔障碍物,而最低水平的电脑玩家连这些障碍物都绕不过去。我们还有两三个把戏,可以加速前进或者先发制人,而低水平的电脑玩家对这些把戏也是一无所知。较高水平的电脑一般都能绕过障碍物,他们似乎对这些小伎俩有所察觉。 最厉害的电脑也远远不是最厉害的真人玩家的对手,而这并不是因为人工智能或计算能力的局限性,至少我坚信这点。至于在策略、游戏精通度和基本技能方面,电脑玩家可以变得更加完美从而更难被打败(尽管运气因素也会影响比赛胜负,而且影响还不小),但我坚信电脑还没有尽善尽美到如此地步。 这款赛车游戏里有一种被称为杯赛的游戏模式,即一个真人玩家对抗其他11个电脑车手。其中有一两个电脑比其他电脑水平要高,通常能打败你的也就是这一两个电脑车手。但是随着杯赛一场一场的推进,高手电脑的安排也是换来换去,场场迥异,这种类人模式亦被编程进了游戏。 另外一种游戏模式是对抗来自互联网上的幽灵,幽灵有一个鬼魅般的形象(半透明),它代表了以前竞赛中某个玩家的角色。所以所谓来自互联网的幽灵角色指的是那些没有竞赛者参与的,只是为了试验自己能跑多快的玩家,你要同这些幽灵比赛来检验自己能否击败它。因此这回你对抗的虽然是真人,却是彼时游戏中的真人。 电脑似乎会选择那些与你旗鼓相当但实力并不完全对等的幽灵来和你比赛,这点很有意思。朱莉亚几乎每次都能打败她的那些幽灵,而我则一般6局5胜。但是当我使用朱莉亚的身份进行游戏时,她能打败的那些幽灵又让我成了手下败将。 所以游戏中所谓的互联网幽灵是一种混合怪物,它们是被人工智能驱使的用来对付你的真人玩家经验。 那到底是什么原因让我们在《超级马里奥赛车》中能将人与电脑区分开来呢?同电脑相比,人类更为多变且不可预测,我认为这点作为程序写进电脑应该不难,我也深信人类可以很好被电脑所模仿,而这些电脑能够轻松的通过图灵测试。 当然这些并不是真正的图灵测试,因为真正的图灵测试是以语言模式来执行的测试,我们知道语言模式和赛车模式是存在区别的!但是如果在我们人类的联网游戏中偶尔加入几个人工智能电脑,我想感觉也不错。诡异吧?确实,但很好玩。 【诡异谷(The Uncanny Valley)假说:假说认为,在人和非人(诸如机器人)的互动中,人对非人的喜好程度与非人和人之间相像的程度并不成正比。起初,喜好程度确实会随着相像程度提高而上升,但达到一定程度后,人对它的喜好感会急剧下降,甚至会转成负面的厌恶。】 如果这样的智能电脑存在的话,我想把它命名为卡拉图(Klatu)。 【Klaatu:《地球停转之日》中的人性化高智慧外星观察员,新版《地球停转之日》中的Klaatu由基努里维斯扮演,他在麦当劳里的一段中文对话把我雷到魂飞魄散。】 扩展阅读:浅谈AI(by 方弦) AI者,Artificial Intelligence是也,也就是说人工智能。 人工智能可以说从远古开始就是很多人追求的目标了。古有偃师造木偶人的传说,在近代,各种各样的科幻小说更是将人工智能带到了大众视线之下,关于人工智能方方面面的各种严肃的争论也从未停止。 人工智能的确切定义到底是什么呢?一个比较普遍的定义就是由人类制造出来的能够表现出类似于人类的推理、归纳、学习等智能行为的机器或者程序。在这种定义 之下,其实一些简单的人工智能早已出现了,它们可以解决一些简单的问题,在某个特定的领域内的表现可以接近甚至超越人类。对这些人工智能的判别方法也早已 有人提出,并已经被广泛接受为一种被认可的手段,那就是由英国数学家阿兰图灵(Alan Turing)提出的图灵测试。在排除非本质因素后,如果一台机器和一个人进行同一智能行为时,可以使观众无法判断出人类和机器的行为的话,那么就可以认 为这台机器在这方面拥有人工智能。在图灵当初的版本中,所使用的行为是聊天,如果说一群测试者在分别与一台机器和一个人谈话(当然是排除了语音等等因素而 只专注于内容)后,不能分辨出机器和人的话,那么就可以说这个机器具有与人相当的智能。当然,现在也有很多研究者在质疑这种测试方法,认为能有更好的办 法。 如果是利用图灵测试来判别人工智能的话,那么我们现在就已经有了在某一特定领域中通过了图灵测试的人工智能,并且它在测试中表现得似乎比人更加高明。这个 领域就是人类智慧的代表作国际象棋,而这个人工智能,就是大名鼎鼎的深蓝。用计算机下国际象棋一直以来就被认为是人工智能的圣杯,是研究人工 智能的一条通道。终于,在不停地努力了十几年以后,在1997年夏天,由许峰雄等人所建造的深蓝在经过十几年的奋斗后,终于在棋盘上战胜了当时公认的 国际象棋世界冠军卡斯帕罗夫。卡斯帕罗夫是历史上等级分最高的人类棋手,但即使是他也败在了深蓝脚下,甚至在赛后还怀疑深蓝背后有人直接指挥控制 下子。在场外的许多国际象棋评论员也认为深蓝的奕法与以往的弈棋计算机不同,已经有了明显的人类特征。这样说来,很显然深蓝已经通过了国际象棋领 域的图灵测试。 但是人工智能研究界还有一些不甚满意的呼声,因为深蓝思考的方法并不十分高明。实际上,深蓝取胜的方法本质上是就是蛮力搜索,通过它的专用国际象 棋芯片,它可以对棋局作出速度极高的搜索,计算每个可能的变招。芯片的设计中还包含了丰富的国际象棋知识。正是利用了这些象棋知识,深蓝可以将搜索问 题大大简化,再加上专用芯片的强大搜索能力,就能计算十几甚至二十几步以后的局势,从而战胜了卡斯帕罗夫。 不得不说,运用蛮力策略的深蓝的确有点胜之不武的感觉。所以,虽然深蓝已经战胜了人类棋王,但是它仍然不是一个人工智能的好例子。那么,智能到底是什么?怎样才能说一个东西它有没有智能?到底怎么样才算是有智能?怎么样才能使一台机器拥有智能? 要分析智能这种东西,我们还是首先看看这个世界上最有智能的东西大脑。在现代,科学家们对大脑是如何工作的仍没有一个定论,但是各种层面上的研究 已经正在逐渐拼凑出一个模糊的画面来了,对于一些方面也能做出一定的揭示了。现在我们还是以下国际象棋为例子来谈谈我们知道的画面。很显然,一名棋手在下 棋的时候是肯定不能像深蓝一样将每个布局都推演出来的,那么,人脑是如何做出判断的呢?这仍然是一个谜团。的确,人类棋手在下棋的时候的确会做明确的逻辑 推演,比如说典型的如果对方如何如何走子我就如何如何反应的推理。这些也正是计算机的专长。但人类棋手在下棋的时候也会有一些难以用逻辑来解释的感 觉。比如说高级的棋手在看一盘棋的时候可以比较准确地讲出局势的优劣,这个在计算机看来并不是一件很容易的事情,因为局势的优劣并不在于这盘棋的棋子排布 本身,而是在于接下来的对弈方面的各种应对的综合分析。还有,人类棋手还能够评估一着棋的风险、收益,还有棋子的状态和位置的重要性。尽管这些东西都是可 以量化的,但是对于计算机而言,要获得这些重要的信息,必须经过大量复杂的运算。然而,人类棋手的大脑却可以在瞬间通过一种感觉得知这些信息,这是否 意味着人跟程序始终是有不同的地方,而机器永远不可能超越人类呢?这个问题,从人工智能这个概念被提出的时候就已经产生了,至今仍是争论不休。 在机器是否超越人类这个问题上,绝大部分的人都分成了两派。一派的人认为人工智能继续发展的话,它们的智能终有一天会达到甚至超越人类,这一派所持的 这种思想被称作强人工智能主义。与之相反,另一派别的人认为无论人工智能如何发展,它们的智能都无法超过人类,对应地这种思想就被称为弱人工智能主 义。强人工智能主义者认为,既然大脑遵循已知的物理规律,那么人工智能至少可以通过模拟来达到与大脑相当的水平,所以人工智能能够至少与人类并驾齐驱。 而弱人工智能主义者则认为存在某种物理上的或者是技术上的壁垒,将会最终阻碍人工智能达到人类智能的水平。 弱人工智能主义者曾经提出过许多著名的说明为什么人工智能不能超越人类的论证,一个就是所谓的中文屋论证。设想将某位完全不懂中文的外国人(比如说图 灵)关进一个房间里,他只能用纸条的方式向外交换信息,然而这些纸条上面允许写的只有中文字符。房间里有一本完美的中文交谈指南,上面写满了将输入的纸条 上面的中文转换成输出的规则和对应表,他可以指导一切交谈。图灵在里边只能通过查阅这本指南来与外界交流。对于图灵来说,纸条上面的中文字一点意义都没 有,他自己认为这只是在不停地将一些符号翻来倒去而已。但是在房间外的我们来说,这个房间作为一个整体可以与之进行完全合理的交谈,也就是说我们不能区分 房间里的人和一个中国人。然而我们知道,房间里的图灵对中文一窍不通。引申到人工智能上,那就有了如下的问题:即使人工智能表面上通过了图灵测试,但它本 身可能并不理解自己的行为,然而人类在有意识的情况下是完全理解自己的行为的。这样的话我们是不是可以说人工智能虽然在表面上达到了人类的水平,但是它在 自我理解方面仍然是一片空白呢?这就是弱人工智能主义者提出的一个诘难。 当然,强人工智能主义者也进行了反击。他们说,关键就在于这理解二字。如何才算是理解呢?关键在于,无论我们要评判什么,都只能在这个中文屋 的外部来进行。如果在这一系列的交互中我们都不能将其与一个中国人区别开来的话,那么我们就只能认为,作为一个整体来说,中文屋对中文的理解跟一个中 国人对中文的理解是一致的。至于自我理解这种被认为是人类才有的东西,其实也只是一种思维上的活动,也只能通过外部的相互交互来判断。就算是人类的大脑, 在分子原子的层面来说也没有自我意识,那么为什么中文屋作为一个整体就不能被认为有自我意识呢?所以说,只要通过图灵测试,无论机器的内部构造如何, 都应该被认为拥有智能。这就是强人工智能主义者的一些观点。 通过这些思辨与论证,我们发现,研究人工智能对于我们研究我们的大脑和意识这些暂时还说不清道不明的问题是很有帮助的。因为如果我们有了一个可以与人类媲 美的人工智能的话,我们就能够通过研究这个人工智能来研究这些问题,因为这样的话在控制整个研究上面就会变得容易得多了。即使弱人工智能主义者的主张是正 确的,人工智能不能达到人类的水平,我们通过研究其中的原因也能够启发我们对于这些问题的思考。无论如何,研究人工智能不但有实际上的应用,而且还会使我 们人类对自身意识的认识更进一步。 人工智能作为人类对自身智慧探求的一种尝试,虽然历经了这么多的关于它的实际能力和伦理方面的争论,但是对其的研究仍然是方兴未艾的。毕竟,我们需要知道我们从何而来。
个人分类: 小红猪翻译小分队|1723 次阅读|0 个评论
超越逻辑
eloa 2009-2-11 14:30
一个人和一台机器分别呆在两间封闭的屋子里,从外面看不见也听不见什么,另一个人用传真的方式对他和它进行提问,一段时间后,如果提问者没有分辨出哪一个是人哪一个是机器的话,我们就可以认为这台机器能像人一样思考。 这是英国天才数学家阿兰图灵在1950年提出的判断计算机是否具有智能的测试。他预言,总有一天计算机可以通过编程获得与人类竞争的智力。1997年,国际象棋棋王卡斯帕罗夫输给了超级计算机深蓝,没有体力消耗、注意力永远集中、不受任何心理影响,面对这样一个敌手,卡斯帕罗夫心力憔悴。在人类引以为自豪的智力游戏上击败人类,图灵的预言实现了。可难道我们必须要承认这台冷冰冰、硬邦邦的机器是智能的,而且比我们还要聪明? 智力之谜 至少国际象棋是下不赢它了,但可以肯定,面对我那脑筋早已不灵光的老祖母都能听懂的笑话,它会令人扫兴地无动于衷,向它投以爱意的目光也得不到任何的回应。那么凭什么说它是智能的?智能、智力是指什么?当我们说一个人比另一个人更聪明时是什么意思?智力可以量化吗?如果可以的话,是否能够说一只猫比一只蝴蝶更聪明,一只蝴蝶比一只蚯蚓更聪明?如此一来,某种生物应该拥有最少量的智力,这点智力能供它做些什么?而认得镜中的自己,并自信地问出:魔镜魔镜告诉我,我是不是世界上最美的人?又需要多少份的智力? 这些问题令人着迷,不仅因为有趣,还在于猫拥有爬树的能力,但不会思考自己为什么能够爬树,蝴蝶拥有飞翔的能力,但不会思考自己为什么能够飞起来,我们蒙造物之青睐,进化出思考的能力,于是会去思考猫如何爬树,蝴蝶如何飞翔,最终还要不可避免地来思考思考本身:智力究竟是什么?它是如何产生的? 在西方,柏拉图首先认识到智力是由大脑产生的。2000多年后的1904年,一系列认知实验表明,同一个人在不同的认知任务中都会表现的很出色,英国心理学家斯皮尔曼由此提出在我们的智力活动中,有一个通用因素(general factor)发挥着决定性作用。在将这个通用因素量化后,我们得到了评判一个人聪明程度的标准智商(IQ:intelligence quotient)。 虽然以前也可以通过经验对一个人的智力水平做出八九不离十的推断,但现在我们有了更简单的办法给他做一套智商测试题,看看分数如何。仅凭一个分数就对一个人聪明与否下定论似乎显得过于草率,但事实是智商已成为这个世界上继阶级、种族之后又一个将人与人区分出差别的工具,而且不得不承认它很有效。 正如在无数个苹果掉落于地上之后牛顿才发现万有引力一样,从经验上升到理论需要一个漫长的过程。在智商这个评判智力水平的标准大行其道之时,我们对智力是什么以及它是如何产生的却仍然一无所知。当然,这些问题并没有被科学家遗忘,只要时机成熟,他们就要有所作为。 2000年,脑科学家约翰邓肯在用不同类型、不同难度的智商测试题为难受试者时发现,大脑为了完成任务,总是会征召同一块皮层区域侧额叶(lateral frontal cortex)。这似乎表明侧额叶的功能与所谓的通用因素密切相关,换句话说,侧额叶在智力产生过程中起到了关键性作用。从整个大脑到一块皮层,智力的来源范围缩小了,但随后的研究又将这个范围扩大了一些,执行任务者变为一个额叶顶叶网络,其成员包括侧前额叶(lateral prefrontal cortex)、前扣带回(anterior cingulate cortex)和后顶叶(posterior parietal cortices)。后顶叶取代侧额叶成为关键角色,驱动整个网络的运转,并且与智商高低直接相关。天才不是像我们以为的那样,在酝酿奇思妙想时调动了普通人未曾开发过的神秘脑区,而只是更充分地利用了后顶叶来解决问题。 负责智力活动的额叶顶叶网络(红色) 不过智商高就一定是天才吗?天才就一定智商高?智商只有75的阿甘(电影《阿甘正传》的主人公)用他奇迹般的一生质疑了这一点。当然这只不过是个电影,而现实生活中雨人的事迹是无可置疑的,智商一般在35至70之间的他们往往无法握住碗筷吃饭,穿衣叠被困难重重,但却可以在30秒内准确算出2的64次方是多少;在初次听到柴可夫斯基第一号钢琴协奏曲几小时后,将其行云流水般毫厘不差地弹奏出来如果说这是一种异常情况,缺少普遍性的话,正常人中智商不高却有所成就的人物会更具说服力,比如现任美国总统。 看来智商并不代表一切,平日里不大会有人一直在推断一组数字的末尾应该是多少,或是根据前面的图形去决定最后一个的样子,而斯皮尔曼的认知任务和智商测试题却只考虑了这一种能力分析、逻辑、推理。但事实上,我们并不必总是深思熟虑、条理清楚,瞬间的灵光闪现和大而化之的宽容、幽默很多时候会更有效,而这些也都是人类伟大的进化成果,需要被扩展到智力的概念里。 应运而生的是 斯腾伯格 的三元智力理论,他将智商所代表的通用因素归属为分析智力,除此之外还有创造性智力和实践智力。前者包含了灵感、直觉、想象力等,在诸如即兴作诗、给一幅卡通画加上标题时要用到。创造能力主要跟右半球有关,这半个大脑负责音乐、绘画、空间几何以及想象和综合等功能,一部分雨人的天分就是在左脑受损后才意外获得的。后者指的是解决实际问题和做出决定的能力,因此当我们嘲笑小布什的低智商时,不妨考虑下他是否在这方面有过人之处。 从柏拉图时代到现在,人类的进步仅限于把智力的诞生地从笼统的大脑锁定至特定的皮层区域,至于大脑是如何通过智力活动为爱因斯坦、达尔文、秦始皇、毛泽东带来巨大成就的,我们茫然无知。 国际象棋与围棋 自从获得了智慧,人类就一直试图将它以不同的形式表现出来,于是才有了文学、艺术、思想游戏也是之一,其中尤以国际象棋和围棋历史悠久、好者众多,而且分别代表了西方和东方的思维方式、文化特点,因此这两种智力游戏对大脑征用情况的不同,能够说明些问题。 对对弈时的大脑活动进行全程跟踪记录不现实而且没必要,庞杂的数据无法加以区别和分析,弈者不可能自始至终都专注于棋局,总有些时候会注意力发散,大脑一片空白。实验要在达到明确目的的前提下尽量简化,棋手无需下一整盘棋,而是盯着显示屏就可以了,上面每隔30秒会周期性地出现空白棋盘、棋子随机摆放的棋盘、空白棋盘、正常的中盘对局,受试者被要求在对局出现时考虑白棋接下来的走法。空白棋盘和随机棋盘起着参照作用,在将它们所引起的大脑活动从对局时的大脑活动中去除掉之后,留下来的便是纯粹的思考痕迹。 实验结果显示,在谋划应招的过程中,被认为参与智力活动的大脑区域纷纷登场亮相,而顶叶是其中的主角。顶叶与视觉注意的维持和心理景象的产生密切相关,爱因斯坦天才的可能来源之一便是他的顶叶比普通人宽。有趣的是,国际象棋与围棋在对顶叶的重视上保持一致,但在对待左右脑的态度上出现了分歧,前者多利用左脑,而后者更倾向右脑。 虽然都是棋类游戏,都是需要充分调动大脑资源的智力活动,但下国际象棋与下围棋就像做数学题与作诗一样存在着本质的区别,而区别来自于规则: 在国际象棋中,每个子身份不一、本领各异,兵只能步步前进,而马可跳日,相可斜走,后则能控制四面八方。王是胜败关键,一盘棋围绕着如何将死对方的王与如何保护己方的王展开。开局时,双方棋子站在黑白格中列阵以待,交战时,用适当的子走到适当的地方,消灭敌有生力量或占据有利位置。 身份、地位带来了独特的天赋,但同时也带来了限制,对子的使用、选择要以其被赋予的固定价值为依据:是策马从斜刺里跳出,踩踏八方?还是驱车长途奔袭,控制两线?开盘时的列阵布局是初始条件,棋子们必须先排队站好,战役才能拉开序幕。而战役的目标很清楚:刺王杀驾,这为整盘棋带来了明确的最终结果。在一定的初始条件下,率领等级分明、价值固定的手下兵将去追求一个已知的明确结果,国际象棋即是如此。这个过程基本上要依靠逻辑来实现,而逻辑正是左脑所擅长的。 在围棋中,子子相同,全无个性,由围空多少来决定输赢。初始时,棋盘上只有横竖十九条线彼此交错。弈者于交叉点处落子,从无到有,棋局的发展不受布局限制。每子落下,意在与已有之子相互勾连,控制四周道路,扩张势力,压迫对方。棋理重在对全局的整体把握,而非局部的具体得失。 棋子间没有区别、彼此平等使弈者不必费心选择,信手拈来即可。初时棋盘的空无一物更是还人以自由,宏篇妙局尽藏于胸,随棋势发展而逐现。输赢的判定取决于围空多少,但没有明确的终止条件,胜负存乎一心。运筹帷幄,无中生有,少受客观限制,直达人心,围棋的意境在于此。很显然,这需要更多的直觉和灵感,综合与想象,而右脑正是这方面的行家。 规则的背后是文化。西方重视个体,鼓励个性,擅长从一点入手,运用逻辑进行透彻的分析;而东方更在意整体,注重联系,习惯从全局出发,综合各处信息,掌控大势。东西方思维方式间存在如此区别并不令人感到新奇,而现在人们想要再为其添加些来自科学的佐证:直接通过实验数据将这种差异描述出来。 研究人员试图从看待世界的角度上彰显这种差异,他们让欧美学生与中国学生观察同一张图片,图片内容包括突出的前景对象与相应的背景衬托,比如原野上的一只狮子。受试者的眼球活动情况被同时记录下来,以便对照。不出所料,前者的眼睛更快地集中在前景对象上,并对其保持了更为长久的热情,而后者则对背景给予了更多时间的关注。 对图片的视觉偏好揭示了欧美学生可能更热衷于分析狮子的性别、年龄,以及它目前的心情与精神状态,而中国学生也许更想知道在这夕阳西下的黄昏,这头孤独的狮子为何会出现在如此荒凉的地方,它打算做些什么?思维方式的差异不会与生俱来,但可以追溯到孩提时代,一位美国母亲会对她的孩子说:迈克,给你辆小卡车,你看它闪闪发光,还有四个轮子。而中国父亲的说法是:儿子,我把车推给你,你再推回来,小心不要撞到墙,会坏的。 逻辑而已 文化的不同导致了思维方式的不同,思维方式的不同导致了游戏规则的不同,游戏规则的不同导致了棋王的含恨落败。 人们很难对由硅片、各种聚合材料、电子器件、金属线、铁皮外壳组合而成,被锁在柜子里,运行起来嗡嗡作响,重达1.4吨的深蓝报以太多的敬意,但它确实战胜了有血有肉,行动自如,能够微笑说话,体重不到200斤的卡斯帕罗夫。而既然国际象棋是人类发明的,用来一较智力高下的游戏,那么就不得不承认这台机器拥有了智力,甚至已经超过了人类。 但伟大的成就仅限于分析智力,国际象棋的规则决定了这是一个逻辑游戏,而逻辑正是计算机所擅长的。根据每个子的性能、作用为其赋上值(会根据所在位置和棋局所处阶段进行相对调整),比如兵:1;马:3;相:3.5;车:5;后:10;王:100,根据棋子所在位置能够控制的四方格数为该位置赋值,为当前局面下己方子力对对方的威胁程度赋值,为当前局面下己方王所处位置的安全性赋值现在,棋盘上的一切都变成了数字,接下来要做的是对下步棋的可走位置进行彻底搜索,当发现在把某一子落入某一格后,所有相应的赋值加起来最大时,好了,就是这一步。 这就是计算机对国际象棋的理解,而虽然人在玩这个游戏时也要不停地分析、推理,但肯定无法如计算机般绝对理性,当太多的可能性导致逻辑无法胜任时,就只能靠直觉和想象力来帮忙了。另外人对棋局的分析是高效而富有弹性的,在考虑下步棋的走法时,根本不会去分析角落里目前毫无用处的车横移一步可能带来什么结果,但计算机会,因为它用的是最笨、最简单的办法:搜索再搜索,计算再计算。 我们可以嘲笑计算机的笨蛋逻辑,但必须要承认它很有效。依靠这种笨蛋逻辑,计算机下赢了拥有聪明逻辑,更有直觉帮忙的人,而正如卡斯帕罗夫所说:直觉带来的棋往往更好、更巧妙。当然做到这一点是需要代价的,那就是巨大的计算量,巧得很,不知疲倦和速度正是计算机的特长,深蓝每秒至少可以计算2亿步棋,卡斯帕罗夫呢? 事情似乎是这样的:计算机试图在用一种勤能补拙的方式与人类抗衡,通过不厌其烦地将最简单的逻辑重复重复再重复,来完成人类几乎一蹴而就的分析过程。而国际象棋的规则允许了这种可能性:逻辑分析是主角,虽然我们也要用到直觉。因此当计算机的硬件保证了实现这种方式所需的计算量时,忽略铁皮外壳与嗡嗡作响,我们迎来了一个可怕的对手。 计算机的手段实在算不上高明,但在不知道对方是谁的情况下,我们多半会觉得这人极度冷静、理智、思维严谨,是个厉害的高手,智商肯定不低。所以尽管不情愿,也必须要承认这机器是有智力的,虽然仅限于分析智力。知道真相后可能会有些不服气,这么笨的方法!但就算对面是卡斯帕罗夫,如果你清楚了他每一步棋产生的确切经过,恐怕也不会将原有的敬意保留太多。我们的敬畏来自神秘感。 当国际象棋特级大师们对人机大战的未来前景越来越持悲观态度的时候,李昌镐、马晓春们却可能都还意识不到围棋电脑棋手的存在,因为它们现在的水平只够在业余级别的门口徘徊。显然,这种天壤之别可以通过规则来解释,围棋是右脑游戏,是直觉、灵感、想象力的游戏,逻辑在这里不过是个小配角。因此面对落子成势时的随心所欲、把握全局时的模糊理解,计算机运用它的笨蛋逻辑牟足了劲却仍是不知所以然,入不了门。 所以我们大可不必认为深蓝及其后继者的存在是对人类的无情挑战,并因此觉得受到了侮辱或感到沮丧不安。汽车跑得比我们快,轮船游得比我们快,计算器算的比我们快,但没有人会对此忧心忡忡,因为这帮家伙只是在某方面比我们强,更重要的是,它们不过是些工具,谁会去嫉妒锤子和菜刀?前者可比拳头硬,后者要比牙锋利。深蓝的优势是逻辑,但也仅限于此,不还是要乖乖听主人的话?想要赢它也容易,大不了关机,用锤子也行。 计算的宿命 不过,计算机勤能补拙的法宝真的没用了吗?毕竟棋盘就那么大,子就那么多,总有下完的时候。理论上是可以的,如果能在每下一子之前,将其可能放入位置所带来的可能变化,以及对最终结果的可能影响都统统计算个遍,还是有资格坐在李昌镐对面的。但不幸的是,这种算法所需的计算量会使整个宇宙都显得微不足道。 只有退而求其次,不追求完美,而是通过某种算法得到一个差不多的下法就可以了。委曲求全的结果是,在当前所能接受的计算量下,计算机还达不到业余一段的水平。看来要想取得更令人满意的成绩,必须拥有更好的算法和更快的计算速度。事实上这两者都在进步,或许十年后今天的新闻是:一台半个上海大的电脑向常昊挑战围棋,常昊为捍卫人类尊严欣然迎战。但也有可能电子计算机在达到物理极限时的计算速度,仍然无法形成对围棋高手的威胁,那么就需要新生力量来接过重任了,比如量子计算机。 现在好像已经不是规则的问题了,而是计算量的问题。也就是说,只要计算量足够大,运用计算机的笨蛋逻辑也能做到灵感、直觉、想象力做到的事。如果说面对逻辑上超越我们的机器,我们还能坦然自若的话,一台直觉敏锐、充满灵性的电脑恐怕不会再让人放心。而照这个情形发展下去,终有一天,情感也可以通过计算来得到,逻辑成为万能,机器全面超越人类。 逻辑计算真的可以做到一切?越来越多的证据表明事实可能的确如此。神经系统中的神经细胞要在将来自其他神经细胞的所有输入信号进行整合后,做出下一步动作,即通过计算来决定是否发出后继信号;神经细胞用来接收输入信号的树状突起(树突),可以通过其小分支上大量的细刺状突起(树突棘)间的相互作用,完成基本的逻辑操作;生物大分子(如蛋白质)之间在遵循化学和物理规律发生相互作用的过程中,会形成生物电路,这种生物电路具有逻辑运算功能这些发现似乎都在说明一件事:我们的逻辑、理性、直觉、灵感、想象力、创造力甚至情感、情绪等等所有的人之所以为人的属性,归根到底都来自于分子层面的逻辑计算,而这最根本的逻辑计算与计算机正在应用的本质上没有什么不同,既然如此,将来的计算机为何做不到这一切?现在,问题变成了人是哪种计算机? 肖邦天马行空的乐曲与李白才华横溢的诗篇都只不过是机械、精确的计算结果,这个结论令人很不舒服。还好,有个消息可以证明逻辑不是万能的。好消息并不来自生命科学的前沿,而是源于一个上世纪三十年代被发现的数理逻辑定理哥德尔不完备性定理。根据此定理,大脑这个逻辑系统很可能是不完备的。意思是我们总要去思考问题,但总会存在一些令我们头疼的问题,这些问题通过分子层面的逻辑计算根本得不到答案。还有一些问题理论上是能得到明确答案的,但却要花上让你无法承受的时间,比如一百年。 或许你会不以为然:对正在思考的问题,不是总能得出一个结果吗?而且通常也用不了多长时间。对此的解释是:大脑给了你一个近似答案。购物归来,你皱着眉头计算一共花了多少钱,不久之后得出了一个令人绝望的结果;围棋对局中,你在判断下一子落在何处最有利于棋局,思考片刻后,它出现在西北角的空旷地带。前一个问题的答案是明确而唯一的,而后一个则模棱两可,下在东南角也不是不行。存在如此区别的原因就在于,前者对大脑这个逻辑系统来说是可解问题,通过分子层面的逻辑计算能够得到精确解。而后者是不可解问题,或者要花上百八十年才能计算出一个精确答案,于是大脑为了让你不至于一辈子都耗在这步棋上,就给出了一个大概的近似解。我们一般将这个近似解的产生过程描述为直觉。 大脑这个不完备的逻辑系统在面对难缠而又不得不解决的问题时,对其进行了模糊化处理,而这种模糊机制能力超群,效率极高,正是大脑神秘莫测的所在。看来计算机这个同样不完备的逻辑系统想要在围棋上与人一较高下,仅在计算量上下功夫是不够的,还要在计算机制上做文章,以便达到人这台计算机的水平。 事情最终似乎可以这样理解:大脑与计算机都是一个不完备的逻辑系统,它们运用本质上一样的计算去解决问题,对形式上是逻辑的问题能够得到精确解,对形式上是直觉的问题只能得到近似解。计算机在计算精确解上拥有速度优势,而大脑持有更高级的计算机制,能够在短时间内得出更好的近似解。在国际象棋中,逻辑的因素占到绝大部分,在围棋中,直觉的成分处于优势地位。换句话说,在下国际象棋时,会有更多的精确解产生,而在下围棋时,则需要更多的近似解。但在将整盘棋当作一个问题考虑时,两者都只能得到近似解,即不存在必胜的走法。 由于国际象棋偏重逻辑,当前的电子计算机以现有的计算机制,发挥计算速度优势,就能够得出一个不错的近似解,这个近似解可以比人得出的好,即战胜棋王。而围棋的直觉特性使计算机在计算机制上的劣势一显无遗,当前可以提供的近似解与人相差甚远。而如果一味的用勤补拙,想达到人的水平,所需的计算量很可能会超过物理极限,因此必须要对计算机制进行改进。现在,问题的关键被锁定在了计算机制,即计算方式上。 对新计算方式的探求刚开始不久,在多位候选人当中,除了量子计算的叠加态引人注目外,计算机科学家们最看好的是DNA计算。所谓DNA计算的基本思路是:以组成DNA分子链的四种碱基(A、T、C、G)为信息载体(相对于电子计算机中的0和1),通过DNA酶实现对DNA链的四种生物操作:切割、粘贴、插入、删除(相对于电子计算机中的加、减)。 可这还是计算机吗?还是。计算的本质没变,只是物理性质的加、减变成了化学性质的切割、粘贴、插入、删除,计算方式变了。十进制向二进制的转变引发了信息革命,新的转变会带来什么?也许是真正的智能机器,向人类挑战直觉、想象力的机器。 计算机围棋棋手战胜李昌镐们看来是早晚的事了,不过到那时,我们还可以说计算机并没有全面超越人类,因为它没有感情。而想要将感情也加入其中的话,可能需要一个更为理想的计算装置、工作空间。于是,将来的某一天,当我们欣赏自己的终极作品时,会惊愕地发现:它拥有基于DNA计算的发达神经网络系统,以及支持这个网络系统正常运转的呼吸系统、消化系统他,就是一个人!而我们重复了进化曾经做过的事。 在路上,迎面走来一个人,擦肩而过时,你向他点头示意,他微笑相应,你们心中同时在想:真是个和善的人。或许这才是图灵测试的终极含义,人本身不就是一台DNA计算机吗?上帝制造。 但之后呢?谁来负责进化的继续?上帝还是人? 发表于 2007 年 7 月刊《新发现》 参考文献: 1. Atherton M, Zhuang J, Bart WM, Hu X, He S. A functional MRI study of high-level cognition. I. The game of chess . Cogn Brain Res. 2003 Mar;16(1):26-31. 2. Chen X, Zhang D, Zhang X, Li Z, Meng X, He S, Hu X. A functional MRI study of high-level cognition. II. The game of GO . Cogn Brain Res. 2003 Mar;16(1):32-7. 3. Lee KH, Choi YY, Gray JR, Cho SH, Chae JH, Lee S, Kim K. Neural correlates of superior intelligence: stronger recruitment of posterior parietal cortex . Neuroimage. 2006 Jan 15;29(2):578-86. 4. Duncan J, Seitz RJ, Kolodny J, Bor D, Herzog H, Ahmed A, Newell FN, Emslie H. A neural basis for general intelligence . Science. 2000 Jul 21;289(5478):457-60. 5. Sternberg RJ. Cognition. The holey grail of general intelligence . Science. 2000 Jul 21;289(5478):399-401. 6. M. Newborn. Deep Blues contribution to AI . Ann. Math Artif. Intell. 28 (2000) 2730. 7. Kasparov G. Strategic intensity: a conversation with world chess champion Garry Kasparov . Harv Bus Rev. 2005 Apr;83(4):49-53, 132. 8. Chua HF, Boland JE, Nisbett RE. Cultural variation in eye movements during scene perception . Proc Natl Acad Sci U S A. 2005 Aug 30;102(35):12629-33. 图片来源: 图片1来自 http://bbs.sina.com.cn 图片3来自 Lee KH, Choi YY, Gray JR, Cho SH, Chae JH, Lee S, Kim K. Neural correlates of superior intelligence: stronger recruitment of posterior parietal cortex . Neuroimage. 2006 Jan 15;29(2):578-86. Epub 2005 Aug 24. 图片4来自 www.4oto.com 图片5来自 Atherton M, Zhuang J, Bart WM, Hu X, He S. A functional MRI study of high-level cognition. I. The game of chess . Cogn Brain Res. 2003 Mar;16(1):26-31. 图片12 来自 http://bbs.pcbirds.com/pages/25,16163,1,1059549448.html
个人分类: 生物|1942 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-12 12:27

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部