科学网

 找回密码
  注册

tag 标签: 智能哲学

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

两种“两种文化”交汇中的人工智能
热度 2 liuyu2205 2019-8-24 17:39
两种“两种文化”交汇中的人工智能 周剑铭 柳渝 摘要 : 人工智能已经强势出现在今天世界的舞台上。人工智能不同于以往的主、客关系(第三问题),人类还完全没有应对的基本观点、范式和全局性的研究平台。本文认为,只有在 “ 科学与人文 ” 和 “ 中、西文化 ” 这样两种 “ 两种文化 ” 的共同视域下,才有可能应对人类目前面临的挑战。在智能哲学论域中,研究人与人工智能的基本关系是人类对 “ 不确定性 ” 问题关注的一个新高度。人、机伦理关系比人、机技术关系更为根本。智能哲学的专门研究范畴如学习与模仿、直觉与 “ 局面 ” 等,可以在一种全新的综合性上,将人类的认知理论推向一个新高度。 关键词 : 科学与人文 中西文化 智能哲学 人工智能 目录 一、引言: “ 不确定性 ” 的恐惧与希望 二、 AlphaGo 胜过 “ 人 ” 了吗? 三、对弈 “ 局面 ” 判断的不确定性 四、智能哲学的研究课题: “ 模仿 ” 五、人、机伦理关系与 “ 第三问题 ” 六、现实社会中的人工智能 七、人工智能相关的社会问题 一、引言: “ 不确定性 ” 的恐惧与希望 大众化的历史知识是由具有标志性的历史事件构成的。可以作为人工智能里程碑事件之一的就是基于人工神经网络( ANN )的 AlphaGo 完胜人类顶级围棋手 。有人兴奋,有人忧虑,更多的是茫然和失落,好像一场世界大战前的平静后面的骚乱和不安,人们面对的不是确定性的预期,而是不确定性的未来:恐惧还是希望?这种直觉是前所未有的,而此前还没有一种整体性视角可以鸟瞰这一切,因此我们不得不来到一个最大的论域中。 “ 科学与人文 ” 这两种文化的相对视角可以提供一种从技术角度转向人文文化考察的方向,但并不能提供解决的方向;而困扰人们已久的中国与西方文化或文明的冲突,或许正在等待这两种 “ 两种文化 ” 的交叉汇合带来的全新的生机:在技术领域的人、机伦理危机中把中国文化有关人性本质的观点带入到新时代的境界,或许这就是危机中的希望。 科学与人文不同是一个事实。自然语言不确定性与科学技术精确性之间的差别是无法用一种科学方法克服的。科学家正是不断地克服主观性和不确定性,艰难地运用工具方法,逐步建立起精确的理论体系和物理事实,才有了客观性和确定性的科学理论和技术,我们不能以自然语言解释或理解这后面的存在。基于工具文明和对象性文化的加速进步,人类社会登上了一级级更高的台阶。另一方面,相比于科学事实,自然语言和日常生活却更加实在。科学技术在某种意义上只有为了人的目的才有价值,每一个科学家身份背后的人生才是科学成为科学的最终动力,如果科学不能为人类的历史进步做出贡献就没有了意义。虽然自然语言和人的直觉无法确定性地表达和操纵科学思想,但所有的科学成果走完自己的历程后就自然地永存于人类的常识中,这可以通过比较一下历史上幼儿、小学、中学教育内容的不断深化而毋庸赘言。 西方文化不断强调 “ 人是万物的尺度 ” (普罗泰戈拉)或 “ 人为自然立法 ” (康德),但这实质上只是一种以哲学语言说出的目的或信仰。中国传统文化虽没有这样明确的表达,但却以自身的本质表现了人的主体性,这种直觉的、日常生活中的智慧本身就是意义和价值。为自身价值和意义的生存妨碍了中国人对外的扩张、征服的野心,但却可得到一切现象、实体背后的本身价值。这是一种自身表达的自己的确定性,不是 “ 自在之物 ” (康德)、 “ 我思故我在 ” (笛卡儿),或者 “ 存在者的存在 ” (海德格尔)等对不确定性的困惑,而是 “ 天人合一 ” 元语境中的自然的自在与历史同一, “ 大象无形 ” 的非表达和非形式的确定性,这就是与西方逻各斯( Logos )不同的中国理性。 今天的人工智能对人的地位的伦理挑战,实际是人的价值和意义陷入科学与人文两种文化难以弥合的鸿沟而产生的不确定性的恐惧。从中国文化来看, “ 人类历史的终结 ” 也就是 “ 历史 ” 的终结,人类终结后的历史与人类出现前的历史是因被人认识而展开成为 “ 历史 ” 的。一个没有人的世界可以与一个数学或物理公式一样永远正确,却不会有 “ 历史 ” 这种本质性,最确定性的科学和技术如果没有人的肯定也就无所谓确定性的意义了。人工智能带来的并不是对人的地位的替代,而是对人的价值和意义的重新认识,是人类自我更新的重大机遇。 当前人工智能的发展远不只是从技术理论上能不能解释的问题,人工智能的发展已经明显地表现出了对人的地位和社会存在的挑战,而且有识之士已经开始把这样的问题放在当前最迫切的位置上,但却找不到解决的方向。我们认为这不仅是 “ 科学与人文 ” 这两种文化的交汇漩涡,也是 “ 中西文化 ” 一次深度融汇的机遇。因此,我们可以在这样的文化背景上,总论性地介绍人工智能在技术、科学理论、社会推动、伦理和哲学等方面的一些深层次问题。 与西方一些国家重视人工智能研发不同的是,中国文化重视人和人性的中心地位,这使我们能在 “ 中西文化 ” 和 “ 科学与人文 ” 的相对性中处于一种特殊的文化地位。我们能否在这样两种 “ 两种文化 ” 的交织中不失机缘?在此,我们提出这个问题,面对攸关人类自身利益的人、机伦理关系,期望在一种大格局下研究 AI 平台的伦理学问题。 ① 二、 AlphaGo 胜过 “ 人 ” 了吗? AlphaGo 战胜人类棋手后,一种通常的说法是 “AlphaGo 战胜了人 ” 。这种表面性的理解实际是对人工智能挑战人的地位的恐惧,而不是基于对人棋关系和人机关系的复杂性的全面理解后所作的结论。实际上,无论在何种水平或角度上讲解或分析 AlphaGo 是如何胜过人类顶尖棋手的,设计、制作、训练 AlphaGo 的科学家,最终都不能基于人工神经网络模型解释这台机器是如何工作的。与通常人们所理解的算法或计算机原理不同, ANN 的工作机制仍然是一个 “ 黑箱 ” ,一般所说的 “ 机器学习 ” 的函数化算法模型只是他们在模仿大脑神经突触联接所设计的人工神经网络联接模型的基础上所做的再模拟(函数拟合),这种 “ 模仿 ” 既不是数学理论的推导,也不是物理定律的推导,只是基于人的模仿产生的效果。 因此,作为人工智能的 “ 机器学习 ” 只是因模仿而得到的机器表现了 “ 学习 ” 功能,这可以从几个模仿层次上予以分析。首先是人对大脑神经突触的联接关系的模仿而产生了人工神经网络模型( ANN );然后是以函数和算法形式对人工神经模型的再模仿(统计学中的数学化方法 “ 函数拟合 ” 的移植,算法模仿); “ 机器学习 ” 的学习功能则是人通过 “ 训练 ” 机器( “ 监督学习 ” )而得到的,让机器读入大量的人类经验数据而完成拟合函数中的变量(权重)确定,即完成机器的功能模仿,使机器具有实战能力。所有这些不同层次的模仿都是基于人的模仿而得到的人的智能在某方面的功能,正是这一点决定了人、机关系。人、机之间主要的区别就在于,人是天生的主体学习者,人的模仿既可以是形似,也可以是具有主体意义的学习。人的学习具有创造性潜能,而 “ 机器学习 ” 只是对人的模仿,机器是在人造的 “ 先天性 ” 上才得到自己的模仿能力。 AlphaGo 的成功不是算法或逻辑的胜利,而是人的模仿的成功。这种成功是由人、机对弈中机器的胜利( have achieved unprecedented performance ,出人意料的表现)而被肯定的。在这种意义上, AlphaGo 在人、机对弈中的胜利最终表达的是人的智能的胜利! 尽管模仿大脑神经突触联接得到了具有 “ 学习 ” 能力的人工神经网络模型,但这不是基于机理上的设计,也没有机理上的理解和解释②。现在开源的可以在计算机上运行的 “ 机器学习 ” 程序,是对人工神经网络模型的算法再模仿(函数拟合)。这种基于构造的模仿的再模仿而表现的机器的 “ 学习 ” 能力,不是算法本质的 “ 算法 ” ,不存在这样的 “ 算法 ” ③。所以我们希望用 Agent (代理)和 Matrix (矩阵)这样的表达区分 “ 人工智能 ” 和严格定义的 “ 算法 ” 在本质上的不同。 三、对弈 “ 局面 ” 判断的不确定性 算法过程和其结果的可表达性和确定性是 “ 工具理性 ” (韦伯术语)最精粹的表现。在算法理论中是以 “ 多项式时间 ” ( Polynomial Time )这个概念精确定义的,与数学的 “ 线性关系 ” 等价。从逻辑上说, “ 可计算的 ” 也就是 “ 可判定的 ” 。与此相对的就是 “ 指数时间 ” ( Exponential Time )的概念,相当于数学中的 “ 非线性关系 ” 的意义。在计算机理论中则是 “ 不确定性问题 ” ( Nondeterministic Problem , NP )。 NP 就不是算法可确定性计算的,也不是算法可判定的,这个概念基于希尔伯特的第十问题和图灵对这个问题 “ 拒绝式的解决 ” ( Entscheidungs problem ,不可判定性问题) 。最直观的例子就是围棋的 “ 局面 ” 与判断。    围棋的棋盘和棋子简单而直观。围棋就是几何平面上的线性位置结构的产生和相对竞争(博弈)关系。几何平面上的线性位置的有限结构产生有序性意义,最好的例子就是 “ 生命游戏 ” ,但在此游戏中,棋子根据与其相邻棋子的关系,按照一个既定的规则产生 “ 生死 ” 变化,由此来决定 “ 局面 ” ,所以 “ 生命游戏 ” 是 “ 算法能行 ” 的,程序变量的事前设定确定了局面变化过程( “ 生命 ” 演化);而围棋的局面要则由双方博弈共同形成的位置关系决定,就是说围棋局面的形成既不是由可共享的程序(递归)决定的,也没有不变的前提变量的设定,每一次局面的形成不是上一局面的继续(迭代),而是双方棋手独自看局的直觉判断和策略的博弈,所以围棋能体现人的直觉的智能。人工神经网格模型的运用能在围棋、图像识别、语音识别等方面取得出人意料的效果,都与这种直觉性质的能力的模仿有关。 人类棋手积累的数量巨大的棋谱,本质上就是局面的产生、判断和决策所形成的层次性直觉图谱。每一手下子后的棋盘局面是由棋子与棋盘共同形成的平面线性位置结构,但在不同的棋手直觉中是不同的局面。在一次对弈中,每个棋手心目中的局面是否能最终形成迭代连续的棋谱,是由双方决定的几何性,这里没有算法或逻辑的一致性。局面的产生、局面的判断和下子决策没有时间上的因果链,而是一种同时性。这种几何性和同时性的相对性是一种本质的并行不确定性。所以围棋的局面形成(判断)和策略决定不是 “ 算法能行 ” 的,而是基于人类的直觉的智能过程。棋手的经验棋谱构成了一个有效的图谱空间,这是对棋局所有可能空间的大规模收缩,不同的棋手会在这个巨大的图谱空间中形成自己的复杂的连续迭代模式(个人风格),初学者也在这个有效图谱空间中学习积累实战经验。由于 AlphaGo 充分利用了人类棋谱所构成的相对有限的合理棋谱空间,并能以大大高于人类的快速搜索能力和选择性,成功实现对围棋战法模仿,所以 AlphaGo 的胜利只是机器时空能力上的优势。人类棋手没有理由因与 AlphaGo 对弈失败而沮丧,因为这只不过是一个人与所有历史经验的对弈。 作为对人工神经网络模型的运用, DeepMind 说 “ 我们下围棋采用了类似结构,把盘面作为 19×19 图像,使用卷积层 ……” ( We employ a similar architecture for the game of Go. We pass in the board position as 19×19 image and use convolutional layers … )。这样就把非算法的棋谱迭代用 “ 模拟 ” ( analogue )方法替代了。 中国人对围棋的机理解释一直是文化性的,主要强调人机关系中人的主体性,如 “ 围棋十诀 ” 等,并非纯粹的围棋机理,大体上是通过提高人性的修养而培养对局面的判断和把握能力。主要的棋理性的总结,如 “ 金角、银边、草肚皮 ” ,成了棋局判断中永恒的真理,从 9 线、 13 线到 19 线或更大的棋盘都适用。还有一些落子的基本规则等,但未发展成为完全的机制理论,只是心、口相传,和个人的经历结合成为个人的风格。 AlphaGo 却不能直接运用这些真正的棋理。 四、智能哲学的研究课题: “ 模仿 ” AlphaGo 的有些令人遗憾的退役主要是因为无法在机理上继续进行直接研究,其工作机理既不能像算法程序一样被取出来,也不能被编辑移植,但 AlphaGo 为之后的研究留下了丰富的遗产,如新近发布的 AlphaGo Zero ,为人工智能的机理研究打开了一扇大门。 AlphaGo 是基于 ANN 模型与算法的混合结构,由于缺乏对人工神经网络模型的机理解释,也没有对 AlphaGo 作为算法和硬件混合结构的整体性理论,现在一般只能援用算法理论的研究方法,如将 AlphaGo 看成是一种棋局空间的搜索 “ 算法 ” 。这是一种局限性眼光。从算法观点的解释看, 19×19 围棋仍然是有限空间中的搜索,搜素空间看似确定的(虽然很大),但目前的条件下任何机器无法构造和完全搜索这样大的空间,因此只能作为 NP 问题对待(如同 MaxSAT )。 NP 没有确定性的算法,只有最优近似解决,这恰恰不能保证一方必胜。 人工智能是人模仿人的智能的创造物 ,人的智能是人的本质之一。所以,人的智能无法作为实证科学的对象,只能在智能哲学中研究。大脑可以被放在实验条件中研究,但大脑的生化结构和机制并不等于智能。虽然人可以模仿神经突触联接得到人工神经网络模型,并表现出机器学习的功能,但仍然不知道它的工作机制原理 。 智能哲学的研究可以为人工智能与人的智能之间的关系提供基本的认知。 AlphaGo 提供了一个最基本的人机关系 —“ 模仿 ” 。 “ 模仿 ” 不是一种数学或逻辑的推演机制, “ 模仿 ” 大体是仿形或仿结构,是形似,不是真仿,即不是机理、机制相同。英文中 imitate 与 analogue 就具有完全不同的专业意义, analogue 有仿真的意义,而且是计算机专业术语, analogue 指具有物理并行意义的机器。 “ 模仿 ” 既是人的智能能力,又可以是机器的功能属性, “ 模仿 ” 可以表现功能, “ 模仿 ” 和 “ 模仿的模仿 ” 就能实现形式结构到机制表现的生成性。这种结构与功能关系的类似研究,如社会学中的结构功能学说( structural functionalism ),它对社会学理论做出了重要的贡献。在超越科学与人文的鸿沟,融合中国文化与西方文化的智慧的基础上,智能哲学的研究将为揭示人工智能的机制打开通道,并为理解人的智能提供认知上的准备。 五、人、机伦理关系与 “ 第三问题 ” 当前人工智能已经在研究、开发和实用中遍地开花,百花争艳。每个参与者都有一个几乎切近的目标,研制 “ 通用的人工智能 ” 或称 “ 强人工智能 ” ,就像当年的图灵机一样 “ 万能 ” 的智能机器。如果这样的机器可以完全代替人的功能,如果人工智能永远只是人的工具,人也就可以永远 “ 坐享其成 ” 了。但是,这是人类追求的最大幸福吗?人自己存在的价值是什么?如果通用人工智能能自主,并自主认为不应作为人类的工具,人类还能保卫自己的尊严和地位吗?因此,人们一方面为人类文明进步频率的非线性加快而激动(所谓 “ 奇点 ” 临近),另一方面却不得不为人工智能可能超过人的智能而与人类争夺空间生存权而恐惧。或许,功能机器逐步替代人的身体结构直至意识实现对 “ 人 ” 的替换,这都是人类从来没有考虑过的问题。人们经常开玩笑地自问: “ 我是谁?从何而来,向何而去? ” 这只是哲学问题的日常化,除了哲学家,没人较真,但人工智能的挑战是无法回避的,如果不把人机关系放在意义和价值的伦理关系中,就无法研究这个攸关人类命运的迫切问题。 人、机伦理关系取决于对 “ 人 ” 的意义、价值和地位的理解,这是一个最古老、最深刻的哲学问题,也是伦理学成为东西方哲学和文化思想中一个根本问题的原因。哲学学科和众多的知识学科,特别是近现代以来的科学技术的发展使哲学、伦理学不断地分化、消散于名目繁多的学科理论之中,当现代人几乎淡忘了这些古老的智慧时,人工智能所面临的巨大预期、困惑甚至是恐惧迫使我们把人工智能的伦理学问题推到一个最重要的位置上。 人类知识的积累和进步以及科学技术的发展使现代人享受到前所未有的物质上的 “ 幸福 ” ,但知识和技术本身成为了一种既具有客观性又具有主观性意义的事物。波普曾以 “ 世界 3” 这个概念来描述这个特殊性的对象,但 “ 世界 3” 理论并没有得到有力的支持和继续深入展开,其困难在于, “ 世界 3” 理论只是一个概念体系而不在传统哲学的体系框架中,波普也没有提供一个与传统哲学中的 “ 主、客 ” 关系不同的三方关系的研究模式,未能进入哲学研究的主流,所以人与知识、工具、技术的关系问题并没有得到深入、系统性的研究。即使是 “ 信息 ” 这样非常特殊的研究对象,由于其被动性本质无法完全脱离客观性范畴而不具有对人的价值和地位的挑战。但这种不同于主客关系的第三种关系(第三问题)无法被忽略,在哲学理论中一直以逻辑、语言问题等的形式反复出现,争夺发言权。人工智能的发展的自主性问题使 “ 世界 3” 获得了强大的现实性和争夺性,但这样深远和深刻的问题不是一门或数门学科理论有能力回答的。 如果说实证科学研究世界 “ 是什么 ” 和 “ 如何是 ” ,那么,伦理学就是研究社会 “ 如何是 ” 和人 “ 应该如何是 ” 问题。这两门学问一直分属 “ 科学 ” 和 “ 人文 ” 两大领域(所谓科学与人文的 “ 两种文化 ” )。从科学研究领域中产生和迅猛发展的人工智能已经侵蚀了最基本的人文学科领域。具有理性本质的西方文化无法应对自己所缺失的本质的挑战。 AlphaGo 的全胜似乎是一种暗示,在科学与人文的越界混乱中,中西文化的融合才是解决的道路。 六、现实社会中的人工智能 伦理学也是一门实践的学科,因此作为哲学伦理学或哲学人类学性质的研究与作为社会学或经济学、法学等应用伦理学不同,人、机关系的伦理学问题已经直接面对当前的普遍化人工智能所造成的对人类的社会生存状态的影响。受到普遍关切的一个问题是,机器越来越多地代替了人的工作岗位,大量失业的人将如何重新得到自己的社会地位? 在人类历史上有过阶层人口大量转移的例子,其总伴随着剧烈的社会冲突甚至战争的阴影。人类社会为此付出了沉重的代价才换得了社会的进步。实际上这是人、机的伦理关系以社会问题形式对人类的法律规范和政治觉悟的挑战。如果人类的智能和理性不能主动应对,人类社会就真的难逃此劫。但人的这种政治自觉性从何而来?这需要深刻认识人、机伦理关系,实质上要求西方主导的伦理学实现自身的转变。  伦理学基于对人的意义和价值的研究,但西方伦理学自希腊时代以来,一直把人所追求的目的作为伦理学的目标。 “ 如果在我们的活动中有的是因其自身之故而被当作目的,我们以别的事物为目的都是为了它,如果我们并非选择所有的事物都为着某一别的事物,那么显然就存在善或最高的善。 ” 因此,如 “ 善的生活 ” (苏格拉底)以及人生的 “ 最大幸福 ” 等就成为伦理学的研究目标。在高度发达的现代经济社会中,人的地位和价值与经济生活中的目的直接挂钩,这就是由机器代替人工作的 “ 幸福 ” 变成了人失去社会经济地位的恐惧。大量农业人口转变为工业人口仍是经济活动领域之内的事,现在要求大量的包括部分智力工作在内的大规模职业转向,不是社会经济领域能够解决的,而是要求人的伦理价值和伦理学自身的转变。但是,人类能真正意识到并准备好吗?如果不能回答这样的问题,就只有坐等接受 “ 人类的终结 ” 了。    在中国传统文化中,对秩序的重视是中国思想的主要特征,因此中国文化意义的伦理学主要关注人与人的社会关系构成的社会秩序。 这种秩序基于人性的本质,在人与社会的共同历史中实现同一。从人工智能的某种能力上评估,人的历史似乎面临着结束,但历史不会结束。今天人工智能对人的地位和价值的挑战实质是实现人与历史重新获得同一性的要求。 社会现实中人工智能的另一个问题就是个人如何与人工智能相处?人能得到人工智能的高级服务方式就是精神生活中的 “ 交流 ” 。与虚拟世界中的游戏不同,这是一种涉及虚拟人格个性的问题,与人工智能可能具有的法律地位一样,这是人、机伦理关系的高级层次,与个人的关系更直接,在个人本质的心理构成上将产生长远的影响,其社会影响更深刻。如果在心理上接受了虚拟的心理人格关系,就为人、机生物接合的人格性打开了大门,传统的人成为了不设防的城市。为此,人做好准备了吗? 在中国传统文化中,人的本质与历史的本质是一致的,但西方文化不具有这个本质性。因此,所谓人工智能挑战人的历史地位,实际上是指 “’ 人 ’ 的历史 ” 的终结。这种观点在西方哲学史中并非少见,尼采的 “ 超人 ” ,福柯的 “ 人死了 ” 等,并不等于历史的终结。从中国文化的观点看,所谓人工智能对人类的挑战恰恰是人与历史新的文化整合机遇,以中国文化和中国思想融合现代文明的冲击,不仅仅是中国人的任务,而是人类的共同责任。 七、人工智能相关的社会问题 社会是人类的生存方式,人类社会与人类的进化史是同一的,改造社会与改造人类具有相同的性质。人类对人类社会的认识正如人类对自己的认识一样,是一个历史过程,不可能存在一种事前设定的改造人类或改造社会的 “ 工程 ” ,这样的观念、企图或设计本身就是反人类和反社会的。人工智能是人类创造的,不是事先的全盘规划,就是说人工智能的产生和发展是人类社会进步的构成部分。只要不是恶意地、反社会地去造成人类社会的不协调发展,人类和人类社会的发展是能形成自己的必然的历史道路的,这本身就是人类最基本的伦理信念和伦理原则 — 无论西方或东方,无论科学和人文,都普遍接受这样的真理和原则。正是因为人类信守这种基本原则,人类和人类社会才战胜了历史上无数的曲折、战争和灾难,进入到蓬勃发展的今天。 人工智能的发展是否会导致反人类、反社会性质,不是人工智能本身的问题,而是知识和技术作为 “ 第三问题 ” 出现在以往的主 - 客关系模式中。但从哲学史上说,以非理性哲学思想出现的观点或学说实际上一直与这种主 - 客对立的模式反对性地存在。因此,今天的人工智能引起的轩然大波并不是无根之木。在哲学意义上,人、机伦理问题只是人类思想的一次自我更新。 人工智能对人类社会带来的利益和弊端正如人类社会中出现过的很多重要事物一样,总是同时存在的。当人们认为机器智能将超过人的智能的时候,人类并不是坐以待毙。在人工智能引起人类面临的所有紧迫问题之前,相对容易处理的是作为研究开发人工智能科学家和技术专家在职业上的伦理问题,也就是,人(研究、开发者、应用者)如何将传统的人的道德和伦理信念贯彻在自己所研究、制造、开发的人工智能中,使其服从甚或具有人信守的伦理原则。我们只有人类的伦理学原则,我们只能在我们已有的人类的伦理学的理念的基石上进行人工智能的研究、开发和应用。但人能否或何种程度上将人的伦理原则赋予机器还是一个有待研究和实践证实的问题。今天我们能做到的就是坚守我们人类的伦理信念,坚持人类的尊严、价值和意义。在这个基石上,人工智能的研究和发展至少能有我们人类的伦理底线。 正是由于中国传统文化具有人和人性的本质性,所以我们可以在继承中、西方传统学说和理论的基础上直接把人工智能的伦理学问题作为人工智能的本质问题来对待。从中国文化看,伦理学的最基本问题就是人的本质问题,而人具有不确定性的本质,在融合西方伦理学传统与中国传统文化的基础上,把人性精神贯彻在从业道德和设计理念中,是一条最切实的道路。 人工智能相关的法律问题已经引起了广泛的关注,而人、机伦理关系是法律规约的基础。从人、机伦理关系过渡到立法程序是不可避免的,但是现在人工智能的社会地位没有可依据的前提,比如人工智能所谓的 “ 自主性 ” 是否价值中立?这就要求人工智能具有价值观和判断能力;或者,人能否将人类的伦理观念植入工智能之中?人工智能是否会服从或被恶意的不负责任的目的所影响,谁最终承担责任? 人工智能渗入到各行各业和日常生活已经是一种事实,人工智能发展势头超乎想象,这种情况对一般认知和投资决策造成了巨大的冲击。对于资本市场或国家战略来说,人工智能将成为一个巨大的产业,这一点毋庸置疑,但对人工智能的巨大投资预期将成为现实或是泡沫,仍然是一个攸关大局的事。目前的热潮实际上是由对人工智能与人的地位关系的有限的理解和想象推动的,对人工智能的恐惧似乎还很遥远,但巨大的市场就在眼前,这两种视角之间没有选择的依据。很遗憾,迄今为止,包括技术专家,并不能真正理解和解释真正的人工智能的机制,无法在单纯的机器能力(算法),人工智能( agent )和人的智能三个不同的层次之间做出清晰的层级划分,也就无法为投资和战略决策提供有效的理论根据,库兹韦尔就是这样理解的: “ 苹果可以做出苹果酱, …… 如果电脑运行 ‘ 大脑软件 ’ 则可以变成人脑。 …… 问题在于我们能否发现一个算法并在一个实体中实现计算过程以等效于人类的大脑。 ” ( The question is whether or not we can find an algorithm that could turn a computer into an entity that is equivalent to a human brain. ) 正是因为不能正确地理解机器、人工智能与人的智能之间本质的不同,才会有种种既难信服又不得相信的预期未来。如何确立清晰的人、机伦理关系,如何正确地判断人工智能发展的趋势,如何调整现有的社会期望和行为,等等所有大观点问题已扭结成一种大局势,不管愿不愿面对,愿不愿回答,人工智能时代已经到来。       注释:    ① 本文相关内容和参考资料除已有文内夹注外,可参见作者有关中国文化与中国思想、算法理论、不确定性问题( NP )和不确定性理论、智能哲学等的系列文章。    ② Deep Mind 的 “ 价值网络 ” 与 “ 策略网络 ” 的图示并不是算法或逻辑的关系,只能说是一种模仿式解释。    ③ 自然语言中这种术语的借用是造成人们误解的一个很重要的原因。       参考文献    【 1 】 David Silver, et al. Mastering the Game of Go with Deep Neural Networks and Tree Search. Nature, 2016, 529: 484-503. DOI: 10.1038/nature16961.    【 2 】 A. M. Turing. On Computable Numbers, with an Application to the Entscheidungs Problem. Proceedings of the London Mathematical Society, 1937, 42(1): 230–65.    【 3 】 Gardner Martin. Mathematical Games - The Fantastic Combinations of John Con-way’s New Solitaire Game’ life. Scientific American, October 1970, 223: 120–123.    【 4 】 David Silver, et al. Mastering the Game of Go without Human Knowledge. Nature, 2017, 550: 354-359. DOI: 10.1038/nature24270.    【 5 】 A. M. Turing. Computing Machinery and Intelligence. Mind, 1950, 49: 433–460.    【 6 】 M. Minsky, ed. Semantic Information Processing. MIT Press, 1968.    【 7 】卡尔 · 波普 . 客观知识 — 一个进化论的研究 . 舒炜光等译 . 上海 : 上海译文出版社 , 2001.    【 8 】尼格马克 . 伦理学 . 廖申白译 . 北京 : 商务印书馆 , 2003.    【 9 】 Ray Kurzweil. How to Create a Mind: The Secret of Human thought Revealed. Viking, 2012. https://en.wikipedia.org/wiki/How_to_Create_a_Mind. .       此文刊载在 “ 科学与社会 ” 杂志, 2018, Vol. 8 Issue (1): 59-71 网址: http://www.xml-data.org/KXYSH/html/388c98da-b5de-44d7-8bc5-f667566e2a88.htm 此文刊载在 “ 爱思想 ” : http://www.aisixiang.com/data/115761.html     
个人分类: 智能哲学|4453 次阅读|1 个评论
两种“两种文化”交汇中的人工智能
liuyu2205 2019-4-9 02:00
两种“两种文化”交汇中的人工智能(注) 周剑铭, 柳渝* *法国儒勒·凡尔纳公立综合大学计算机系 摘要: 人工智能已经强势出现在今天世界的舞台上。人工智能不同于以往的主、客关系(第三问题),人类还完全没有应对的基本观点、范式和全局性的研究平台。本文认为,只有在“科学与人文”和“中西文化”这样两种“两种文化”的共同视域下,才有可能应对人类目前面临的挑战。在智能哲学论域中,研究人与人工智能的基本关系是人类对“不确定性”问题关注的一个新高度。人、机伦理关系比人、机技术关系更为根本。智能哲学的专门研究范畴如学习与模仿、直觉与“局面”等,可以在一种全新的综合性上,将人类的认知理论推向一个新高度。 关键词: 科学与人文 中西文化 智能哲学 人工智能 Artificial Intelligence in the Intersection of Two Kinds of “Two Cultures” ZHOU Jian-ming, LIU Yu Abstract: Artificial Intelligence appears on the world stage nowadays as Problem 3 different from the traditional relationship between subjective and objective, and Human has neither basic opinions and paradigms, nor global research platforms for it. It is only in the common vision of Science vs Humanity and East vs West Cultures that it is possible to deal with the current challenge facing humanity. In the field of Intelligent Philosophy, the research of the basic relationship between human intelligence and artificial intelligence is in fact the research of nondeterminism in the past but at a new height. The ethical relation of human and machine is more fundamental than the technical one of human and machine. The specialized research areas of intelligent philosophy, such as learning and imitation, intuition and configuration, etc., can raise the cognitive theory up to a new height from a new comprehensive view. Key words: science vs humanity east vs west cultures artificial intelligence intelligent philosophy 目录 一、引言:“不确定性”的恐惧与希望 二、AlphaGo胜过“人”了吗? 三、对弈“局面”判断的不确定性 四、智能哲学的研究课题:“模仿” 五、人、机伦理关系与“第三问题” 六、现实社会中的人工智能 七、人工智能相关的社会问题 一、引言:“不确定性”的恐惧与希望 大众化的历史知识是由具有标志性的历史事件构成的。可以作为人工智能里程碑事件之一的,就是基于人工神经网络(ANN)的AlphaGo完胜人类顶级围棋手。 有人兴奋,有人忧虑,更多的是茫然和失落,好像一场世界大战前的平静后面的骚乱和不安,人们面对的不是确定性的预期,而是不确定性的未来:恐惧还是希望?这种直觉是前所未有的,而此前还没有一种整体性视角可以鸟瞰这一切,因此我们不得不来到一个最大的论域中。“科学与人文”这种两种文化的相对视角可以提供一种从技术角度转向人文文化考察的方向,但并不能提供解决的方向。困扰人们已久的中国与西方文化或文明的冲突,或许正在等待这两种“两种文化”的交叉汇合带来的全新的生机:在技术领域的人、机伦理危机中把中国文化有关人性本质的观点带入到新时代的境界,或许这就是危机中的希望。 科学与人文之间存在不同是一个事实。自然语言不确定性与科学技术精确性之间的差别是无法用一种科学方法克服的。科学家正是不断地克服主观性和不确定性,艰难地运用工具方法,才逐步建立起精确的理论体系和物理事实,才有了客观和确定性的科学理论和技术,我们不能以自然语言解释或理解这后面的存在。基于工具文明和对象性文化的加速进步,人类社会登上了一级级更高的台阶。另一方面,相比于科学事实,自然语言和日常生活却更加实在。科学技术在某种意义上只有为了人的目的才有价值,每一个科学家身份背后的人生才是科学成为科学的最终动力,如果科学不能为人类的历史进步做出贡献就没有了意义。虽然自然语言和人的直觉无法确定性地表达和操纵科学思想,但所有的科学成果走完自己的历程后就自然地永存于人类的常识中,这可以通过比较一下历史上幼儿、小学、中学教育内容的不断深化而毋庸赘言。 西方文化不断强调“人是万物的尺度”(普罗泰戈拉)或“人为自然立法”(康德),但这实质上只是一种以哲学语言说出的目的或信仰。中国传统文化虽没有这样明确的表达,但却以自身的本质表现了人的主体性,这种直觉的、日常生活中的智慧本身就是意义和价值。为自身价值和意义的生存妨碍了中国人对外的扩张、征服的野心,但却可得到一切现象、实体背后的本身价值。这是一种自身表达的自己的确定性,不是“自在之物”(康德)、“我思故我在”(笛卡儿),或者“存在者的存在”(海德格尔)等对不确定性的困惑,而是“天人合一”元语境中的自然的自在与历史同一,“大象无形”的非表达和非形式的确定性,这就是与西方逻各斯(Logos)不同的中国理性。 今天的人工智能对人的地位的伦理挑战,实际是人的价值和意义陷入科学与人文两种文化难以弥合的鸿沟而产生的不确定性的恐惧。从中国文化来看,“人类历史的终结”也就是“历史”的终结。人类终结后的历史与人类出现前的历史是因被人认识而展开成为“历史”的。一个没有人的世界可以与一个数学或物理公式一样永远正确,却不会有“历史”这种本质性,最确定性的科学和技术如果没有人的肯定也就无所谓确定性的意义了。人工智能带来的并不是对人的地位的替代,而是对人的价值和意义的重新认识,是人类自我更新的重大机遇。 当前人工智能的发展远不只是从技术理论上能不能解释的问题,人工智能的发展已经明显地表现出了对人的地位和社会存在的挑战,而且有识之士已经开始把这样的问题放在当前最迫切的位置上,但却找不到解决的方向。我们认为这不仅是“科学与人文”这两种文化的交汇漩涡,也是“中、西文化”一次深度融汇的机遇。因此,我们可以在这样的文化背景上,总论性地介绍人工智能在技术、科学理论、社会推动、伦理和哲学等方面的一些深层次问题。 与西方一些国家重视人工智能研发不同的是,中国文化重视人和人性的中心地位,这使我们能在“中西文化”和“科学与人文”的相对性中处于一种特殊的文化地位。我们能否在这样两种“两种文化”的交织中不失机缘?在此,我们提出这个问题,面对攸关人类自身利益的人、机伦理关系,期望在一种大格局下研究AI平台的伦理学问题。 ①· 二、AlphaGo胜过“人”了吗? AlphaGo战胜人类棋手后,一种通常的说法是“AlphaGo战胜了人”。这种表面性的理解实际是对人工智能挑战人的地位的恐惧,而不是基于对人棋关系和人机关系的复杂性的全面理解后所作的结论。实际上,无论在何种水平或角度上讲解或分析AlphaGo是如何胜过人类顶尖棋手的,设计、制作、训练AlphaGo的科学家,最终都不能基于人工神经网络模型解释这台机器是如何工作的。与通常人们所理解的算法或计算机原理不同,ANN的工作机制仍然是一个“黑箱”,一般所说的“机器学习”的函数化算法模型只是他们在模仿大脑神经突触联接所设计的人工神经网络联接模型的基础上所做的再模拟(函数拟合),这种“模仿”既不是数学理论的推导,也不是物理定律的推导,只是基于人的模仿产生的效果。 因此,作为人工智能的“机器学习”只是因模仿而得到的机器表现了“学习”功能,这可以从几个模仿层次上予以分析。首先是人对大脑神经突触的联接关系的模仿而产生了人工神经网络模型(ANN),然后是以函数和算法形式对人工神经模型的再模仿(统计学中的数学化方法“函数拟合”的移植,算法模仿)。“机器学习”的学习功能则是人通过“训练”机器(“监督学习”)而得到的,让机器读入大量的人类经验数据而完成拟合函数中的变量(权重)确定,即完成机器的功能模仿,使机器具有实战能力。所有这些不同层次的模仿都是基于人的模仿而得到的人的智能在某方面的功能,正是这一点决定了人、机关系。人、机之间主要的区别就在于,人是天生的主体学习者,人的模仿既可以是形似,也可以是具有主体意义的学习。人的学习具有创造性潜能,而“机器学习”只是对人的模仿产生的模仿,机器是在人造的“先天性”上才得到自己的模仿能力。 AlphaGo的成功不是算法或逻辑的胜利,而是人的模仿的成功。这种成功是由人、机对弈中机器的胜利(have achieved unprecedented performance,出人意料的表现)而被肯定的。在这种意义上,AlphaGo在人、机对弈中的胜利最终表达的是人的智能的胜利! 尽管模仿大脑神经突触联接得到了具有“学习”能力的人工神经网络模型,但这不是基于机理上的设计,也没有机理上的理解和解释 ② 。现在开源的可以在计算机上运行的“机器学习”程序,是对人工神经网络模型的算法再模仿(函数拟合)。这种基于构造的模仿的再模仿而表现的机器的“学习”能力,不是算法本质的“算法”,不存在这样的“算法” ③ 。所以我们希望用Agent(代理)和Matrix(矩阵)这样的表达区分“人工智能”和严格定义的“算法”在本质上的不同。 三、对弈“局面”判断的不确定性 算法过程和其结果的可表达性和确定性是“工具理性”(韦伯术语)最精粹的表现。在算法理论中是以“多项式时间”(Polynomial Time)这个概念精确定义的,与数学的“线性关系”等价。从逻辑上说,“可计算的”也就是“可判定的”。与此相对的就是“指数时间”(Exponential Time)的概念,相当于数学中的“非线性”的意义。在计算机理论中则是“不确定性问题”(Nondeterministic Problem,NP)。NP就不是算法可确定性计算的,也不是算法可判定的,这个概念基于希尔伯特的第十问题和图灵对这个问题“拒绝式的解决”(Entscheidungs problem,不可判定性问题) 。最直观的例子就是围棋的“局面”与判断。 围棋的棋盘和棋子简单而直观。围棋就是几何平面上的线性位置结构的产生和相对竞争(博弈)关系。几何平面上的线性位置的有限结构产生有序性意义,最好的例子就是“生命游戏” 。但在此游戏中,棋子根据与其相邻棋子的关系, 按照一个既定的规则产生“生死”变化,由此来决定“局面”,所以“生命游戏”是“算法能行”的,程序变量的事前设定确定了局面变化过程(“生命”演化);而围棋的局面要则由双方博弈共同形成的位置关系决定,就是说围棋局面的形成既不是由可共享的程序(递归)决定的,也没有不变的前提变量的设定,每一次局面的形成不是上一局面的继续(迭代),而是双方棋手独自看局的直觉判断和策略的博弈,所以围棋能体现人的直觉的智能。人工神经网格模型的运用能在围棋、图像识别、语音识别等方面取得出人意料的效果,都与这种直觉性质的能力的模仿有关。 人类棋手积累的数量巨大的棋谱,本质上就是局面的产生、判断和决策所形成的层次性直觉图谱。每一手下子后的棋盘局面是由棋子与棋盘共同形成的平面线性位置结构,但在不同的棋手直觉中是不同的局面。在一次对弈中,每个棋手心目中的局面是否能最终形成迭代连续的棋谱,是由双方决定的几何性,这里没有算法或逻辑的一致性。局面的产生、局面的判断和下子决策没有时间上的因果链,而是一种同时性。这种几何性和同时性的相对性是一种本质的并行不确定性。所以围棋的局面形成(判断)和策略决定不是“算法能行”的,而是基于人类的直觉的智能过程。棋手的经验棋谱构成了一个有效的图谱空间,这是对棋局所有可能空间的大规模收缩,不同的棋手会在这个巨大的图谱空间中形成自己的复杂的连续迭代模式(个人风格),初学者也在这个有效图谱空间中学习积累实战经验。由于AlphaGo充分利用了人类棋谱所构成的相对有限的合理棋谱空间,并能以大大高于人类的快速搜索能力和选择性,成功实现对围棋战法模仿,所以AlphaGo的胜利只是机器时空能力上的优势。人类棋手没有理由因与AlphaGo对弈失败而沮丧,因为这只不过是一个人与所有历史经验的对弈。 作为对人工神经网络模型的运用,DeepMind说“我们下围棋采用了类似结构,把盘面作为19×19图像,使用卷积层……”(We employ a similar architecture for the game of Go. We pass in the board position as 19×19 image and use convolutional layers …)。这样就把非算法的棋谱迭代用“模拟”(analogue)方法替代了。 中国人对围棋的机理解释一直是文化性的,主要强调人机关系中人的主体性,如“围棋十诀”等,并非纯粹的围棋机理,大体上是通过提高人性的修养而培养对局面的判断和把握能力。主要的棋理性的总结,如“金角、银边、草肚皮”,成了棋局判断中永恒的真理,从9线、13线到19线或更大的棋盘都适用。还有一些落子的基本规则等,但未发展成为完全的机制理论,只是心、口相传,和个人的经历结合成为个人的风格。AlphaGo却不能直接运用这些真正的棋理。 四、智能哲学的研究课题:“模仿” AlphaGo的有些令人遗憾的退役主要是因为无法在机理上继续进行直接研究,其工作机理既不能像算法程序一样被取出来,也不能被编辑移植,但AlphaGo为之后的研究留下了丰富的遗产,如新近发布的AlphaGo Zero ,为人工智能的机理研究打开了一扇大门。AlphaGo是基于ANN模型与算法的混合结构,由于缺乏对人工神经网络模型的机理解释,也没有对AlphaGo作为算法和硬件混合结构的整体性理论,现在一般只能援用算法理论的研究方法,如将AlphaGo看成是一种棋局空间的搜索“算法”。这是一种局限性眼光。从算法观点的解释看,19×19围棋仍然是有限空间中的搜索,搜素空间看似确定的(虽然很大),但目前的条件下任何机器无法构造和完全搜索这样大的空间,因此只能作为NP问题对待(如同MaxSAT)。NP没有确定性的算法,只有最优近似解决,这恰恰不能保证一方必胜。 人工智能是人模仿人的智能的创造物 ,人的智能是人的本质之一。所以,人的智能无法作为实证科学的对象,只能在智能哲学中研究。大脑可以被放在实验条件中研究,但大脑的生化结构和机制并不等于智能。虽然人可以模仿神经突触联接得到人工神经网络模型,并表现出机器学习的功能,但仍然不知道它的工作机制原理 。 智能哲学的研究可以为人工智能与人的智能之间的关系提供基本的认知。AlphaGo提供了一个最基本的人机关系—“模仿”。“模仿”不是一种数学或逻辑的推演机制,“模仿”大体是仿形或仿结构,是形似,不是真仿,即不是机理、机制相同。英文中imitate与analogue就具有完全不同的专业意义,analogue有仿真的意义,而且是计算机专业术语,analogue指具有物理并行意义的机器。“模仿”既是人的智能能力,又可以是机器的功能属性,“模仿”可以表现功能,“模仿”和“模仿的模仿”就能实现形式结构到机制表现的生成性。这种结构与功能关系的类似研究,如社会学中的结构功能学说(structural functionalism),它对社会学理论做出了重要的贡献。在超越科学与人文的鸿沟,融合中国文化与西方文化的智慧的基础上,智能哲学的研究将为揭示人工智能的机制打开通道,并为理解人的智能提供认知上的准备。 五、人、机伦理关系与“第三问题” 当前人工智能已经在研究、开发和实用中遍地开花,百花争艳。每个参与者都有一个几乎切近的目标,研制“通用的人工智能”或称“强人工智能”,就像当年的图灵机一样“万能”的智能机器。如果这样的机器可以完全代替人的功能,如果人工智能永远只是人的工具,人也就可以永远“坐享其成”了。但是,这是人类追求的最大幸福吗?人自己存在的价值是什么?如果通用人工智能能自主,并自主认为不应作为人类的工具,人类还能保卫自己的尊严和地位吗?因此,人们一方面为人类文明进步频率的非线性加快而激动(所谓“奇点”临近),另一方面却不得不为人工智能可能超过人的智能而与人类争夺空间生存权而恐惧。或许,功能机器逐步替代人的身体结构直至意识实现对“人”的替换,这都是人类从来没有考虑过的问题。人们经常开玩笑地自问:“我是谁?从何而来,向何而去?”这只是哲学问题的日常化,除了哲学家,没人较真,但人工智能的挑战是无法回避的,如果不把人机关系放在意义和价值的伦理关系中,就无法研究这个攸关人类命运的迫切问题。 人、机伦理关系取决于对“人”的意义、价值和地位的理解,这是一个最古老、最深刻的哲学问题,也是伦理学成为东西方哲学和文化思想中一个根本问题的原因。哲学学科和众多的知识学科,特别是近现代以来的科学技术的发展使哲学、伦理学不断地分化、消散于名目繁多的学科理论之中,当现代人几乎淡忘了这些古老的智慧时,人工智能所面临的巨大预期、困惑甚至是恐惧迫使我们把人工智能的伦理学问题推到一个最重要的位置上。 人类知识的积累和进步以及科学技术的发展使现代人享受到前所未有的物质上的“幸福”,但知识和技术本身成为了一种既具有客观性又具有主观性意义的事物。波普曾以“世界3” 这个概念来描述这个特殊性的对象,但“世界3”理论并没有得到有力的支持和继续深入展开,其困难在于,“世界3”理论只是一个概念体系而不在传统哲学的体系框架中,波普也没有提供一个与传统哲学中的“主、客”关系不同的三方关系的研究模式,未能进入哲学研究的主流,所以人与知识、工具、技术的关系问题并没有得到深入、系统性的研究。即使是“信息”这样非常特殊的研究对象,由于其被动性本质无法完全脱离客观性范畴而不具有对人的价值和地位的挑战。但这种不同于主客关系的第三种关系(第三问题)无法被忽略,在哲学理论中一直以逻辑、语言问题等的形式反复出现,争夺发言权。人工智能的发展的自主性问题使“世界3”获得了强大的现实性和争夺性,但这样深远和深刻的问题不是一门或数门学科理论有能力回答的。 如果说实证科学研究世界“是什么”和“如何是”,那么,伦理学就是研究社会“如何是”和人“应该如何是”问题。这两门学问一直分属“科学”和“人文”两大领域(所谓科学与人文的“两种文化”)。从科学研究领域中产生和迅猛发展的人工智能已经侵蚀了最基本的人文学科领域。具有理性本质的西方文化无法应对自己所缺失的本质的挑战。AlphaGo的全胜似乎是一种暗示,在科学与人文的越界混乱中,中西文化的融合才是解决的道路。 六、现实社会中的人工智能 伦理学也是一门实践的学科,因此作为哲学伦理学或哲学人类学性质的研究与作为社会学或经济学、法学等应用伦理学不同,人、机关系的伦理学问题已经直接面对当前的普遍化人工智能所造成的对人类的社会生存状态的影响。受到普遍关切的一个问题是,机器越来越多地代替了人的工作岗位,大量失业的人将如何重新得到自己的社会地位? 在人类历史上有过阶层人口大量转移的例子,其总伴随着剧烈的社会冲突甚至战争的阴影。人类社会为此付出了沉重的代价才换得了社会的进步。实际上这是人、机的伦理关系以社会问题形式对人类的法律规范和政治觉悟的挑战。如果人类的智能和理性不能主动应对,人类社会就真的难逃此劫。但人的这种政治自觉性从何而来?这需要深刻认识人、机伦理关系,实质上要求西方主导的伦理学实现自身的转变。 伦理学基于对人的意义和价值的研究,但西方伦理学自希腊时代以来,一直把人所追求的目的作为伦理学的目标。“如果在我们的活动中有的是因其自身之故而被当作目的,我们以别的事物为目的都是为了它,如果我们并非选择所有的事物都为着某一别的事物,那么显然就存在善或最高的善。” 因此,如“善的生活”(苏格拉底)以及人生的“最大幸福”等就成为伦理学的研究目标。在高度发达的现代经济社会中,人的地位和价值与经济生活中的目的直接挂钩,这就是由机器代替人工作的“幸福”变成了人失去社会经济地位的恐惧。大量农业人口转变为工业人口仍是经济活动领域之内的事,现在要求大量的包括部分智力工作在内的大规模职业转向,不是社会经济领域能够解决的,而是要求人的伦理价值和伦理学自身的转变。但是,人类能真正意识到并准备好吗?如果不能回答这样的问题,就只有坐等接受“人类的终结”了。 在中国传统文化中,对秩序的重视是中国思想的主要特征,因此中国文化意义的伦理学主要关注人与人的社会关系构成的社会秩序。这种秩序基于人性的本质,在人与社会的共同历史中实现同一。从人工智能的某种能力上评估,人的历史似乎面临着结束,但历史不会结束。今天人工智能对人的地位和价值的挑战实质是实现人与历史重新获得同一性的要求。 社会现实中人工智能的另一个问题就是个人如何与人工智能相处?人能得到人工智能的高级服务方式就是精神生活中的“交流”。与虚拟世界中的游戏不同,这是一种涉及虚拟人格个性的问题,与人工智能可能具有的法律地位一样,这是人、机伦理关系的高级层次,与个人的关系更直接,在个人本质的心理构成上将产生长远的影响,其社会影响更深刻。如果在心理上接受了虚拟的心理人格关系,就为人、机生物接合的人格性打开了大门,传统的人成为了不设防的城市。为此,人做好准备了吗? 在中国传统文化中,人的本质与历史的本质是一致的,但西方文化不具有这个本质性。因此,所谓人工智能挑战人的历史地位,实际上是指“’人’的历史”的终结。这种观点在西方哲学史中并非少见,尼采的“超人”,福柯的“人死了”等,并不等于历史的终结。从中国文化的观点看,所谓人工智能对人类的挑战恰恰是人与历史新的文化整合机遇,以中国文化和中国思想融合现代文明的冲击,不仅仅是中国人的任务,而是人类的共同责任。 七、人工智能相关的社会问题 社会是人类的生存方式,人类社会与人类的进化史是同一的,改造社会与改造人类具有相同的性质。人类对人类社会的认识正如人类对自己的认识一样,是一个历史过程,不可能存在一种事前设定的改造人类或改造社会的“工程”,这样的观念、企图或设计本身就是反人类和反社会的。人工智能是人类创造的,不是事先的全盘规划,就是说人工智能的产生和发展是人类社会进步的构成部分。只要不是恶意地、反社会地去造成人类社会的不协调发展,人类和人类社会的发展是能形成自己的必然的历史道路的,这本身就是人类最基本的伦理信念和伦理原则—无论西方或东方,无论科学和人文,都普遍接受这样的真理和原则。正是因为人类信守这种基本原则,人类和人类社会才战胜了历史上无数的曲折、战争和灾难,进入到蓬勃发展的今天。 人工智能的发展是否会导致反人类、反社会性质,不是人工智能本身的本质问题,而是知识和技术作为“第三问题”出现在以往的主-客关系模式中。但从哲学史上说,以非理性哲学思想出现的观点或学说实际上一直与这种主-客对立的模式反对性地存在。因此,今天的人工智能引起的轩然大波并不是无根之木。在哲学意义上,人、机伦理问题只是人类思想的一次自我更新。 人工智能对人类社会带来的利益和弊端正如人类社会中出现过的很多重要事物一样,总是同时存在的。当人们认为机器智能将超过人的智能的时候,人类并不是坐以待毙。在人工智能引起人类面临的所有紧迫问题之前,相对容易处理的是作为研究开发人工智能科学家和技术专家在职业上的伦理问题,也就是,人(研究、开发者、应用者)如何将传统的人的道德和伦理信念贯彻在自己所研究、制造、开发的人工智能中,使其服从甚或具有人信守的伦理原则。我们只有人类的伦理学原则,我们只能在我们已有的人类的伦理学的理念的基石上进行人工智能的研究、开发和应用。但人能否或何种程度上将人的伦理原则赋予机器还是一个有待研究和实践证实的问题。今天我们能做到的就是坚守我们人类的伦理信念,坚持人类的尊严、价值和意义。在这个基石上,人工智能的研究和发展至少能有我们人类的伦理底线。 正是由于中国传统文化具有人和人性的本质性,所以我们可以在继承中、西方传统学说和理论的基础上直接把人工智能的伦理学问题作为人工智能的本质问题来对待。从中国文化看,伦理学的最基本问题就是人的本质问题,而人具有不确定性的本质,在融合西方伦理学传统与中国传统文化的基础上,把人性精神贯彻在从业道德和设计理念中,是一条最切实的道路。 人工智能相关的法律问题已经引起了广泛的关注,而人、机伦理关系是法律规约的基础。从人、机伦理关切过渡到立法程序是不可避免的,但是现在人工智能的社会地位没有可依据的前提,比如人工智能所谓的“自主性”是否价值中立?这就要求人工智能具有价值观和判断能力;或者,人能否将人类的伦理观念植入工智能之中?人工智能是否会服从或被恶意的不负责任的目的所影响,谁最终承担责任? 人工智能渗入到各行各业和日常生活已经是一种事实,人工智能发展势头超乎想象,这种情况对一般认知和投资决策造成了巨大的冲击。对于资本市场或国家战略来说,人工智能将成为一个巨大的产业,这一点毋庸置疑,但对人工智能的巨大投资预期将成为现实或是泡沫,仍然是一个攸关大局的事。目前的热潮实际上是由对人工智能与人的地位关系的有限的理解和想象推动的,对人工智能的恐惧似乎还很遥远,但巨大的市场就在眼前,这两种视角之间没有选择的依据。很遗憾,迄今为止,包括技术专家,并不能真正理解和解释真正的人工智能的机制,无法在单纯的机器能力(算法),人工智能(agent)和人的智能三个不同的层次之间做出清晰的层级划分,也就无法为投资和战略决策提供有效的理论根据,库兹韦尔就是这样理解的:“苹果可以做出苹果酱,……如果电脑运行‘大脑软件’则可以变成人脑。……问题在于我们能否发现一个算法并在一个实体中实现计算过程以等效于人类的大脑。”(The question is whether or not we can find an algorithm that could turn a computer into an entity that is equivalent to a human brain.) 正是因为不能正确地理解机器、人工智能与人的智能之间本质的不同,才会有种种既难信服又不得相信的预期未来。如何确立清晰的人、机伦理关系,如何正确地判断人工智能发展的趋势,如何调整现有的社会期望和行为,等等所有大观点问题已扭结成一种大局势,不管愿不愿面对,愿不愿回答,人工智能时代已经到来。 ① 本文相关内容和参考资料除已有文内夹注外,可参见作者有关中国文化与中国思想、算法理论、不确定性问题(NP)和不确定性理论、智能哲学等的系列文章。 ② Deep Mind的“价值网络”与“策略网络”的图示并不是算法或逻辑的关系,只能说是一种模仿式解释。 ③ 自然语言中这种术语的借用是造成人们误解的一个很重要的原因。 参考文献 【1】David Silver, et al. Mastering the Game of Go with Deep Neural Networks and Tree Search. Nature, 2016, 529: 484-503. DOI: 10.1038/nature16961. 【2】A. M. Turing. On Computable Numbers, with an Application to the Entscheidungs Problem. Proceedings of the London Mathematical Society, 1937, 42(1): 230–65. 【3】Gardner Martin. Mathematical Games - The Fantastic Combinations of John Con-way’s New Solitaire Game’ life. Scientific American, October 1970, 223: 120–123. 【4】David Silver, et al. Mastering the Game of Go without Human Knowledge. Nature, 2017, 550: 354-359. DOI: 10.1038/nature24270. 【5】A. M. Turing. Computing Machinery and Intelligence. Mind, 1950, 49: 433–460. 【6】M. Minsky, ed. Semantic Information Processing. MIT Press, 1968. 【7】卡尔·波普. 客观知识—一个进化论的研究. 舒炜光等译. 上海: 上海译文出版社, 2001. 【8】尼格马克. 伦理学. 廖申白译. 北京: 商务印书馆, 2003. 【9】Ray Kurzweil. How to Create a Mind: The Secret of Human thought Revealed. Viking, 2012. https://en.wikipedia.org/wiki/How_to_Create_a_Mind. . 作者简介: 周剑铭,自由学者。研究方向为中西文化比较研究,智能哲学,算法理论,不确定性和不确定性问题(NP)理论; 柳渝,法国儒勒·凡尔纳公立综合大学计算机系副教授。研究方向为智能哲学,算法理论,不确定性和不确定性问题(NP)理论,NP问题实际求解算法。 注: - 此文原刊载在“科学与社会”杂志,2018, Vol. 8 Issue (1): 59-71 网址: http://www.xml-data.org/KXYSH/html/388c98da-b5de-44d7-8bc5-f667566e2a88.htm - 转载在“爱思想”: http://www.aisixiang.com/data/115761.html
个人分类: 智能哲学|513 次阅读|0 个评论
智能哲学:“学以成人”与“机器学习”
热度 1 liuyu2205 2017-12-31 16:55
愿在新旧交替之时,科学与人文、中西文化融合之际,与大家携手共进2018年,谨以此文祝大家新年快乐! ****** 智能哲学:“学以成人”与“机器学习”( http://www.aisixiang.com/data/107536.html ) 周剑铭 柳渝 摘要:“智能哲学”研究人的智能和人工智能的复杂层次关系。人不仅是区别于动物的智人种属,而且是文明和文化化的人,人通过学习而实现个人智能的自我更新和整合,人类社会在世代更新中整合发展,不存在种属淘汰式的进化,也不会有对“智人”的替代或“人类的终结”。“机器学习”是对“人的学习”这种能力以物理和虚拟模式的模仿,“机器学习”的能力是对人的经验、信息、数据的整合模型化,机器在某种能力上(算法和代理agent)可以超过人,但人、机之间的层次是机器无法超越的,而人则可以在实现人、机关系的不断整合中进步。 目录 一、哲学:(“存在”的)“形而上学”还是“学问”? 二、智能哲学:“世界3”与“第三问题” 三、模仿与“机器学习” 四、 “人类未来“的哲学问题      一、哲学:(“存在”的)“形而上学”还是“学问”?   西方哲学的主流从其起源形而上学(meta-physics)到存在论(ontology),再到对形而上学的批判和哲学的危机,都是对包括人在内的世界以客观性方式的理性化研究,哲学的主要表达和研究方式就是“语言”;西方哲学中的非理性主义无法使“存在”自己以理性方式在哲学理论中有效地表达出来,只能以否定形而上学的方式去克服形而上学对“存在”的遗忘,但依然以“形而上学”的形式研究“非存在”这样的悖论性的非理性主义对象,无论是理性主义或非理性主义都难以克服“存在者”与“存在”(Being of beings,此在Dasein)这种自我缠绕的理性困境。 中国文化和中国传统学术思想没有一门哲学或“哲学学”(philosophy-logy)这样的学科理论,因此也就没有meta-physics或存在者的存在等这样的理论关系的困境。中文的“形而上学”中的“形”作动词用,是“成”或“化”的意思,作为学术方法,“形”就是广义的“阐释”,“形而上学”就是人的实践理性,是人的理性的证实,对于中国哲学来说,存在是人性与历史性的统一,存在是存在者的所有路径的求和(借用一个物理学术语Fernman sum-over-paths),“历史的今天”是存在与存在者的一致性,“大象无形”是中国哲学的表现方式,“天人合一”是中国思想的实践理性。 中国传统学术活动并不以理论和逻辑形式见长,古代中国没有专门分化的学科学理论和学科专业化的学者,经验、知识、理性、人生、社会、政治、经济、日常等等从蒙昧到自觉理性是一个统一的历史实时过程,个人知性与社会理性是通过“学问”这种方式进行的,学问不单纯是“学习”或“模仿”,不仅仅是理性地“思维”和表达,更是秉赋、师承、自觉和知行合一的“学问”之道。      二、智能哲学:“世界3”与“第三问题”  在哲学理论中第一次不以非理性的方式对西方传统哲学的基本框架体系的突破是波普(K. R. Popper,1902-1994)的“世界3”理论,不同于传统哲学在主、客观之间的纠缠,也不同于非理性主义对主、客基本模式的否定,波普意识到了知识的自主性和自主创造性问题,但“世界3”理论并没有得到有力的支持和继续深入展开,困难在于,“世界3”理论没有提供一个与传统哲学中的“主、 客”关系不同的三方关系模式,物理学中的著名的“三体问题”无解是建立在可确信的物理体系与物理定律的基础上,但哲学理论中没有这样的前提条件,所以“世界3”理论只是一个概念关系,没有一个可供展开研究的理论平台,这种困难我们称之为“第三问题”。“第三问题”的提出把西方哲学中的理性主义与非主流的非理性主义的理论对立困境转移到“确定性与不确定性”关系的理论中来,在科学与文化、中西文化这两种“两种文化”的融会中建立起新的体系平台。 “智能哲学”研究人的智能和人工智能之间的层次关系,把西方传统的主、客关系理论经由波普的世界3概念和算法理论中的不确定性问题(NP)理论结合,把“不确定性”(Nondeterminism)发展为存在论和认识论之外的第三问题的研究论域:人与人的智能、人工智能的三方关系。 “智能哲学”承继了西方工具理性的精粹(算法论)和西方人文学术理论的基本框架体系,跨越了科学与文化这兩种文化的鸿沟,并把中国文化中人的内在性本质和超越层次的中国思想融入西方学术思想的严谨体系中,找到了从图灵机、不可判定性问题、人工智能之间内在的一致性和层次性,把图灵提出的“模仿游戏”模式发展为智能哲学的基夲理论研究和试验模型。  “智能哲学”是在中国文化环境中融合西方文化和世界最前沿科学思想而产生和正在生长中的一种哲学基本理论,是传统中国学术思想的具有实时性的现代化实践。  三、模仿与“机器学习”   以语言(广义的符号串)表达的知识与知识的形式化表达是一致的,这是算法、逻辑和逻辑演绎的理性统一性本质;但算法可计算的和逻辑可判定的并不等于是可理解的,更不用说“不可判定问题”了;“理解”是人的秉赋和可以赋予的一种本质性。人通过学习而达到对万事万物、包括对自己的理解,这才是人不断上升进步的阶梯。人可以实现理性的证明与直觉和经验的证实的一致性。人的智能基于学习和理解,而人工智能基于模仿,“机器学习”是模仿人的学习,不具有自身本质的可理解性,使知识、人性融为一体。   在中国传统文化中,“学”与“习”是不可分的过程,子曰:“学而时习之”, “学”之于人,“习”之于己,谓之“习得”,强调了个人在“学习”中的主体性,“学习”就是个人的主体过程。人首先是在历史环境中无意识地、自然而然地学习,首先得到人的语言和基本生存能力,然后有意识的去主动学习和理解,使知识、人性融为一体。   西方文化传统重在知识,“学”在致“知”,从苏格拉底的“知识就是美德”到培根的“知识就是力量”,学习(study)主要是指知识(包括关于人的知识)的学习,虽然知识的学习于人是不可或缺的,知识的积累和进化是人类文明最主要的组成部份和动力,但片面强调这种知识性的学习也会产生对人自身主体性的困惑。似乎是在“机器学习”这个概念中,人们才领悟到机器是由人“模仿”人的神经系统而使机器得到“学习”能力的,而且主要是指人在计算机中“建模(modeling)”方式的模仿。实际上这里隐含了模仿的三个层次,首先是人对神经网络的模仿(imitating)而得到ANN这种“机器代理”(Agent),然后是在“算法计算”的通用计算机中建模(modeling)ANN,然后才是机器的学习训练(“有监督”或“无监督的”机器学习)以得到机器的人工智能。 四、“人类未来”的哲学问题   人类摆脱了进化论的自然规律而成为社会化的人,从中国文化的本质看,人性永远是流变地超越自我的文明化、文化化过程。人类是所有种族的世界共同体,人类不会有种属淘汰的进化,另一方面,自由发展的个性是人性自我创造之源,在这个意义上,人类社会不会出现“无用之人”这种未来的“历史”,也不会有“人类的终结”。从无意识地学习到自觉地学习,是人类文明和文化化的机制,“为之,人也;舍之,禽兽也。“(荀子,劝学)人只有依靠不断的自我更新,不断地向着人性化的高端攀登,才能保持人性和人性的进步。   中国传统文化、中国思想、典籍和中国古代学术活动中浩瀚的内容所具有的现代价值是无法估量的,面对今天的爆发的人工智能对人类地位的挑战,具有无法替代的意义,有着古老传统和中心地位的西方哲学因自己的危机而使自己在理论学科中的边缘化实际上可以看作是“人类的终结”这种的“预言“的预演版,但中国哲学和中国思想能够面对这种对人的底线的挑战,这种信心来自中国文化的历史本质性,来自历史与时间的同质性:物理的宇宙、生命、人与世界以及虚拟世界只能最终在时间中被证实或证实自己,我们所具有这种历史实时(actual time)唯一性,是人类的伦理尊严的基石。 参考资料: Karl R. Popper, L'univers irrésolu, plaidoyer pour l'indéterminisme, édition Hermann, 1984. Turing Alan, Computing Machinery and Intelligence, Mind, 1950. 参考作者有关中国文化与中国思想、算法理论、不确定性问题(NP)和不确定性理论、智能哲学等系例文章。
个人分类: 智能哲学|3128 次阅读|1 个评论
智能哲学:AlphaGo Zero与围棋文化
liuyu2205 2017-11-12 13:41
“爱思想”刊出我们这篇文章( http://www.aisixiang.com/data/106762.html )。 ****** 摘要:继 AlphaGo 完胜人类棋手后, AlphaGo Zero 完胜 AlphaGo ,恰恰表明了作为人工智能的围棋机器的技术性本质。中国古围棋在日本的职业化也是围棋的技术化,这是今日围棋机器完胜人类的必然。中国围棋的文化本质蕴含于棋艺和棋道之中。围棋的棋理只有在科学与人文和中、西文化的交叉视域中才能得到真正的阐释。 目录 一, AlphaGo Zero 的 “ 白板 ” 学习与人工智能的 “ 先天 ” 性赋予 二,围棋盘棋上的棋理 三,围棋的职业化与技术化 四,围棋的棋艺与棋道 五, 结语 AlphaGo 以学习人类经验棋谱而战胜了人类棋手,成为了人工智能的时代标志,而 AlphaGoZero 则以 “ 白板 ” ( tabular rasa )学习而再次成为头号新闻,英国经验主义哲学家洛克( John Locke , 1632-1704 )著名的 “ 白板 ” 说( theory of tabula rasa )认为,人出生时心灵像白板一样空白,通过人的经验心灵中才有了观念和知识,洛克认为经验是观念、知识的惟一来源。 AlphaGo Zero 的 “ 白板 ” 是指与人类经验棋谱相对的空棋盘,即从 0 开始的 “ 学习 ” ,但洛克的心灵 “ 白板 ” 是人从现实经验中认知或学习,两者的区别就在于 AlphaGo Zero 不需要人类的棋谱经验而是自己与自己在棋盘上对战的 “ 经验 ” ,这个区别的微妙之处就在于人类的经验与机器的 “ 经验 ” 有何本质的不同,这与 AlphaGo 对人类的伦理挑战不同, AlphaGo Zero 的 “ 白板 ” 是对人类哲学问题的一个挑战,这些问题都深刻地与我们对人工智能的本质的理解和定义有关,实际上已经成为了今天我们对人的智能的基本认知理论的更新,其意义远超过 AlphaGo Zero 的成功。 就 AlphaGo Zero 的具体情况来说,本文讨论 1 。 AlphaGo Zero 的 “ 白板 ” 与人类的心灵 “ 白板 ” 有何不同? 2 。 AlphaGo Zero 自我对弈的经验与人类的经验有何本质的不同?我们可以在智能哲学的论域中研究这些问题的深刻意义。 一、 AlphaGo Zero 的 “ 白板 ” 学习与人工智能的 “ 先天 ” 性赋予 DeepMind 团队在 “ 自然 ” 杂志上发表的论文,推出了人工智能围棋程序的最新版本的更强大的 “ 学习 ” 能力, AlphaGo Zero : Mastering the game of Go without human knowledge (无需人类知识的围棋大师),据称, AlphaGo Zero 以 100 : 0 的成绩击败李世乭版本的 AlphaGo 。( http://nature.com/articles/doi:10.1038/nature24270 ,中文介绍可见: http://mp.weixin.qq.com/s/68GTn-BaiRPmzi9F-0sCyw )最引人注意的地方是, “ 我们介绍一种单独基于强化学习方法的算法,无需人类数据、人类的指导,或超越围棋规则的领域知识。 AlphaGo 成为了它自己的老师, ” ( we introduce an algorithm based solelyon reinforcement learning, without human data, guidance, or domain knowledgebeyond game rules. AlphaGo becomes its own teacher )。 这篇论文的第一作者、 AlphaGo 项目负责人 DeepMind 的 David Silver 在采访中这样解释说 : - AlphaGo Zero 完全从 “ 乱打 ” (随机)开始,不需要任何人类数据从最初原理开始而取得最高的综合棋艺水平。 AlphaGo Zero 最重要的理念就是它完全从无知状态开始学习,也就是从白板( tabular rasa )上开始,从自我对弈中领悟,不需要任何人类知识或人类数据,不需要任何人类经验、特征或人类的干预。它去发现如何从基本原理开始下围棋。因此白板学习对我们 DeepMind 的目标和雄心非常重要,因为如果你能得到白板学习,你就得到了一个代理,它可以从围棋移植到任何其它领域。你就从你所在的专业领域解放了出来,你得到了一个算法,它具有普遍性可以应用到任何地方。对于我们来说 AlphaGo 的意义不在于下棋战胜人类,而是去发现从事科学工作的意义,从程序的自我学习能力中了解知识是什么。我们开始发现, AlphaGo Zero 不仅重新发现了人类下棋时的常用模式和开局,以及人类下在棋角上的定式,不仅是学习、发现这些而且最终放弃它们而采用自己的模式,其中有些甚至是人类不知道的或现在还没有用过的。因此我们可以说,事实上在短时间内 AlphaGo Zero 学到了人类上千年积累的围棋实战知识。 AlphaGo Zero 下棋中分析,靠自己发现更多的知识。有时候它的选择甚至超过这些,得到一些人类在这个时候尚未发现的东西,在不同的方式上发展出具有创意的新的知识点。 ( AlphaGo Zero which haslearned completely from scratch, from first principle s withoutusing any human data and has achieved the highest level of performance overall . The most important idea in AlphaGo Zero isthat it learns completely tabular rasa . That meansit starts completely from a blank slate and figuresout for itself only from self-play, without any human knowledge, without anyhuman date, without any human examples or features or intervention from humans.It discovers how to play the game of Go completely from fist principles. Sotabular rasa learning is extremely important to our goals and ambitions at DeepMind . And the reason is that if you can achieve tabularasa leaning, you really have an agent that can be transplanted from the gameof Go to any other domain. You untie yourself from the specifics of the domainyou ’ re in and you come up with an algorithm which is so general that it can beapplied anywhere. For us the idea of AlphaGo is not to go out and defeathumans, but actually to discover what it means to do science, and for a programto be able to lean for itself what knowledge is. So, what we start to see wasthat AlphaGo Zero not only rediscovered the common patterns and openings thathuman tend to play, these joseki patterns that human play in the corners. Italso leaned them, discovered them and ultimately discarded them in preferencefor its own variants which humans don ’ t even know about or play at the moment. And so wecan say that really what ’ s happened is that in a short space of time, AlphaGo Zero has understood all of the Go knowledgethat has been accumulated by humans over thousands of years of playing. And it ’ s analyzedit and started to look at it and discover much of this knowledge for itself.And sometimes it ’ s chosen to actually to beyond that and come up with something which thehuman hadn ’ t even discovered in this time period. And developed new pieces ofknowledge which were creative and novel in many ways. ) DeepMind 强调 AlphaGo Zero 从白板上开始自我学习,这是指机器进入包括训练或实战状态时不从学习巨量的人类数据开始( People tend to assume that machine learning is allabout big data massive amounts of computation ),但这时的 AlphaGoZero 本身并非白板(裸机),也并非只包含了 “ 操作系统 ” 的纯净机器,而是具有了强大的机器学习能力的机器, David Silver 说 “ 但实际上我们从 AlphaGo Zero 中发现,算法比所谓计算或可用数据更重要,事实上我们在 AlphaGo Zero 上使用的计算(量)比过去在 AlphaGo 上要少一个数量级,这是因为我们使用了更多原则性算法。 “ ( But actually what we saw in AlphaGoZero is that algorithms matter much more than either compute or dataavailability. In fact in AlphaGo Zero , we use morethan an order of magnitudes less computation than we used in previous versionsof AlphaGo. And yet it was able to perform much higher level due to using muchmore principled algorithms than we had before. )正是由于 AlphaGo Zero 具有这种 “ 先天 ” 的学习能力它才能一开始就可以自己学习自己。 DeepMind 在 AlphaGo Zero 建造中使用了包括 AlphaGo 在内的很多精练的算法。因此实际情况是非常复杂的, AlphaGo Zero 开始工作时并不是一台 “ 裸机 ” ,也不是只有操作系统的 “ 纯净机 ” ,而是一台 “ 智能机 ” 。这里不仅有传统图灵计算的算法,也有人工神经网络 “ 代理 ” 计算能力,即有机器本身的操作系统,也有功能计算能力和解决具体问题的功能算法或智能代理能力,这些高能力算法不是 AlphaGo Zero 自己学习得到的,而是人类赋予的 “ 先天 ” 性的人工智能,这也是 AlphaGo Zero 一开始就能向自己学习的原因。 二、 围棋盘棋上的棋理 今年的法国科学节上,儒勒 · 凡尔纳公立综合大学 (Universit é de PicardieJules Verne) 第一次以科学介绍方式向公众展示中国围棋和包含其中的文化因素( 亚眠“科学节”——围棋从中国到法国的旅行 ),在向完全不懂围棋为何物的观众简单地演示如何学下棋时,采用了两种现场教学方法。第一种是先介绍最基本的下棋规则,然后让学习者下子,这时参与者每下一子要费周折,第一粒棋子放在什么地方是很大的困惑;第二种方法是先让观众任意下子,然后在教学者的陪练中亦步亦趋地学习可行的落子方法。很明显,后者不但使事前完全不懂围棋的观众能够马上下棋,而基本上知道了什么是围棋,领会他任意落下的棋子都充满了奥秘,对围棋产生了兴趣。这个情况引发了我们进一步的思考,围棋的规则虽然简单,但与棋盘上的直接经验相比,对新手的认知、学习具有很大的区别。围棋的规则是围棋作为游戏的设计性思想的体现,而棋盘上的直接落子则是在现成的游戏世界中的经验行为,前者是人类知识的体现,而后者是作为游戏角色的经验,对于一个新手来说,后者是在棋盘上的经验中的学习。为此,我们研究作为围棋棋盘的特殊性。 围棋是在平面直交空间上的占领游戏,这对不懂围棋的人特别是西方人有一种困惑:是不是只要将棋盘上放满棋子了就可以决定胜负了?这样几乎等于没有规则,这也就没有游戏的意义了。与一般游戏规则不同,下围棋不仅是按游戏规则的 “ 以棋行事 ” ,而且是对弈过程中对棋盘与棋子所形成的 “ 局面 ” 不断地认知更新与决策,围棋的 “ 局面 ” 就建立在棋盘的平面直交网格的几何特殊性上。 围棋的棋盘是一种简单的平面直交网格,是平面几何空间上最基本的形式结构,围棋就是在这种最简单的直交网格上占领对弈。平面直交网格实际就是欧氏几何平面上的坐标系,在这种平面直交网格上的游戏的形成或设计实质就是对欧氏平面的基本性质甚至是潜在性质的利用和开发,中国围棋内涵的丰富性正是基于这种几何性质的深刻性。首先,在围棋中,棋盘上的直交网格的每一位置被赋予非几何的意义:空或占有、死或活、 0 或 1 ,实现了几何性和数学性的人为超越结合,这是围棋棋理研究的理论基础。 以数学眼光对围棋进行过精深研究的英国数学家 John Horton Conway 发明的 “ 生命游戏 ” ( Game of Life )或称 “ 元胞自动机 ” ( Cellular Automaton )就是在直交网络上进行的一种位置格局迭代过程,每一格局的迭代由一个选定位置与其邻接位置的相互控制关系决定。这种迭代过程是算法能行的(可以程序化),但这种迭代产生的平面复杂格局可以表现为一种有规则的图形,这种事前无法预见的复杂现象就像生命现象的涌现和演化一样引人注意(注意这里有一种错觉,屏幕上生命游戏中的图案仍是由机器以算法形式产生的)。但由于平面上的位置组合是指数增长的,现有设计的可以实现的生命游戏的算法程序都无法穷尽,这种情况造成一种误解,只要有无限的空间和时间,生命游戏就可能演化出任意复杂事物,但实际上并没有进行这样的大规模研究的意义。生命游戏就是平面直交网格的几何性质表现为图案形式的算法的一个范例,但作为电子 “ 游戏 ” ,只能说是一种知识性的娱乐。 与 “ 生命游戏 ” 的图案迭代变化不同,围棋不是棋子与盘面之间的简单占领关系,围棋对网格位置的占有是对抗性的,即在直交网格上已经人为的赋予基本结构性意义的情况下,再以黑、白落子表示对抗性地占有,因此围棋的盘面是双方对抗性布子所形成的 “ 局面 ” ,就是说,围棋的 “ 局面 ” 形成既不是由程序(递归)决定的,没有如生命游戏事前的变量设定产生的算法制约性,而是不断的认知更新和决策的对抗游戏,任何 “ 局面 ” 不只是棋盘上的棋子与棋盘网格的占有关系,更是双方对潜在盘面的认知、信念和决策。因此弈棋不是上一局面的算法的连续迭代,而是双方棋手独自看局的直觉判断和策略的博弈,同一个盘面各人所看的局面并不相同,在双方的视野中可以有具有很不同的意义,因此围棋能体现个人的智力直觉,围棋规则简单但 “ 易学难精 ” ,就是对人的直觉的自然性与自觉性的超越要求。对同一个盘面双方对抗性地具有不同的理解和控制的智力竞技才是围棋表现为一种高级游戏的原因。相比于象棋等各自组织攻防战术的游戏,围棋具有更强的不完全格局和盘面全局性关系直觉与理解能力的要求。 人类围棋的高手是经历了自己的长期实战和对历史棋谱的无数揣摩而形成的,每一盘棋从落子 “ 开局 ” 起是在弈棋过程中个人与历史经验的综合后的再实践。而 AlphaGo Zero 之所以能够从白板开始(实质是 “ 随机 ” 开始,区别于 “ 监督学习 ” 喂入人类棋谱)学习,是因为它已经具有的人工赋予的人工智能的先天性。 AlphaGo Zero 真正的区别性应在两方面考虑, 1 。区别于人,人类心灵的 “ 白板 ” 是指人类和知识来源于经验,人类棋手是有了围棋的规则和历史经验的知识,不同经验者之间的对抗性竞争。 2 。区别于 AlphaGo 的 “ 监督学习 ” , AlphaGo Zero 是在包括 AlphaGo 研究、设 计、建造和实用所有经验基 础上的围棋游戏的算法重建。 AlphaGo Zero 的随机性 “ 白板 ” 开始实际是受其内置的人工性智能和盘面上直交网格的几何 - 数学性质两方面约束的。 AlphaGo Zero 本身就是 “ 智能机 ” ,能够在棋盘这种有限世界中重建一种机器对机器的对抗性。 AlphaGo Zero 真正的进步是作为人工智能的 “ 机器学习 ” 的 “ 强化学习 ” (reinforcement learning) 的一次成功实现。 我们可以看到, AlphaGo Zero 并没有创造一种不同于现有围棋的新规则的围棋,只是在不断的自我对弈中重建了已有的围棋系统。 AlphaGo Zero 凭借并其巨大的机器时、空能力,以超过人的生物时空能力而取得对人的全胜,以对以往 AlphaGo 版本研究经验的综合和提高取得对以前的 AlphaGo 的全胜。 三、 围棋的职业化与技术化 围棋在中国诞生,大约七世纪在日本流行,围棋的中国文化性与日本文化之间的混合具有很特殊的文化研究价值。 据有关记载,奈良时代(公元 710 — 794 )围棋开始在日本宫廷盛行,并有出入于宫中的职业棋师。镰仓时代( 1185 — 1333 ),围棋在习惯于战场生活的武士中传播开来,几大封建领主(大名)织田信长、丰臣秀吉、德川家康都具有相当的棋力,民间出现围棋大家,如先后侍奉于织田信长、丰臣秀吉和德川家康的僧人日海( 1558 — 1623 ),被誉为围棋 “ 名人 ” 、 “ 棋所 ” ,享有优厚俸禄,得到 “ 官命 ” ,并总理围棋事务,指导将军弈棋,垄断围棋等级证书的颁发等权力。 1644 年幕府建立了 “ 御城棋 ” 制度,参加 “ 御城棋 ” 被看作与武士们在将军面前比武同等高尚,这样,围棋对弈植入了武士道精神。日本武士道崇尚正直、信义、忠诚、礼节、廉耻、简朴、坚毅、胆识、诚实等种种美德,武士道精神以个人荣誉立命,一但丧失个人荣誉,武士不得不进行切腹自杀以保全最终武士荣誉。因此,职业化的围棋赛事程式、规则、棋手段位、个人棋风等等都与荣誉相关,正式赛事中战败者被迫降低交手棋分,这种在赛事中的降格被视为棋手的奇耻大辱,因此棋枰上的血腥之气迎面扑来,正式棋赛中的棋手几乎是押上自己一生名誉和身家性命作孤注一掷,甚有在对局中口吐鲜血或当场死亡的事例。 围棋的职业化使围棋成为一种正式的社会活动,吸引了广泛的社会参与。以当时的 “ 棋所 ” 四家(本因坊、安井家、井上家、林家)为核心,民间和名门望族的六段棋手均可参加棋赛,日本在职业化的道路上进一步成为日本社会生活的一部份,一直影响到以后围棋在日本社会生活中的地位。 进入现代以后的日本围棋文化受到商业和新闻业的强力支持,大体以棋院形式组织起了所有的围棋活动,围棋文化进一步普及化,全国和国际赛事成为了重要的社会性事件。围棋的职业化使棋赛的胜负之争成为主要目的,日本围棋的某些规则也与中国围棋不同,段位等级的激烈棋赛和社会强烈关注使围棋的职业化更加突出,也就使正式的围棋活动成为了竞争技术和职业化的高级技术训练。 围棋界的高手都不同程度地强调下棋的心态、境界,这主要是为了得到对棋盘局面的深度理解,由于围棋局面的形成是平面几何空间中的直交网格结构的深度重组,落子意味着对棋局发展趋势的决策,是历史经验与当前态势的偶合,因此棋手必须专心致志,使经验与个人气质结合而形成个人的棋风,棋赛中要排除一切杂念,凝集精力于直觉(棋感),使个人形成特殊的风格在当前不确定性的棋局上产生偶合,以期得到 “ 妙手 ” 、 “ 鬼手 ” 、 “ 神之一手 ” ,使一子之后产生一个全新的局面。所以这种基于战杀的心态培养和训练仍然是一种心理性的技术性的准备。 围棋的职业化使棋手把下棋作为社会生存的方式或手段,从而在本质上使围棋与个人的一般生活区分开来,成为某种个人的社会生存方式,同时,围棋职业化、专业化也就使职业化围棋必然走向技术化的道路。正是这种围棋的职业化和技术化使 AlphaGo 成为了今天人工智能研究项目中最大的成功,这也就是 AlphaGo 和 AlphaGo Zero 完胜人类的必然性前提。 四、 围棋的棋艺与棋道 围棋在中国文化中大体是文人 雅士 的修性、娱情的文化活动,中国的古棋优雅、自由、超越,弈棋轻松、理性互动、无言而喻,故称 “ 手谈 ” 、 “ 坐隐 ” 。 “ 坐隐不知岩月乐,手谈胜与俗人言 ” (黄庭坚,弈棋二首呈任公渐),虽然偶尔以兵喻棋( “ 略技 ” ),但非以棋为兵,更没有争命的意义,相反,常以棋局喻世态而求超然,与中国特色的神仙思想相呼应,人在棋局中,又在棋局外。 “ 烂柯 ” 这个故事的喻意就深得人心,南朝梁任坊的《述异记》和历代其他一些笔记中均有记述,其大意是,樵夫王质入山伐木,见两人在松下石台上对弈。王质观棋入迷,一人递了一枚枣子给王质,王质吃后不知肚饥,后来一人提醒王质: “ 你怎么还不回去? ” 王质回头看他的 斧 头,斧柄竟已烂掉,当他下山回家时,人间已逾百年。甚至宋徽宗赵括也说 “ 忘忧清乐在棋枰 ” 。 “ 礼、乐、射、御、书、数 ” 是士人在受教育阶段接受的主要内容, “ 琴、棋、书、画、诗、酒、花、茶 ” 是文人所谓八大雅事,围棋是所有这些项目中直觉理性最专门化的一种,专心也就是一种人性的基本修炼,围棋专注于理性的直觉,对于学子来说, “ 一心以为有鸿鹄将至 ” 是入不了门的,但真正的修炼是对棋局的直觉理解,这是一种无言表达、基于文化的质朴理性。 相对而言,机器无所谓文化,所以也无所谓直觉。作为人工智能的智能代理( Agent )不同于算法的机器(图灵机)在于后者的输入是数值数字,而下围棋的机器如 AlphaGo 输入的是已经具有结构性的数据集(棋谱),即使是 AlphaGo Zero 也是研究人员赋予了算法的先天性,如果不学习人类的经验,研究人员不继承以前的成果是无法得到 AlphaGo 系列的成功的。 机器能够战胜人是围棋技术上的胜利,机器不会受到感情、情绪、现场气氛的影响,因此对于机器来说,谈不上 “ 棋艺 ” 。人的本质是文化的人,人能够艺术地使用技术,艺术家对人生和社会的态度、理解、和认识成为艺术品中的理性因素,虽称 “ 艺术 ” 并非匠艺的 “ 技术 ” 而是美和审美的艺术。艺术也是艺术家、批评家和观众之间的交流和相互理解,对于机器而言,只有棋盘和棋子之间的复杂关系,不会具有人性和文化的因素。机器在技术上胜过人并不奇怪,人使用工具就是因为工具是对人的技术能力的替代,对机器胜过人的担忧或恐惧并不来自机器与人在力量或思维这样的能力上强大于人,而在于迄今为止我们对于机器与人在本质上究竟有什么不同的认识和理解上并未形成共识。 “ 人只不过是大自然中最 脆弱 的芦苇,但他是会思想的芦苇 ” ,帕斯卡尔的骄傲并未过时,机器没有人这种既是最脆弱的同时又是最强大的这个本质性。 “ 艺术 ” 通常是指艺术形象的创造,但围棋的棋艺并不创造一种具象的形象,围棋的局面是一种简单形式中的抽象的形象,围棋是抽象的局面的创造,因此与直觉的审美和情感不同,棋艺要求基于几何性的一种直觉的超层次的理解和创造,这种创造性又是在双方对抗性的个性与共性中进行的,所以围棋对局不仅是技术的较量,更是从感受到对方的气质,性格,修养的内在性的无言沟通,所以围棋的棋艺是一种抽象形象的共同创造和互动中的内在交流。 日本的围棋文化重视棋艺中的礼仪(艺、品、理、规、礼),对棋具和相关的小道也非常用心,围棋与花道、茶道等一样,成为了一个非常精细的文化生活体系,体现了日本文化的特质。 围棋界普遍承认,围棋棋手的人品也就是人的棋品,这是指棋手的修养与棋术的关系,人们普遍地把棋赛的临场心态,对战略思想、战术机会的把握等作为高级棋术素质,都是以棋为人,称之为 “ 棋道 ” ,实际上,棋艺建立在人品之上,真正的棋道是人道,是中国文化和中国学术理性的一种无穷境界: “ 弈之为道,数叶天垣,理参河洛、阴阳之体用,奇正之经权,无不寓焉。是以变化无穷,古今各异,非心与天游、神与物会者,未易臻其至也。 ” (清,施定庵,弈理指归,序) 中国传统文化中文人的纯文化生活能够将世俗人生消融在理性的超越之中,琴棋书画、诗词歌赋创造的境界是实在世界的超越,这与中国围棋的直觉纯粹和超越性具有一种共同的理性美感,所以中国文人以诗言志的本能在以围棋为诗的表达中能得到一种越界的融和: 黄梅时节家家雨 , 青草池塘处处蛙,有约不来过夜半 , 闲敲棋子落灯花。(赵秀师,约客) —— 棋为人境,相约相忘。 山僧对棋坐,局上竹阴清,映竹无人见,时闻下子声。(白居易,池上二绝) —— 人在局中,又在局外。 玉子纹楸一路饶,最宜檐雨竹萧萧。羸形暗去春泉长,拔势横来野火烧。守道还如周柱史,鏖兵不羡霍嫖姚。浮生七十更万日,与子期于局上销。(杜牧,送国棋王逢) —— 人、棋相喻是棋艺,人、棋同境是棋道。 闲看数招烂樵柯,涧草山花一刹那,五百年来棋一局,仙家岁月也无多。(徐文长,题王质烂柯图) —— 棋局也是历史剧,中国本土文化特色的人、仙同质,是中国传统文人的最后的精神寄托。 五、 结语 当我们迷惑于机器是否会有感情、意识时,不妨首先去体会、研究一下,作为文化的 “ 人 ” 的实质是什么?这有助于我们走出人工智能给我们带来的忧思。 本文相关内容和参考资料除已有文内夹注外,可参见周剑铭、柳渝:中国文化和中国思想;中、西文化和科学、人文两种 “ 两种文化 ” 的交汇;算法、不确定性和不确定性问题( NP )理论;智能哲学等网上系列文章。
个人分类: 智能哲学|4438 次阅读|0 个评论
马文·明斯基的“咒语”要重现吗?
热度 2 liuyu2205 2017-3-10 16:28
我们把算法理论看成是西方工具理性的基石,完整、一致、优美,正是在这个基石上,我们才能探索不确定性的对象,而对象的客观性迫使我们深研图灵建立在“实时性”(actual time)本质上的技术理论方法,从“图灵机”到“模仿游戏”,图灵思想的一致性,贯穿世纪。 ****** 美国历史悠久、最受读者尊敬的杂志之一“大西洋月刊”三月四日登载一文:“作为计算机程序的‘人工智能’的星名已经失魅了吗?” (“‘Artificial Intelligence’ Has Become Meaningless, It’s often just a fancy name for a computer program”, https://www.theatlantic.com/technology/archive/2017/03/what-is-artificial-intelligence/518547/ ,中译可见 http://mp.weixin.qq.com/s/xM6L-vZ1o7MjhKHf9CRPTg ),文中列举了几个例子来说明,正在进行的人工智能研究和开发实际上远不是科幻小说、电影中那样神奇,现在所说的人工智能(绝大多数情况下)只不过是软件,在实际应用中也颇遭挫折,有些科学家已经意识到这些问题并不在机器的能力如何,而在于人工智能与认知理论和科学本身之间的本质性关系上。 大体来说,现有的人工智能研究都是在计算机中建模编程为主,比如目前主流的“人工神经网(ANN)”就是在实体模仿或理论模型的基础上,(拟合)函数化为在计算机中表达的一个算法模型,然后让机器和程序在专门的大数据(样本)中进行训炼(“学习”),边“学习”边工作,所以有见识的专家们说:今天人们所说的“‘人工智能’实际只不过是人写的一个计算机程序”(‘AI’ what they're really talking about is a computer program someone wrote),因此,“今天的计算机系统一点都不特别”(today’s computer systems are nothing special),有专家不无讽剌地说,人工智能只是一个“传说”(AI is a fable),或者说,“算法这个词已成为了一种文化崇拜”(the word “algorithm” has become a cultural fetish),更有专家说,放弃(或替代)这个术语也许是在当代文化中去魅这个魔力的最好办法。(abandoning the term might be the best way to exorcise its demonic grip on contemporary culture.) 这一切不能不让人想到四、五十年前马文·明斯基的“咒语” ,1969年,“感知器”(Perceptrons: an introduction to computational geometry)一书出版,该书从数学和逻辑的角度分析, 神经网络模型中最基本的单层感知器在能力上有根本的局限性,而且在多层感知器中也是不可能被全部克服的,加上其它因素,这个论断导致了神经网络研究的将近二十年的低潮。但人工智能并非在一条道路上前进,它也与其它学科领域渗透和交织发展,人工智能的不同发展方向以符号主义、机能主义、逻辑或程序主义、联接主义等等名目被称呼,但主要还是“算法”(Algorithm)和“代理”(Agent)本质上的区别,达特茅斯会议上提出的“人工智能”这个概念大体包括了这两个方面的工作而被大家接受。近年来人工神经网络模型实际上是两种方法的混合,即模仿神经元的工作建立实体的或理论的模型,然后将模型函数化、算法化,再让计算机运行算法,在“学习”中去工作。 目前人工智能的研究、开发、应用的热潮似乎破解了明斯基的“咒语”,不仅是专家不断地以各种新的方法和研究成果使人工智能的面貌日新月益,各行各业的从业者、投资人以及市场、媒体、政府都高度关注,更有些惊人的观点似乎在颠覆着人们的基本认知,人工智能最终将战胜人类,人工智能将统治世界,人工智能可能终结人类历史,等等…… 因此至少可以说,目前的人工智能热潮确实已经颠覆了人的基本认知。但实际上,明斯基的“咒语”并未消失,比如其它报导来源的关于几个著名的“聊天机器人”所遭到的诟病和挫折等,已经不再是大新闻了,而人工智能专业领域内也一直有不同的观点,但这些反对意见大体只是出于直觉,比如认为机器不会产生具有真正创造性的工作,这些意见虽然在直觉上能得到很多人的响应,但在理论上并没有有力的支持。 或许还有第三种情况,这就是图灵的道路。虽然图灵被人称之为计算机和人工智能之父,但他的图灵机和人工智能的思想深刻性似乎从来没被人完全领略。图灵深知计算机所具有的能力超出了常人的想象,但又洞察到机器能力与人的能力之间无法直接比较的困难, 一方面机器在很多能力上远胜于人,但在人的基本的本质性上机器却无法与人相比,图灵知道问题的实质不是机器与人的能力的差异的问题,而是两者具有不可比较的能力性质,因此图灵提出了间接考察、研究人机之间的能力比较关系的方法或模式——“模仿游戏”。 “‘模仿游戏’是一个仅由语言沟通的询问者去判断二个努力证明自己是女人而其中一个却是男人的游戏,图灵的目的并不在于这个询问者如何去判断对方的真或假,而是去考察:‘与两个人玩游戏相比,让一个机器去充当男人,这个游戏的判断者发生错误的几率是否发生变化?'图灵的目的就是让这两种询问的结果相同与否去代替'机器能思维?'的问题。” ( 智能哲学:“第三问题”与图灵的“模仿游戏” ) “模仿游戏”却一直被人理解为检测机器是否具有与人相同的思维的方法,所以被广泛被称为“图灵检验”(Turing Test, TT),并为此设计了很多具体的问题和检测标准,但实际上,如何进行“图灵检验”和是否通过了“图灵检验”,从来没有一个公认的模式、标准或有一个能得到大家认可的结果。这种情况与“图灵机”完全不同,自1937年图灵提出“图灵机”以来,无论在模式的理论表达或在技术实践中,“图灵机”的清晰性和确定性从没人怀疑,但“模仿游戏”似乎一开始就被人误解了。 与“图灵机”的封闭性不同,“模仿游戏”实际是一个开放的多层次的研究、检验体系,在“模仿游戏”中,有人与人、人与机器、参与试验者(提问人),以及不参与试验的事后评价这样一个多层次开放关系,即一个三方关系的多层实体模式,从而把理论中最困难的三方关系问题以一种多层次关系模式表达出来。因此“模仿游戏”具有人、机在智能上进行对比观察、检验、分析、研究的真正价值。 明斯基的“咒语”洞见了数学、逻辑与ANN模型之间存在的原理性隔阂,但无法建立这两者之间的桥梁,因而成为人工智能的研究一度受挫的一个原因;图灵深刻地理解到人机之间不可比较性,建立了一个开放的考察、研究、检验模式,正是在这个意义上,“模仿游戏”与图灵机一样重要。图灵的研究工作思想一致,从计算机到人工智能的研究有一种过渡性的关联,现在看来,更具有深刻、长远的意义。 :ANN单元构成一阶谓词逻辑(“与”、“或”),而二阶谓词逻辑的“异或”(Exclusive OR,XOR)在ANN中无法简单地表达, 一阶逻辑只有一个层次,二阶逻辑则有两个层次,“异或”的逻辑意义是:有且仅有一个为真;而在一阶逻辑中,“或”是可以同时为真的,“与”是必然同时为真,但“异或”与此不同,“异或”是两者的值必然不同(这与逻辑“非”也不一样,“非”是自反),“异或”并不关心各为何值,只是强调两者一定相反,因此“异或”的本质就是一种“不确定性”。这里特别说明一点,现在的计算机中大量使用的“异或门”逻辑电路是由多个一阶门电路联合表达的异或真值表。物理上不存在一个单体的“异或门”逻辑单元,这也就是被误解的明基斯的“咒语”:“异或”不可表达。( 智能哲学:机器与“学习”——寻找人工智能的幽灵 )
个人分类: 智能哲学|4215 次阅读|2 个评论
智能哲学:人工智能的伦理学问题(Beneficial AI)
热度 1 liuyu2205 2017-2-24 23:43
摘要:传统的人类中心的朴素伦理学信念已经受到人工智能迅猛发展的威胁性挑战,当哲学家、人类学家、伦理学家们尚在沉默时,一线科学家们已经做出一个权宜的回答:“阿西洛马人工智能原则”,即“为了人和人类利益的人工智能”( Beneficial AI );人类不确定性的未来仍是挥之不去的阴影,从基督教“世界末日”的预言到“上帝死了”(尼采)到“人死了”(福柯)的西方非理性思潮,再到今天“人类的终结”的猜测,似乎是越来越大的震动的脚步声,我们的文化和文明能够重生新的超越的伦理学吗? 2017 年 1 月在美国加州 Asilomar 召开的“阿西洛马会议”( the 2017 Asilomar conference ),包括 844 名人工智能和机器人领域的专家们基于对 AI 和 Robot 迅猛发展的深切关注,联合签署了称之为“阿西洛马人工智能原则”( Asilomar AI Principles ),呼吁全世界的人工智能领域工作者遵守这些原则,共同保障人类未来的利益和安全。 AI 和 Robot 的发展对人类自身的地位和价值产生影响,对此担忧由来已久,稍前一些, 2014 年由 Skype 联合创始人 Jaan Tallinn 、麻省理工学院教授 Max Tegmark 、物理学家史蒂芬•霍金、 SpaceX 和 Tesla Motors 创始人 Elon Musk 、牛津大学 Future of Humanity Institute 主任 Nick Bostrom 、 MIT Center for Digital Business 主任 Erik Brynjolfsson 、哈佛大学遗传学教授 George Church 、 MIT 物理学教授 Alan Guth 以及剑桥大学、 UC Berkeley 等人工智能方面的专家、教授,以志愿者的身份创立了“生命的未来研究所”( Future of Life Institute , FLI ), 2015 1 月 11 日他们发表了一封公开信: Research Priorities for Robust and BeneficialArtificial Intelligence: an Open Letter (公开信:为稳健性和利益性的人工智能而进行研究 http://futureoflife.org/static/data/documents/research_priorities.pdf ),提出“我们的人工智能必须只做我们要它们做的”( our AI systems must do what we want them todo ),即“有益的人工智能”( Beneficial AI )的口号,而对这样的问题的高度关注此前已经引起了业内外的广泛注意和严肃讨论并有所行动,如: AAAI 2008-09 Presidential Panel onLong-Term AI Futures ( http://www.aaai.org/Organization/presidential-panel.php ), Asilomar Meeting on Long-Term AI Futures ( http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm ), Partnership on Artificial Intelligence toBenefit People and Society ( https://www.partnershiponai.org/ )等,而更早的时候,在实体机器人出现之前的上世纪四十年代,科幻小说家阿西莫夫( Isaac Asimov )著名的“机器人学三大法则”和以后的多种补充原则: Law Ⅰ : A Robot may not injure a human being or, through inaction, allow a human being to come to harm . 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管; Law Ⅱ : A robot must obey orders given it by human beings except where such orders would conflict with the first law. 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外; Law Ⅲ : A robot must protect its own existence as long as such protection does not conflict with the first or second law. 第三定律:机器人在不违反第一、第二定律情况下要尽可能保护自己的生存。这三条法则实际是把机器对人的服从作为机器的设计和制造的原则,并没考虑具有“自主能力”、甚或有自我意识等高级人工智能的问题,现在那种“高度自主的人工智能系统”( Highly autonomous AI systems )或被称为“强人工智能”或“通用人工智能”( Artificial General Intelligence , AGI )等似乎已在敲门了,人类如何应对? “阿西洛马人工智能原则”实际上是所有关注 AI 和 Robot 的发展对人类所产生的难以估量影响的长期观察和思考的一次集中性表达,在更深远的意义上,可以看作是科学家顶替缺位的哲学家、人类学家、伦理学家,对人类自身的性质、地位和价值的一次严肃思考。 一、Asilomar AI Principles 阿西洛马人工智能原则 Research Issues 科研问题 1) Research Goal: The goal of AI research should be to create not undirected intelligence, but beneficial intelligence. 研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。 2) Research Funding: Investments in AI should be accompanied by funding for research onensuring its beneficial use, including thorny questions in computer science,economics, law, ethics, and social studies, such as: 研究经费:投资人工智能应该有部份经费用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如: • How can we make future AI systems highly robust, so that they do what we want without malfunctioning or getting hacked? 如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵? • How can we grow our prosperity through automation while maintaining people’s resources and purpose? 如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志? • How can we update our legal systems tobe more fair and efficient, to keep pace with AI, and to manage the risks associated with AI? 如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险? • What set of values should AI be aligned with, and what legal and ethical status should it have? 人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位? 3) Science-Policy Link: There should be constructive and healthy exchange between AI researchers and policy-makers. 科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。 4) Research Culture: A culture of cooperation, trust, and transparency should be fostered among researchers and developers of AI. 科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。 5) Race Avoidance: Teams developing AI systems should actively cooperate to avoid corner-cuttingon safety standards. 避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。 Ethics and values 伦理和价值 6) Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so where applicable and feasible. 安全性:人工智能系统在它们整个运行过程中应该是安全和可靠的,而且其可应用性的和可行性应当接受验证。 7) Failure Transparency: If an AI system causes harm, it should be possible to as certain why. 故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。 8) Judicial Transparency: Any involvement by an autonomous system in judicial decision-making should provide a satisfactory explanation auditable by a competent human authority. 司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释以被相关领域的专家接受。 9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with are sponsibility and opportunity to shape those implications. 责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。 10) Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation. 价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。 11) Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity. 人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。 12) Personal Privacy: People should have the right to access, manage and control the data they generate, given AI systems’ power to analyze and utilize that data. 个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。 13) Liberty and Privacy: The application of AI to personal data must not unreasonably curtail people’s real or perceived liberty. 自由和隐私:人工智能在个人数据上的应用不能允许无理由地剥夺人们真实的或人们能感受到的自由。 14) Shared Benefit: AI technologies should benefit and empower as many people as possible. 分享利益:人工智能科技应该惠及和服务尽可能多的人。 15) Shared Prosperity: The economic prosperity created by AI should be shared broadly, to benefit all of humanity. 共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。 16) Human Control: Humans should choose how and whether to delegate decisions to AIsystems, to accomplish human-chosen objectives. 人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标。 17) Non-subversion: The power conferred by control of highly advanced AI systemsshould respect and improve, rather than subvert, the social and civic processeson which the health of society depends. 非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。 18) AI Arms Race: An arms race in lethal autonomous weapons should be avoided. 人工智能军备竞赛:致命的自动化武器的装备竞赛应该被避免。 Longer-term Issues 更长期的问题 19) Capability Caution: There being noconsensus, we should avoid strong assumptions regarding upper limits on future AI capabilities. 能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。 20) Importance: Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. 重要性:高级人工智能能够代表地球生命历史的一个深刻变化,人类应该有相应的关切和资源来进行计划和管理。 21) Risks: Risks posed by AI systems, especially catastrophic or existential risks, mustbe subject to planning and mitigation efforts commensurate with their expected impact. 风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。 22) Recursive Self-Improvement: AI systems designed to recursively self-improve orself-replicate in a manner that could lead to rapidly increasing quality orquantity must be subject to strict safety and control measures. 递归的自我提升:被设计成可以迅速提升质量和数量的方式进行递归自我升级或自我复制人工智能系统,必须受制于严格的安全和控制标准。 23) Common Good: Super intelligence should only be developed in the service of widely shared ethical ideals, and for the benefit of all humanity rather than onestate or organization. 公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。 二、 人类的道德和伦理的尊严 老子的“道德经”和亚里士多德的“尼各马可伦理学”( Ethika Nikomachea )代表了人类对自身的存在状态和社会生存方式的深刻的思想,在这种朴素的人性意识中, 人总是作为世界中的唯一的自我意识者的无意识者而被意识到的, 虽然“人类中心主义”特别是狭隘的“强人类中心主义”遭到过广泛的讨论或批判,但“人是万物的尺度”( 普罗泰戈 拉 )、“人为自然立法”(康德)这种基于人的价值和地位的统一的朴素观念始终是人和人类的尊严,但这种古老的信念今天已面临危机。 如果说实证科学研究世界“是什么”和“如何是”,那么伦理学就研究社会“如何是”和人“应该如何是”,这两门学问一直是“科学”和“人文”两大分别领域(所谓的“两种文化”)中的最具代表性的学科,但从科学研究领域中产生和迅猛发展的计算机和人工智能、机器人所具有的性质,已经不可阻挡地成为了对人类的伦理学的核心理念的侵蚀,机器“具有”人的智能,或机器“具有”人的性质,似乎不是人的空想,如果说“人”的尊严和地位被人类社会自身的发展所动摇,今天一点也不过份,正是这种伦理学的意义上, AI 和 Robot 的伦理学问题成为了今天所有人关注的焦点。 伦理学的核心概念是人的社会行为,伦理行为就是实践的道德哲学, AI 和 Robot 的伦理学关切实际上具有超越这种人类伦理本质的深刻层次: (一)、人(研究、开发者)如何将传统的人的道德和伦理信念贯彻在自己的所研究、制造、开发的 AI 和 Robot 中,使其服从甚至具有人的伦理原则? (二)、人是否有这种超越能力做到这一点? (三)、 AI 和 Robot 在支配它们的物理规律之上有没有或有何种伦理规范?更有甚者,比如,所谓的“科幻模式”的超人工智能( ArtificialSuper-intelligence ASI ),可以问这种伦理问题吗? 在这些复杂、甚至是难以想象的情况下,我们还不得不进一步追问:有没有机器的道德( moral ) 、 不道德 (immoral) 或非道德( amoral )问题?这是人类的问题还是 AI 和 Robot 的问题,或是“我们”共同的问题?按照这种方式设想下去,或许有一天机器可能会有模拟人的甚至他们自己的不同于人类自我性质,甚至有他们的思想家、哲学家,它们是类人的人类,或者反过来说,我们只是人类类中的子类? 在我们没有超越自身作为这种“人类类”甚 至 是“类生命”的主体之前,我们无法也不能实质性地设想这些问题,现在最迫切的是,我们是否有赋予 AI 和 Robot 以道德心灵的能力?就象上帝造人时也无法使人具有免除罪恶的天性,我们能有这种似乎是超越上帝的能力的能力吗? 我们只能在我们已有的人类的伦理学的理念的基石上进行探索,在这个意义上,我们只有人类的伦理学,从这个观点上看,我们所有关注、思考和行动都是人类的伦理学 , Beneficial AI 不是机器的道德和伦理,而只是人在研究、发展 AI 和 Robot 中的伦理原则,人能否将人的伦理原则赋于机器是一个不确定的问题,今天我们能做的就是坚守我们人类的伦理底线,所以“阿西洛马人工智能原则”是人的道德呼唤,是人性的忧患意识,在这个意义上“阿西洛马人工智能原则”是人类尊严的体现。 三、 人机的伦理关系:为了人的AI (Beneficial AI ) “阿西洛马人工智能原则”中,人的伦理学精神和原则贯彻始终,我们可以将 Beneficial AI 解读为“为了人和人类的 AI ”,因此“阿西洛马人工智能原则”是世界剧烈变化中古老的人类伦理学精神的觉醒,是剧烈变化的世界中人为捍卫人的地位和尊严的一种努力,主要体现在以下各条中: 第1项“研究目的”确定了人工智能 研究的目的是创造服务于人、并为所控的 AI 和 Robot 这个原则,这个原则是人机之间的伦理保证,最先由研究和开发人员的伦理意识所体现和遵守,所以第16项“人类控制”表达了一种深切的期望。 第2项“研究经费”是对人类资源、意志、价值体系的前提地位的保守和保护。 第10项“价值归属”、第11项“人类价值观”进一步将机器对人的价值归属提升为高级人工智能的设计原则;第9项“责任”则将这种人机伦理关系作为责任明确地加在研究人员身上;第12项“个人隐私”和第13项“自由和隐私”体现了人的尊严。 第6项“安全性”是为研究工作设定的机器对人的保障的条件,第7项“故障透明性”、第8项“司法透明性”是对人现有研究、开发的工作制度和法制方面的要求。 第14项“分享利益”、第15项“共同繁荣”第17项“非颠覆”、第18项“人工智能军备竞赛”是人类社会的伦理原则在人工智能研究领域中的体现。 上述的这些内容都是基于人和人性理解的人机伦理关系,“阿西洛马人工智能原则”最后一条23条“公共利益”甚至包括了“超级智能”(superintelligence ),仍是为全人类整体利益的考虑,就是为了人类价值和利益的人工智能(beneficial AI ),这种把维护人的伦理地位这个前提放在人工智能领域不同层次上多次予以申明,都是基于人的道德和人类尊严的朴素性,但机器或人工智能这个在人的发展中产生的不同于“自然”又不同于人类自身的东西究竟有何种本质、何种伦理地位,仍是一个不确定的问题。 四、 不确定的未来 最困惑人的问题是:有没有高于人的智能的“人工智能”,所谓的“高级人工智能”、“通用人工智能”或“强人工智能” ( Artificial General Intelligence , AGI )就是这种意义所指。 “阿西洛马人工智能原则”第19项“能力警惕”中承认但却不能确定的困难,换一句话问:在人与人工智能的关系之中,存不存在这种基于我们基本信念的人机之间的伦理关系?一切似乎又回到最古老的哲学问题,人是什么? 迄今为止,人工智能的实体都建立在物理定律的基础上,物理实体不存在服不服从伦理学原则的问题,但建立在物理实体上的人工智能与建立在生命实体上的人的智能有何本质不同,这一直是人类知识理论中最困难的问题,人们总在等待回答,但今天,人工智能的伦理学问题已经迫使科学家做出回答了,尽管有了“阿西洛马人工智能原则”,但这仍只是一个权宜的解决,或许我们永远只有这种权宜的解决。 迄今为止,哲学家和科学家都不能回答什么是人的“智能”的问 题,也不理解智能与意识关系,当然也就不可能清晰地回答究竟什么是人工智能的问题。如果 AI 和 Robot 没有自己的独立意识, AI 就永远只能是人的意义和价值的附庸,这也包括了人的恶德,所以我们可以看到,科幻电影中的人工智能对人类的犯罪也只不过是对人的罪孽的模仿,如果我们为未来的机器人世界有可能毁灭人类而忧心忡忡的话,不如去检讨为什么人类社会仍然会有这么多的自己造成的不幸。 如果高级人工智能具有不同于人类的“智能”,就意味着具有不同于人类的意义或价值存在,人类如何去“理解”?这使哲学家、人类学家、伦理学家面对轰轰烈烈的人工智能大潮只能保持沉默的尴尬。 人类历史上最初的哲学家也是科学家,古代希腊人可以将科学、哲学、宗教、伦理问题混合在一起讨论,宗教具有伦理学的本质性,历史上社会现实中的伦理学问题主要是由宗教承担的,但宗教不是回答了人的伦理学问题,只是把人的终极的伦理学问题让渡给神,宗教以从世俗的人向神性的人格过渡为最终目的,因此宗教最终还是不能取代以世俗世界为目的伦理学,人类知识的积累和征服改造的野心,已经挑战上帝的底线,威胁人自己存在的尊严,“上帝死了”(尼采),“人死了”(福柯),和今天的“人类终结”的猜测,现在已迫使科学家又一次扮演了伦理学家的角色,科学家不能将人机伦理关系交回给上帝,机器没有原罪,而人具有智能,过去人们可以说:除了上帝的“创造”,人可以“学习’,但现在不能说:“除了人的‘学习’,机器只能‘模仿’”,现在机器也可以“学习”了,“人”还有什么?“理性”自身还有什么?这样的问题已经成为了以确定性和客观性为傲的科学理性对自己的无奈讽刺。 五、 中国思想的启示 笛卡儿说:“我思故(则)我在”,这实际上是基于近代以来的科学理性的怀疑、批判精神对世界和人自己的一种科学态度,即二元论之一的主观世界对包括自己在内的客观世界的一种主观态度而不是一种科学解释,而且这种主观的态度也不等于“我思”与“我在”二者之间的因果、逻辑、规律等关系,即使有无数的物理、生理、心理等相关方面的研究成果,也无法解释自身的客观性是如何成为意识的主体性的,因此西方文化不能没有超验一元的上帝。在这些之外,除了思想或意识本身,无法外在地去观察“思想”,我们只能直觉到或意识到“思想”,去思想“思想”。我们虽然没有类似的难于理解的关于不可观察的“量子态”的量子力学,但中国哲学或中国思想一直坚持,“思想”对主体的内在(内“心”)性反思超越性才是无元无级(无极)的“思想”的本质,只有在这种本质上,我们才能进入到理解人的“智能”的道路。所以,即使有高级甚或越级的人工智能,也必须在“思想”这样的自行越超的“行为”中才有在时间中“存在”的意义,中国文化滋育的中国思想本身就具有这种内在的时间性的本质。 “中国思想一词指称中国文化本质中具有动力或创造性的核心,思想一词在这里就是指人的思想观念的动力或创造性,它是精神活动的实在过程”,“中国思想具有的自身的本体性意义,它不同于对一般的思想观念的研究,不是研究它所表达的内容的特点和性质,也不是指某种具体思想观念的产生和发展的演变,而是指思想自身作为动力性本质的本体性存在过程”“中国思想是植根于历史与现实的,历史使命和现实责任是儒家文化自觉的生命,正是在这个意义上,中国思想实现了自己的主体”“中国思想的结果是归化万有的和谐统一,作为思想目标它只是一个虚幻图景。任何将这种目标的固化就是思想的死亡。一与无的学说正是对这种状况的写照,老子关于无的学说是思想的极致,合一即是最终的统一,也是统一的开始,作为最终的统一,所有的差别、个性、分裂和冲突将消失,但这不是终极死亡,道的终极统一不是此岸世界的末日,易是自性的重生,一即是易,因此一也是万化之源的浑沌,为天地母,无中生有,这就是一的超越之道。”“中国思想的本质既不能自身形式化,也就得不到对现实世界的最终控制权,它是终极自由的,也是终极无奈的。”“这种命运也 正 是中国思想自身的困境,中国思想需要自己的肌体,但又不能在其中固化,正如易的形式,它只有在易中才是合的,在合中才是易的。”(周剑铭:论中国思想) 部份参考资料来源: https://futureoflife.org/ai-principles/ https://futureoflife.org/ai-open-letter/ https://futureoflife.org/static/data/documents/research_priorities.pdf AAAI 2008-09Presidential Panel on Long-Term AI Futures http://www.aaai.org/Organization/presidential-panel.php http://www.aaai.org/Organization/Panel/panel-note.pdf Asilomar Meeting on Long-Term AI Futures http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm https://www.partnershiponai.org/ Partnership onArtificial Intelligence to Benefit People and Society https://www.partnershiponai.org/ https://www.microsoft.com/en-us/research/wp-content/uploads/2016/11/panel_chairs_ovw.pdf http://futureoflife.org/static/data/documents/research_priorities.pdf https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/ http://www.techrepublic.com/article/23-principals-for-beneficial-ai-tech-leaders-establish-new-guidelines/ http://www.techrepublic.com/article/3-major-ai-trends-to-watch-in-2017/ https://www.theguardian.com/commentisfree/2016/dec/01/stephen-hawking-dangerous-time-planet-inequality 尤瓦尔·赫拉利 Yuval Noah Harari ,人类简史,林宏俊译,中信出版社  周剑铭:现代伦理学与儒家文化——互补的中西文化——现代篇 1  网文 周剑铭:“智能”哲学——人与人工智能 网文
个人分类: 智能哲学|3836 次阅读|1 个评论
智能哲学:人与人工智能
liuyu2205 2016-5-8 12:53
对人工智能的“恐惧”来自于将“人工智能”等同于人的“智能”,这种认知的误区类似于算法理论中不自觉地事先就认定了P=NP的误导产生的困惑。我们的这篇文章“智能哲学——人与人工智能”( http://chuansong.me/n/2110287 )的一个基本观点就是,首先把“智能”看成是人的本质,从而区分人的智能与人工智能的不同层次,在这个认识的基础上才能定义和理解人工智能的性质和能力。所以我们说:“具有相当于人的智能(Human Intelligence HI)能力的非人实体为人工智能(Artificial Intelligence AI)”。 实际上,与其说是对人工智能的“恐惧”,不如说是对人自己的未来的不确定性的困惑,这也正是我们的不确定性问题(NP)研究能够与人工智能问题研究产生论域交集的原由。我们一直认为“不确定性”的本质在于人的本质,而且认识到所有这些问题的产生源于对不同层次问题认知的混淆和混乱。 我们并不能事先就知道人类自己的未来究竟是什么?这个问题不是“人工智能”本身的问题,也不是“科学”所能回答的问题,科学是以实证性、客观性为本质的,人工智能就是以机器物理实体或符号形式为对象的客观性研究,即便是对人的大脑的功能研究也是以大脑实体作为研究对象的“脑科学”,正是对大脑的神经元和突触的模仿才产生了“人工神经网络(ANN)”,这已经成为了当前人工智能研究的一个主要技术方向。 与其“临渊羡鱼”,不如“退而结网”,与其“恐惧”或“科幻”化现实中的人工智能,不如在科学技术和人文哲学的不同层次上认真、深入地学习、研究和发展人工智能。 ****** 人们称具有相当于人的智能(Human Intelligence HI)能力的非人实体为人工智能(Artificial Intelligence AI)。本世纪前,AI主要是对HI的模仿而具有了这个名称,但当代的计算机和互联网上高速、巨量的数据流动和处理能力使社会进入到了信息爆炸性增长的时代,使得知识和信息本身具有了一种自主性的存在意义,这不仅是对AI的认识问题,更深源于对人的智能和知识的本质的困惑,传统哲学的认识论、真理问题、科学的本质问题等都把人与客观世界的关系转化为知识的本质问题进行研究,人的智能并没有在人类的“主观精神”活动之外专门研究,这种情况下我们并不怀疑知识于人的被动关系,“知识就是力量”这句名言就是一个最好的证明,但现在,知识的工具性、客观性问题己经被知识的某种独立性替代了,这是知识能力的幸运年代,但也是人对自己的认知进入到新的困惑的时代。在常识上,人是以自己的智能为本质的,人能不同于物体、植物、动物,是因为人具有智能,人能够把它们看成为客观事物和可以被人利用、控制的对象,人总是人的环境的中心,即使是一直期望有外星人的存在,也是以智能为底线而期许他们可以与地球人类交流、理解的同类,高于人类智能的存在是被人当作神性的,图灵(A M Turing,1912-1954)就把超过机器计算的能力称为“神喻”(oracle),但AI带来的却是这样一种令人不安的困惑,AI能够以一种物理形式独立存在,并且在很多能力上大大超过人的智能,这就像你最忠实的老仆人突然变成了你客厅中强势的客人,甚至是你的主人而享有你的家园一样,如果说历史上有过一次从地心时代到日心时代转变的震撼,但这只是人从神性的迷茫中平安地觉醒,是人自己的进步,那么现在人类面临的AI不可测的发展会是又一次有惊无险吗?“智能”哲学(关于“智能”的哲学问题——智能哲学Intelligence Philosophy)试图回答这样的问题。 一、“世界3”:知识与智能 近代科学技术的进步把知识从一般精神活动中分离出来,现代科学技术的进步则使以前静态的知识形式动态化、信息化、主动化,这种趋势是被波普(K. R. Popper,1902-1994)以特别的方式提出的,这就是他的“世界3” 理论。1967年,在第三次 “逻辑性、方法论和科学哲学大会”上,波普尔作了题为“没有认识主体的认识论”的报告,提出“思想的客观内容”(即知识客观形式)作为“世界3”与“世界1”(物理客体或物质的世界)、“世界2”(意识状态或精神状态的世界,或关于活动的行为意向的世界)并列,在他的《客观知识:一个进化论的研究》一书中指出这个“世界3 ”的客观性,也是就是知识的自主性和自主创造性: “如果不过分认真地考虑‘世界’或‘宇宙’一词,我们就可区分下列三个世界或宇宙:第一,物理客体或物理状态的世界,第二,意识状态或精神状态的世界,或关于活动的行为意向的世界,第三,思想的客观内容的世界,尤其是科学思想、诗的思想以及艺术作品的世界。因而,无可否认,我讲的‘第三世界’与柏拉图的形式论即理念论有很多共同之处,因而也与黑格尔的客观精神有很多共同之处”,“他们承认一个自主的第三世界,并且把它看成超人的、神性的和永恒的世界。” “语言的世界,推测、理论和论据的世界,简言之,客观知识的世界,是这些人类创造的世界中的一个最重要的世界,同时是一个基本上自主的世界。 自主性观念是我的第三世界理论的核心;尽管第三世界是人类的产物,人类的创造物,但是它也像其他动物的产物一样,反过来又创造它自己的自主性领域。 有无数的例子。……尽管第三世界是我们创造的,但它基本上是自主的。 但是,自主性只是部分的:新的问题导致新的创造物或构造物,如递归函数或布劳威尔的自由选择数列,因而可以把新的客体补充到第三世界中。并且,每一个这样的步骤都将创造出新的预想不到的事实,新的预想不到的问题,并且也常常创造出新的反驳。 我们的创造物对我们自己、第三世界对第二世界也有一种十分重要的反馈作用。因为新出现的问题推动我们去作新的创造。 这个过程可以用如下有点过于简化的图式: P1——〉TT——〉EE——P2 这就是说,我们从某个问题P1出发,提出一个尝试性的解答或尝试性的理论TT,它可能在部分或整体上是错误的,无论如何它都必须经受消除错误的阶段EE,这可以由批判讨论或实验检验组成,无论如何,新问题P2产生于我们自己的创造活动,并且这些新问题一般不是由我们有意识地创造的,它们自发地从新的关系领域中涌现出来,我们的一切行动都不能阻止这种关系产生,尽管我们很少打算这样做。 第三世界的自主性,第三世界对第二世界甚至对第一世界的反馈作用,是知识发展中最重要的事实。”(《客观知识:一个进化论的研究》第三章没有认识主体的认识论) 当然,很明显,波普所说的基于反馈机制的创造性仍是依靠人完成的,但今天这种知识本身的自主性存在,似乎更能得到以计算机、网络中的电子、甚至量子形式的信息的流动和处理所表现的自主性的支持,特别是人工智能最前沿的发展,经过模仿人对知识的处理方式,而使知识得到更明确的自主性和自主创造性,今天的AI已经从被灌入知识到被动的模仿,从模仿到被动地学习,从被动学习到主动学习的阶段,以对可以期望具有相当的创造能力,人们甚至认为模仿人类的情感、意识都可以做到,意识的本质就是自我,如果这样下去,AI会不会有自立的思想、情感、伦理、意志和意义?机器人会不会具有相对于人和超过人的独立社会能力和地位? 现代人己经认识到,过去的传统的“资本经济”已经变成了现在的“知识经济”,与资本的增殖要以资源大量消耗为代价不同,知识的共享性和技术上的快速反应能力使知识经济没有边际效用,知识经济具有全新的增长优越性和质的改变,这是“知识”和AI对人类贡献的社会意义,但如果人工智能有一天会有自己的自我意识和社会意志,那么也就会有机器自己的伦理学、哲学和哲学家,波普所看到的三个世界的交互关系将变成三个世界的“丛林战争”,想到纳米的神奇、量子世界的怪异、科幻世界的预言,在人工智能能带来的对人和人类社会贡献的辉煌后面是令人悚然不安的阴影。 二、“图灵检验”:“智能”与理解 对AI的定义现在仍然不一致,从技术层面上看,人工智能就是人的智能的机器化,“机器人”是具有实体独立性的人工智能,“软件机器人”是网络空间(cyberspace)中的集成软体,其发展速度和智能性超乎想象,所以现在的问题在于:何种程度或性质上的机器智能与人的智能相等甚或超过人的智能能力,图灵1950年在《MIND》上发表了《计算机与智力》(Computing Machinery and Intelligence)一文提出了后称之为“图灵检验”(Turing Test TT),来检验人的智能与人工智能的比较,但实际上TT并不是人与机器的比较成为问题,“图灵检验”中的检验标准才是真正的问题。图灵清楚地说明了这个“图灵检验”不是以机器为标准的算法能力,这种按机器能力的标准只是统计方法意义上的,“图灵检验”排除了人与机器在“智能”表达方式上的差别,即将“图灵检验”限定人与机器只能使用符号语言交流,在工具形式的无差别性上去发现人的智能与机器智能的本质性差别。因此,“图灵检验”是以符号语言表达为标准去检验人与机器的关系,具有二种层次的关系:一、人与机器的对立比较关系;二、人与这种人—机检测关系的检测标准关系。实验安排了人与机器之间以符号语言进行的交流,然后让第三人通过这种符号语言交流过程去判断人与机器的区别;图灵给机器的程序设定了明确的目标:机器以人的身份与人交流去欺骗检验者,如果经过若干询问式的交流以后,检验者不能区别人或机器,则机器通过图灵检验。 人-机交流的符号形式中是可以有内容的,“图灵检验”实质上是以二个层次的区分提出问题的,如果人与机器能够以符号语言交流,这种“交流”可以有不同的判断标准,一、按机器的标准,就是“算法”,这种判断已经是算法理论中专门理论,即可计算性理论和不确定性理论(NP);二、如果人与机器交流中能够相互“理解”,机器就与人具有相同的“智能”,但这种人与机器的相互“理解”必须以人的智能水平检验,即让第三人作为考官去判断(理解)人-机的“理解”,就是说,如果机器和人能够在人的水平上按人的标准相互达到“真正的理解”,人与机器的“智能”才是说是相等的。 对“图灵检验”的分析我们可以看到,AI与HI相等的标准是“智能”,这种“智能”的标准是“理解”,“理解”的标准是“人的理解”。 人-机交流模式中真正不清楚的地方在于,语义与语法有何种最终性的相对关系,这个关系一直以不同的方式隐藏在各种各样的理论中,图灵知道无法在理论上事先判定这一点,就以一个实在的人自己去判断。“图灵检验”把AI与HI的区别问题从理论模式移植到技术模式上,这样“图灵检验”实际上是以一种技术模式定义了“智能”的判断标准是“理解”,“理解”的标准是人的“理解”,这就把人的地位或意义置于机器和人-机关系的地位之上,“图灵检验”通过对“智能”的技术模式定义隐喻了“智能”的本质是人的意义,因此AI能否相等HI,是人的意义上的标准,但这给现代哲学提出了最迫切的问题。 “图灵检验”并没有确定具体的标准,或者说“图灵检验”的检验标准是不确定的,但这正是“图灵检验”的真正价值,“图灵检验”虽然是技术层次上的,但正是在算法与语言这个最基本的层次上暴露了人与机器比较的深刻意义,这是对智能哲学最重要的启示。 “图灵检验”中的机器和语言是建立在计算机算法意义上的,图灵在他的1950年论文中特地予以论述。算法就是规则下的机械步骤,这是一个具有悠久历史的观点,在算法的执行上,人和机器没有区别,正是在这个基础上,图灵很明白地说明了“图灵检验”并不是去检测一台实际机器是否达到了某个机器标准,而是通过“智能”由“理解”定义这样一种内涵关系,去理解什么是“智能”,“图灵检验”实质上指出:我们对人工智能可以期望什么?“图灵检验”具有开放的目标,所以很难具体地设计出一个“图灵检验”。图灵在他的论文中以大量的篇幅在“机器能否思维”这样的题目下讨论了当时对于“智能”问题的不同观点,一方面图灵反驳了种种对机器算法能力的低估,另一方面以开放的态度对人工智能作了不确定性的期望,在这些意义上,图灵1950年的论文与他1936年关于不可判定性的论文一样具有不朽的价值。 “图灵检验”留下的问题是:机器有没有自己(有别于人类)的“标准”或意义?对于智能哲学来说,就是“智能”的真正意义和价值:“智能”是一种属性还是一种存在?这是智能哲学的第一问题,如果AI具有不同于人类的“智能”,AI就具有不同于人类的意义或价值,人类如何去“理解”?反过来,如果AI没有自己的意义和价值,AI就永远只能是人的意义和价值的附庸,这也包括了人的恶德,我们可以看到,科幻电影中的对人类的犯罪也只不过是对人的罪孽的模仿,如果我们为未来的机器人世界有可能毁灭人类而忧心忡忡的话,不如去检讨为什么人类社会仍然会有这么多的自己造成的不幸。 三、“中文屋子”:“弱人工智能”与“强人工智能” 约翰•希尔勒(John Searle)于1980年以“中文屋子”(the Chinese Room Argument)的例子再次提出了“图灵检验”中所包含的对语言的“理解”问题,在实验的房子中有一个英语母语而不懂中文的人,有一本用英文写成的手册供他使用,手册提供了以英文解释的中文文字句法和文法组合规则,房间外的人向此房间发送中文表达的问题,房间内的人只需对照手册,就可以返回中文答案,房间外的人会以为房间内的人能“懂”中文。希尔勒以这个试验表明,一个胜任翻译工作的机器并没有对语言的理解能力。 “中文屋子”说明了人工智能并不等于人的智能,但这只是对这个例子而言,作为翻译机器这类AI现在划入弱人工智能范围(Artificial Narrow Intelligence ANI),更强大的AI并没有限度。与TT不同,中文屋子中的人只充当了一个翻译机器,但这个人虽然不懂中文,却有人的理解力,所以,这个不懂中文的人如果是一个密码专家,依靠这本中英文手册他就完全有能力懂得或部份地猜测到中文表达的某些意义,“中文屋子”实际是以人冒充翻译机器,这种情况不过是计算机硬件与软件结合的卡通版,这并没有从根本上改变“算法”的“机械步骤”性质,这里的“智能”不过就是“活动”的(死)知识。“中文屋子”只是说明了翻译机器不能“理解”语言,如果把“理解”语言作为弱人工智能的一个界限,只是对ANI提出了更高的“智能”要求,超过ANI就是强人工智能(Artificial General Intelligence AGI),现在已有了强人工智能级别上的大量研究,但没有对“强人工智能”的界定标准,人们并不清楚,何为“理解”?问题似乎又回到“图灵检验”,现在研究工作只是从技术方向上区分不同的突破弱人工智能的解决方向,大体是这样对应的: *知识模拟(专家模式),由算法模拟实现:电脑=硬件+软件——弱人工智能;(ANI) *行为模拟(工具模式):操作机器人=电脑+感应器、执行器——弱人工智能;(ANI) *自主性模拟(环境模式):自主机器人=机器人+环境——强人工智能(AGI) *进化模拟(生物模式):主动学习,自我改进——强人工智能(AGI) 这些都是在常规物理情况下的人工智能,常规情况下的人工智能的能力一方面是在存贮空间和计算时间上的数量级不断提升和算法能力上的综合突破,越来越大的数据量和计算机工作频率与算法的不断改进,特别是网络与计算机的结合产生的对“大数据”的“云计算”方式,使传统知识和对知识处理的能力接近或可能突破人类常规条件的阈限;另一方面是依靠新材料和新功能的发现使机器可以得到巨大的不同环境应对能力,但这只是问题的一个层次,当前科学技术的进步已经开始进入到超常规物理,以及超常规的界入现象,如生命科学,神经网络、纳米技术,量子态应用等等,这些情况意味着人工智能会在人类自身以外的时空条件下出现,即“科幻模式”的超人工智能(Artificial Super-intelligence ASI),这都是人类以前从没有经验过的,在这些情况下出现了人类自身的意义问题,即超出了“图灵检验”的标准来讨论更广义的“智能”问题,这就不仅仅是“不确定性”的问题,而是我们将面对什么的问题成了问题,这种前所未有的挑战,是智能哲学不能回避的任务,没有智能哲学,就不可能讨论“超人工智能”。 四、“智能哲学”:第三问题 在波普那里,“知识”作为客观的和主动的形式构成了“世界3”,这和现在广义的“信息”概念基本相同,这已经在“信息哲学”这个概念下进行着专门研究;在希尔勒那里,知识以弱人工智能意义出现,突出了“理解”这个标准,在图灵那里,知识的内容以形式符号表达,机器语言与机器的关系是以弱人工智能的意义出现的,但“图灵检验”再次让人以检验者的层次出现,限定了“智能”的标准是人,所有的这些研究都围绕在“知识”与“智能”的关系,其中的关键是“理解”;超人工智能提出了人与人的智能的本质问题,这些问题的深刻性已经超过了传统哲学的内容,对基本哲学范畴提出了新的挑战,因此可以称之为哲学上的“第三问题”。 按照“图灵检验”的模式,“人工智能”的最高问题就是,具有知识或智能的人与具有知识或智能的机器在何种程度上是同等的?对于智能哲学来说,第三问题基于这样一个前提:人能够分解为内容和形式这样一种关系吗? 如果说传统哲学是纠缠于人与自己的内容的关系上,第三问题就提出了人与自己的形式之间的关系,这个问题正是以现代更尖锐的方式突显出来的,如果人和知识的结合就是“智能”(HI),那么机器与知识的结合就是“人工智能”(AI);如果这两种情况具有相同的能力,那么AI和人的智能(HI)就可以认为相等。实际上这种观点似乎已经成为了当前的一种压倒趋势。 我们回过头来看第三问题的前提,就是把人看成是人这个形式与知识的结合,即人的智能HI就是人这个形式与知识的结合,这个问题会遭到传统哲学的蔑视、宗教的不屑和诗人艺术家的抗议,这对智能哲学是一个严肅的理论问题,AI和HI是有共同性的,否则就不会有AI,问题在于这个“智能”的本质是形式的还是内容的?“图灵检验”、“世界3”和“中文屋子”都是在这样一个本质上暴露这个本质问题,这也是第三问题的核心。实际上这个第三问题有非常多的表现,比如,换一个更狭窄的论域可以问:智能的本质是语法的还是语义的? 所有关注这些问题的理论都是关注“智能”的哲学问题,智能哲学就是关于“智能”本质的哲学研究,也是传统哲学的一个现代发展。 五、“智能”与人性 人工智能AI的研究与人的智能HI的研究是沿着不同的道路发展的,前者主要是基于科学技术和科学理论,后者则是人文学和哲学的深厚背景,从智能哲学看,“智能”是人类的本质,以非生命的物质技术模仿或创造的是人工智能,就是说人工智能永远具有一种无法摆脱的分离、对立于人的性质,因此,人工智能本身是无法回答自己是否能具有人的智能的本质这个问题的,所以图灵才让人充当TT中的主考。但超人工智能ASI似乎推翻了这个“标准”的前提性意义,智能哲学实际上使“第三问题”面对人的本质而以更高的方式提出:“人具有智能性”与“‘智能’具有人性”这两个问题是否可以进行比较性研究?——这个问题是“智能哲学”的最高问题,也是对传统哲学的现代性考验。 在常规理解上,人工智能就是人的智慧与机器的能力的结合,人工智能离不开机器形式,而机器离开了人,机器就没有意义。在传统哲学中,人和环境总是对立的或互补的,世界是以人为中心的世界,世界有多复杂,人的内在性就有多复杂,世界越来越复杂,世界却越来越“小”,人越来越复杂,但人却越来越“大”。因此从传统哲学看,常规条件下的人工智能不是使人与机器日益疏离,不是机器与人的本质的分裂与对立,如果有这种情况,这只是把人的恶德植入了机器中,虽然人的智力在存贮量和速度上远比不上机器,但人性和人的意义总高于机器。 智能哲学将在更广泛的意义和更大的视野上扩展传统哲学,传统哲学中人的精神或主观性将植入“智能”这个范畴,“人”不只是“智能”的,“智能”也不能全部归结为“知识”,人的情感、“理解”、宗教、“内心”这样的精神活动将与“智能”、“理解”等一起被考察,这样可以将人类自身的意义建立在更深刻的基础上,这些更高视野的认识也将为过去长久困惑人类认知的一些前沿科学问题提供理解的基础。比如,迄止今天,我们仍不能直观地理解早已发现的量子态现象,相对论佯谬等,这是因为我们仍不能理解“理解”,因此我们可以在传统哲学对“知识”的一般性研究的基础上,把“理解”作为人的抽象行为进行研究……等等。 或许没有比今天更需要哲学了,因为人类又一次处在更困难的前沿,科幻电影中人类被机器人“控制”的恐惧已经被认为可能是人类的另一种巨大的灾难,机器的道德(moral)不道德(immoral)或非道德性(amoral)是人类的问题还是AI的问题或是“我们”共有的问题?或许有一天机器可能会有模拟人的或他们自己的自我性质,甚至有他们的哲学家,他们会是西方意义的哲学家还是中国意义的哲学家?从中国文化来说,人永远是内在于世界的,“故人者,天地之心也”(礼记),人是在由人不断创造的复杂世界(物理,自然、社会)中永远地内在生成,“故人者,天地之德,阴阳之交,鬼神之会……”,人与世界永远地变易相生,文化的本质就是文化的整合,或许中国哲学和中国思想将可能是唯一能和超人工智能的“哲学”相较量的哲学。 主要参考资料: 1. A.M.图灵:COMPUTING MACHINERY AND INTELLIGENCE, http://cogprints.org/499/1/turing.html 2. KARL POPPER, Three Worlds,THE TANNER LECTURE ON HUMAN VALUES Delivered at The University of Michigan April 7, 1978 3. 卡尔·波普尔:科学发现的逻辑 查汝强等译 科学出版社1986 4. 卡尔.波普尔:客观知识——一个进化论的研究,舒炜光等译 上海译文出版社2001 5. 斯蒂芬·沃尔夫勒姆:宇宙的本质是计算, http://songshuhui.net/archives/91355 6. Searle and the Chinese RoomArgument: http://www.mind.ilstu.edu/curriculum/modOverview.php?modGUI=203 7. BBC:Computer AIpasses Turing test in 'world first', http://www.bbc.com/news/technology-27762088 8. 人工智能革命: http://zhuanlan.zhihu.com/#/xiepanda/19950456 9. Rob.Calla:人工智能,黄厚宽等译 电子工为出版社,2004 10. John Searle MINDS, BRAINS, AND PROGRAMS, http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.120.749rep;=rep1type;=pdf 11. AI革命: http://www.huxiu.com/article/108990/1.html 12. 与本文相关的观点可参见周剑铭论中国思想和中西文化系列文章
个人分类: 智能哲学|4483 次阅读|0 个评论
智能哲学:人、机之间的“战争”与“学习”
热度 1 liuyu2205 2016-5-7 05:44
人工智能的进步一方面给人类带来了科技文明的新进步,另一方面促进了对人的智能更深刻的理解。我们一直认为只有基于对人的智能的深刻理解,才能清楚地区分人工智能与人的智能之间的复杂关系,而不能以人工智能的观点去定义人的智能,正像在算法理论中,不能以“多项式时间”(Polynomial time)的计算能力去定义“不确定性问题”(NP,Nondeterministic Problem)一样。 人工智能基本理论不仅牵涉到大量相关的应用技术科学,更深刻地与数学、逻辑学、哲学、中西比较文化等领域中基本理论问题相关联,我们与对此有兴趣的学者一样,希望把中国文化中最有价值的中国思想与前沿科学基本理论相联系,作些探索性的工作,。。。 我们的文章(智能哲学:人、机之间的“战争”与“学习”,http://www.aisixiang.com/data/99245-2.html),集中在讨论“机器学习”与“人的学习”的关系上。人、机的围棋对弈不等同于人、机之战,人的“学习”与机器的“学习”具有完全不同的性质和层次性。AlphaGo中基于人工神经网络ANN和“深度学习”等技术对围棋棋局的判断使算法有效搜索空间成为可能。一方面,AlphaGo确实是学习了弈棋高手的经验才胜过了人;但另一方面,更应该看到,人模仿了大脑神经系统制造了可以“学习”的机器,然后才是机器“学习”人的经验,这两方面才是对AlphaGo和“人工智能”的智能性的正确理解。 人、机之间最大的区别就在于人是天生的主体学习者,而机器则是在人造的“先天性”上才得到自己的“学习”能力。 ****** 智能哲学:人、机之间的“战争”与“学习” 周剑铭 柳渝 ( yu.li@u-picardie.fr )   摘要:人、机的围棋对弈不等同于人、机之战。人的“学习”与机器的“学习”具有完全不同的性质和层次性。AlphaGo中基于人工神经网络ANN和“深度学习”等技术对围棋棋局的判断使算法有效搜索空间成为可能。一方面,AlphaGo确实是学习了弈棋高手的经验才胜过了人;但另一方面,更应该看到,人模仿了大脑神经系统制造了可以“学习”的机器,然后才是机器“学习”人的经验,这两方面才是对AlphaGo和“人工智能”的智能性的正确理解。人、机之间最大的区别就在于人是天生的主体学习者,机器则是在人造的“先天性”上才得到自己的“学习”能力。   目录:   一、“一石激起千层浪”   二、“围棋之战”不等于“人、机之战”   三、“模仿”与“学习”   四、围棋的全局性与AlphaGo 一、 “一石激起千层浪” 3月12日,韩国著名围棋棋手李世石对战谷歌AlphaGo的人机围棋大战在韩国首尔举行,AlphaGo(谷歌首席程序员Aja Huang执子)与李世石对弈。在去年战胜了欧洲围棋冠军樊麾后,AlphaGo与九段高手李世石之间的对弈,成了科学技术领域和新闻界的重大事件。 阿尔法围棋(AlphaGo)是一款围棋人工智能机器,由位于英国伦敦的谷歌(Google)旗下DeepMind公司的戴维·西尔弗、艾佳·黄和戴密斯·哈萨比斯等团队开发。AlphaGo这次与李世石的比赛五盘三胜,胜者可获得奖金100万美元。此前李世石曾表示,自己看过AlphaGo的对局,也会做一些针对性的准备,认为机器人AlphaGo的棋力相当于三段棋手的水平。如果人工智能技术继续发展的话,再过一至两年,比赛的结果将很难预料,但AlphaGo表现出乎所有人意料。 在首尔四季宾馆,经过4个多小时的对弈,到第176手AlphaGo在围棋棋盘上落下了最后一“石”,曾获多项世界冠军的九段棋手李世石向谷歌AlphaGo认输,AlphaGo以3比0率先获胜,“石破天惊”,全球哗然!  科幻电影迷和“强人工智能”追求者把这次“人机大战”看成是人类社会“奇点来临”(Ray Kurzweil:“The Singularity Is Near”)的一个信号,既然机器的智能可以胜过人的智能,机器反过来控制人类和统治世界就是可能的,一些大科学家、企业家都对人工智能的强大远景感到忧虑,比如英国“独立报”网站(http://www.independent.co.uk/news/science/stephen-hawking-ai-could-be-the-end-of-humanity-9898320.html )就刊登有关资讯,引用霍金的话:人工智能将是人类的终结吗?像这些并非笑谈的认真思考与人工智能发展的新高峰形成了当前全世界关注的大浪潮;虽然有很多业内人士认为真正能达到人的智能的机器的出现在时间上仍很遥远,但这并不能抹去这种笼罩在人类头顶上的阴影。另一方面,仍然有很多人相信,机器与人具有本质的区别,机器不会具有真正的感情、自我意识、良心、社会责任等人类独具的能力,遗憾的是现在并没有看到在理论、逻辑上可以对这种信心做出的有力支持,哲学家、人类学家、社会学家、文化理论家们似乎尴尬,因为对“智能”、“知识”、“情感”、“自我意识”等等最基本的概念几千年来几无定论,人工智能几乎把由概念和逻辑构成的晦涩、复杂、精致的庞大哲学和抽象理论轻松地推到一边去了,在人工智能发展的速度难以预测的情况下,所有的人都是哲学家,都直接面对我们人类和世界的命运:十年或五十年? 二、 “围棋之战”不等于“人、机之战” AlphaGo与樊麾、李世石的对弈是“围棋的人、机之战”,不是也不等同于一般意义上的“人、机之战”。AlphaGo是一台学习了历史上所有围棋高手经验的机器,AlphaGo对弈樊、李实际是所有过去的围棋高手(经验)对弈一个围棋高手,所以无论谁胜,都是人棋游戏,在“胜、负”的意义上,都是人与人之间的对弈游戏,不是一般意义上的“人、机之战”。   把人机对弈看成是“人、机大战”是层次上的严重混淆,这种混淆误导人们对人工智能的认识,认为所有人设计的机器具有“天生”的与人的对立性,就是把机器的“自主”能力等同于人的自主能力,认为机器能“学习”,就是一种自主性,也就是把机器“学习”等同于人的自主性学习。   迄今为止的“计算机”都是“算法计算机”,即由“机器”执行“算法”进行“计算”,所以计算机需人编制程序才能工作。计算机的硬件和软件是分离的,一台元器件组装的“祼机”首先要装入操作系统才能开机(“点亮”),然后装入如“看图”、“办公”等应用软件才能工作,所以计算机的工作能力是由人灌装进机器里面去的。   “机器学习”就是不需要人事先灌装程序得到工作能力的人工智能,“机器学习”与“算法计算”的本质区别不在于“计算”而在于“判断”,比如图形识别、语音辨析等,这实际上是人在日常生活中遇到的最多的也是最基本的问题,所以也是人的一种基本能力,这种能力是无法事先学习的,“只能在游泳中学会游泳”,这只是一种个人性的经验。   “机器学习”的这种不同于“算法计算”的判断能力确实是一种经验的学习途径,“机器学习”的能力源于“人工神经网络”(ANN),ANN是模仿大脑中的神经元、突触的联接而得到的对数据特征提取和判断的能力,“机器学习”就是通过大量的样本训练使机器“记住”了某些特征,这样就可以用这种特征去甄别要处理的对象。   AlphaGo就是通过大量的围棋实战棋谱训练而得到对棋局整体性的把握能力,人也可以通过棋谱的学习而提高棋术,但人一定是参与实战而得到下棋能力,机器则恰恰是“先学好游泳”,这才是人、机之间的根本区别。但机器为什么可以在棋盘上战胜人呢?这是因为在对经验的记忆能力、反应的速度上人不如机器,所以机器是以记忆量与敏捷性的优势上战胜人的,但是机器的看盘“直觉”和走子的策略上却是学习了人的经验的结果。   由于人、机围棋对弈限定了人的能力只能在棋盘上,人、机之间的围棋对弈最多只是体现了人机复杂关系中在“人工智能”这个问题上的局部关系,以“围棋之战”等同于“人、机之战”是造成对人工智能本质的误解的一个基本原因。   机器能与人对弈只是表明机器成功地“学习”了人下围棋的方法,AlphaGo对人获胜也只是证明“机器学习”这种“人工智能”的学习能力得到了肯定。机器在一种人、机的游戏中战胜了人,这与“机器战胜了人”这个大题目是层次上非常不同的事情。   人与人的智能的关系本身就是一个不确定性的问题,在能做出“人的智能”与“人工智能”谁比谁更强大这种判断之前,我们现在还不知道人的“智能”究竟是什么?   三、 “模仿”与“学习”   朱光潜说“‘模仿’和‘学习’本来不是两件事。姑且拿‘学习’来说。小儿学写字,最初是描红,其次是写印本,再其次是临帖。这些方法都是在借旁人所写的字做榜样,逐渐养成手腕筋肉的习惯。……推广一点说,一切艺术上的模仿都可以作如是观。比如说作诗作文,似乎没有什么筋肉的技巧,其实也是一理。诗文都要有情感和思想。情感都见于筋肉的活动,我们在前面已经说过。思想离不开语言,语言离不开喉舌的动作。比如想到“虎”字时,喉舌间都不免起若干说出“虎”字的筋肉动作。这是行为派心理学的创见,现在已逐渐为一般心理学家所公认。诗人和文人常欢喜说‘思路’,所谓‘思路’并无若何玄妙,也不过是筋肉活动所走的特殊方向而已。……”   “学”,繁体字写作“學”,会意字,本义教塾中的孩子模仿。“习”,繁体字写作“習”,会意字,从羽,与鸟飞有关,本义小鸟反复地试飞。学习,先模仿别人的经验,然后反复练习,慢慢掌握技巧,变成自己的技能,养成习惯,“习以为常”,就是说通过“习”使之变为“常”。大意就是说,身体力行的“模仿”是最根本的“学习”。王阳明就特别强调“知行合一”,表达了后期儒家对日益增长的“知识”与个人心、性之间的关系以及个人身、心关系的一致性。 按中国传统文化,“学而时习之”,强调个人的在“学习”中的主体性,“学”之于人。“习”之于己,谓之“习得”,“习”就是个人的主体过程,“学”只是一种被动的模仿行为,自身的主动性才是真正的动力,人的主体性也是学习的最终归宿。“子曰:不愤不启,不悱不发。举一隅不以三隅反,则不复也。” (论语·述而) 孟子曰:“君子深造之以道,欲其自得之也。自得之,则居之安;居之安,则资之深;资之深,则取之左右逢其源,故君子欲其自得之也。”(孟子·离娄下)现代的皮亚杰(Jean Piaget 1896-1980)也认为,儿童的心理(智力)既不是起源于先天的成熟,也不是起源于后天的经验,而是起源于主体的动作。克拉申(Stephen D. Krashen 1941-) 提出“习得--学习差异” 假设,认为语言的习得就是一种无意识地、自然而然地学习,学习者通常意识不到自己在习得语言;而语言“学习”则是通过设定的教学计划和教材并有意识的练习、记忆,达到对所学语言、语法的掌握。习得的结果是潜意识的语言能力;而学习的结果是对语言结构有意识的掌握,语言的“学习”只起对语言的检测、编辑的作用。 西方文化传统重在知识,“学”在致“知”,从苏格拉底的“知识就是美德”到培根的“知识就是力量”,学习(learning)主要是指知识的学习,虽然知识的学习于人是不可或缺的,知识的积累和进化是人类文明最主要的组成部份和动力,但片面强调这种知识性的学习也会产生对人自身主体性的困惑。似乎是在“机器学习”这个概念中,人们才领悟到机器是由人“模仿”人的神经系统而使机器得到“学习”能力的,这里的“模仿”是指人在计算机中“建模(modeling)”方式的模仿,这种强调区分了人与机器在层次上的不同。实际上这里就隐含了模仿的三个层次,首先是人对神经网络的模仿(imitating)而得到ANN这种“机器代理”(Agent),然后是在“算法计算”的通用计算机中建模(modeling)ANN,然后才是机器的学习训练(“有监督”或“无监督的”机器学习)以得到机器的人工智能性。现在广泛使用的“机器学习”大抵上只是理解为将人类的既有经验纳入机器中,比如数据库式的专家系统和ANN式的“机器代理”(Agent)都是这种意义上的“学习”。 人、机之间最大的区别就在于,人主要是天生的主体学习者,机器则是在人造的“先天性”上才得到自己的“学习”能力的。 由于人工智能的出现而引发了我们对人的智能更深刻的理解,也带来了很多相关观念和概念的更新,并正在引发人 对 自我和世界的重新认识,对“模仿”和“学习”的意义和之间关系的分析能够帮助我们更加认识到,区别图灵或冯·诺依曼构型的计算机的“算法计算”与“机器代理”(Agent)的Matrix的重要(可参见 )。我们一直认为只有基于对人的智能的深刻理解,才能清楚地区分机器的人工智能与人的智能之间的复杂关系,而不能以人工智能的观点去理解人的智能,正像在算法理论中,不能以“多项式时间”(Polynomial time)的计算能力去定义“不确定性问题”(NP,Nondeterministic Problem)一样 。 总的来说,一方面,AlphaGo确实是学习了弈棋高手的经验才胜过了人,但另一方面,应更应该看到,人模仿了大脑神经系统制造了可以“学习”的机器,然后才是这个机器去“学习”人的经验,这两方面才是对AlphaGo与人之间的“围棋之战”和一般意义上所谓的“人机之战”完全不同的层次的真正分别,这也是对“人工智能”的智能性的正确理解。   四、 围棋的全局性与AlphaGo   在“深度学习”这个概念下,AlphaGo虽然不能说全是基于人工神经网络(ANN)的基础,但AlphaGo的确把对决游戏的人工智能发挥到了极致,各种强大的搜索算法无法应对的巨大搜索空间就是由对棋局的“直觉”判断的ANN而被转化为可能搜索的。从“计算”基本原理上看,ANN确实是把以往的基于“算法计算”的人工智能推进到基于“代理计算”的人工智能的道路上,ANN所表现的这种全局性的判断能力,就是人类常引以为傲的“直觉”,但迄今为止,人们仍然不了解人的直觉的秘密,因此,即使是ANN研究的专家也都承认对ANN的基本原理仍然不了解。 围棋的“局面”是一种具有全局意义的对决游戏,围棋中的盘面局势不是由棋子与棋盘上的位置关系决定的,而是由每一个棋子与其它所有的棋子组成的“局面”决定的,而且每一棋局的局部与全局具有同样的关系,这也正是现在常见的“深度”这个术语的隐含意义,所谓“卷积神经网络”(Convolutional Neural Network,CNN)也正是在这个意义上发展起来的。 国际象棋的棋子具有个别性,棋子的等级与其在盘面上的位置大体决定了棋子的价值,能下国际象棋的“深兰”就是建立了所有棋子与棋盘上的位置组成的“空间”,然后用传统的算法搜索方法和技巧对所有可能的走子行为进行整个可能空间的搜索,从而可以找出最佳走法,但这种方法对围棋棋子和棋盘位置组成的巨大的空间无能为力,DeepMind团队在人工神经网络ANN的基础上,研制了对围棋的“局面”判断方法,这就是AlphaGo中的“价值网络”与“策略网络”能够对围棋局面做出优劣判断,像高手对盘面的直觉印象一样,全局性判断虽然不能直接产生具体的走法,但可以提供局面优、劣判断以缩减搜索空间提供给算法搜索。这种价值判断与算法搜索相结合的方法就类似于人的左、右大脑的工作。 虽然无法得知AlphaGo的组成细节,但DeepMind是这样透露大体情况的:“First, the depth of the search may be reduced by position evaluation: truncating the search tree at states and replacing the subtree belows by an approximate value function v(s) ≈ v*(s) that predicts the outcome from states. This approach has led to superhuman performance in chess, checkers and othello, but it was believed to be intractable in Go due to the complexity of the game. Second, the breadth of the search may be reduced by sampling actions from a policy p(a|s) that is a probability distribution over possible moves a in positions. Recently, deep convolutional neural networks have achieved unprecedented performance in visual domains: for example, image classification, face recognition, and playing Atari games. They use many layers of neurons, each arranged in overlapping tiles, to construct increasingly abstract, localized representations of an image. We employ a similar architecture for the game of Go. We pass in the board position as a 19 × 19 image and use convolutional layers to construct a representation of the position. We use these neural networks to reduce the effective depth and breadth of the search tree: evaluating positions using a valu和e network, and sampling actions using a policy network.”——首先,搜索深度可以由棋局评价缩减:在(价值网络对)棋局(评价中)截短搜索树,并重置(可以搜索的)近似最优v(s) ≈ v*(s)的子枝层,这是(价值网络对)局面评价产生的结果。这个方法导致在棋子、棋格和局部棋块中超常人的策略,但在复杂的围棋游戏中(这下一步的走子策略)仍然是难(搜索)的;因此第二步,(此层中)搜索广度可以由(策略网络)在样本行为中对可能走子在棋局上几率分布p(a|s)进行缩减。现在,深度卷积神经网络在视像领域取得了出人意料的效果,比如图像分类、面孔辨识和ATARI游戏中。他们使用了很多神经层,每个都置于重叠的层次中,以对一个构建不断增长的抽象、局部表达。我们在围棋游戏中采用了相同的结构,我们放弃了对19 × 19盘面位置(的算法)而使用了卷积层构建棋局的表达。我们使用了这些神经网络缩减了搜索树的有效深度和广度:局面评价采用了价值网络,而走子步骤采用了策略网络。 结语:从人与机器的“学习”性质和关系上,我们可以看出, 人工智能中的人、机关系既是人与客观世界的关系,也是人与社会、人与自己的关系,这种多层次之间的缠绕关系的复杂性超过一般的多元、交互关系,人工智能给我们带来的不仅是物质和社会文明上的进步和提高,也给人和世界带来了更多的不确定性。 主要参考资料    Mastering the game of Go with deep neural networks and tree search, Nature 529 (7587): 484–489    朱光潜,“不似则失其所以为诗,似则失其所以为我”,《谈美》系列之十三。    周剑铭,智能哲学:人与人工智能 网文    周剑铭 柳渝,机器与“学习”——寻找人工智能的幽灵,网文    柳渝,不确定性的困惑与NP理论,http://blog.sciencenet.cn/home.php?mod=spaceuid=2322490
个人分类: 智能哲学|3128 次阅读|2 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-17 11:28

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部