twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

LeCun与Marcus的观点也对,也不对 精选

已有 3979 次阅读 2022-6-18 08:11 |个人分类:2022|系统分类:科研笔记


人机之别,一个是非之心,一个是否(是不是)之芯


没有比人更高的阶,没有比机更快的算,没有比环境更强的平台。


智能是对各种态势进行感知及调整的能力。

所有的符号里都包含着非符号,所有的计算里都蕴藏着非计算。A中包含着非A,道者反之动,所以数学和上帝特别强调:A=A,对于“A中包含着非A”就不是数学和上帝。

东方智能的一多关系不仅涉及事实,而且还涉及价值。西方智能的一多关系主要涉及客观事实。

计算是基于数的,算计最突出的特点在于反映非数关系,混有感性因素。

计算使用参数建模,算计创造参数建模。



自从今年三月份 Gary Marcus 发表了「深度学习撞墙了」这个观点,人工智能学界就陷入了一波又一波的争论。

争议初期,深度学习三巨头还对此保持沉默。但在本月初的一场播客节目中,Geoffrey Hinton 率先驳斥了 Gary Marcus。

Hinton 说完,Yann LeCun 也发声了。

近日,美国 NOEMA 杂志发表了一篇题为《What AI Can Tell Us About Intelligence》的署名文章,作者是图灵奖得主 Yann LeCun 和纽约大学计算机科学系博士后 Jacob Browning 二人。

在这篇文章中,Yann LeCun 和 Jacob Browning 探讨了人工智能和人类智能的一些问题,且首次正式回应「深度学习撞墙了」这个观点

无标题1.jpg

代数大脑封面.jpg



今天看似不可逾越的墙是符号推理,即以代数或逻辑的方式操纵符号的能力。我们知道,解决数学问题需要根据严格的规则逐步处理符号。作为《The Algebraic Mind》(中文版见上图)的作者和《Rebooting AI》的作者之一,Gary Marcus 最近声称深度学习无法进一步取得进展,因为神经网络在处理符号操作方面存在困难。然而,许多深度学习研究人员确信深度学习已经在进行符号推理并将持续改进。


这是一场关于深度学习前景的辩论。辩论的核心是对符号在智能中的作用存在两种不同的看法:一种认为符号推理必须从一开始就被硬编码,另一种认为机器可以像人类一样从经验中学习。这涉及到我们应该如何理解人类智能,进而去追求人类水平的人工智能。


符号推理需要精确的计算规则。例如,符号可以有许多不同的顺序,(3-2)-1 和 3-(2-1) 的区别很大,以正确的顺序执行正确的规则至关重要。Marcus 认为,这种推理是认知的核心,对于为语言提供潜在的语法逻辑和数学的基本操作至关重要。更广泛地说,他认为因果推理等更基本的能力背后有一个潜在的符号逻辑。


实际上,人工智能领域始于研究这种推理,通常称为符号人工智能 ,或「老式人工智能(GOFAI)」。但是,将人类专业知识提炼成一套规则是非常困难、耗时且高成本的。这被称为「知识获取瓶颈」。虽然为数学或逻辑编写规则很简单,但世界本身却非常模棱两可,事实证明,不可能编写管理所有的模式规则或为模糊概念定义符号。

然而,这正是神经网络擅长的地方:发现模式和接受歧义。神经网络是一组相对简单的方程,它们学习一个为输入提供输出的函数。


神经网络可以精确训练,因为实现的函数是可微的。换句话说,如果符号人工智能类似于符号逻辑中使用的离散 token,那么神经网络就是微积分的连续函数。这允许在学习更好表征的方向上稍微调整变量来实现缓慢、渐进的进展,这意味着所有数据点之间的更好拟合以及函数在类别之间存在边界。然而,当涉及到严格的规则和离散符号时会出现问题:求解方程时,我们通常需要准确的答案,而不是近似值。


这是符号人工智能的优势,Marcus 建议简单地将两者结合起来:在深度学习模块的顶部插入一个硬编码的符号操作模块。这听起来很有吸引力,因为两种方法可以很好地互补。因此,一个具有不同工作方式的模块混合系统似乎可以提供两全其美的效果。深度学习领域也认同符号操作是创建类人 AI 的必要特征。


但争论的焦点是符号操作是否需要内置到系统中,其中符号和操作能力是由人类设计的,形成一个用于操作离散符号的模块。该模块是不可微分的,因此与深度学习不兼容。但这些建立神经网络不能进行符号操作的假设基础上。



英文新书封面.jpg


概念是思维的基本单位。明确概念是判断与推理的前提和基础,如果没有清晰的概念的界定,由此而来的判断和推理就也就很难保证其正确性。算计不是计算,更不能把算计异化为单纯的理性逻辑。这些概念替代算计并作为智能术语,必然给人机混合智能的理解及执行带来了巨大的混乱。


智能是自然与人工的结合,准确地说,依目前的数理、物理水平,通过编写计算机程序是不可能实现人类水平的智能的,必须另辟蹊径。人机之间、态势之间、感知之间、计算与算计之间常常具有非互惠作用现象,即作用力不等于反作用力。如何量化分析这些等慧相互作用呢?并且,现有的逻辑体系很难判断处理各种意外,如塞翁失马的大逻辑与刻舟求剑的小逻辑。人机结合现阶段很难实现有机的融合,仍处于相对简单的交互水平,难点之一就在于价值意向性的形式化。


鉴于机器只有局部性事实逻辑,没有人类的整体性价值逻辑,我们可以尝试把人机结合起来进行功能与能力的互补,用人类的算计这把利刃穿透机器计算不时遇到的各种各样的“墙”。

人机融合中有价值的东西通过动态环境使得事实过程变成对智能逻辑而言有意义的事情,事实不因事实本身是什么而是什么,而是在与价值的融合之中是其所是,这就需要建立一套新的逻辑体系以支撑之,即人机融合的计算-算计逻辑体系。


相比之下,人重价值逻辑,机偏事实逻辑,人侧辩证逻辑,机向形式逻辑。那么人机融合则是辩证的形式逻辑or形式的辩证逻辑,这就涉及到一个逻辑转化的难题,即事实形式化逻辑如何转化为价值辩证逻辑,或价值辩证逻辑如何转化为事实形式化逻辑问题。


表面上,人类的辩证逻辑是用来思考问题而不是解决问题的,解决问题要靠形式逻辑。实际上,这是缘于对形式化计算逻辑与辩证性算计逻辑的认识不清所致,与计算思维不同,算计思维方式在很多方面都与计算逻辑相悖。


从历史上看,计算逻辑思维的基础确立在下述3个定律之上。


1.同一律:A=A,无论是什么,它就是它。A是它本身,而不是其他什么事物。

2.无矛盾律:A和非A不可能同时发生。没有什么事物同时既是它又不是它。一个命题和它的相反面不可能同时为真。

3.排中律:任何事物一定要么是,要么不是。A或者非A为真,但两者之间不存在其他情况。

算计逻辑思维常常认为:

1.非同一律:A/=A:无论是什么,它不一定是它。A既是它本身,也可以是其他什么事物,阴中有阳,阳中有阴,万事万物不易、变易、…随机而变,不是静止固定不变的、甚至是可以相互转化的。

2.矛盾律:A和非A可能同时发生。任何事物同时既是它又不是它。一个命题和它的相反面可能同时为真。在特定情境下,可以白马非马,可以白马是马,可以指鹿为马,还可以指马为鹿。

3.非排中律:任何事物不一定要么是,要么不是。A与非A可以同时为真或假,两者之间可以存在其他情况。符合量子物理中的叠加、纠缠,一个事物的属性及与其它事物的关系往往与观察者有关。



世界是复杂的,复杂的世界不都是科学和计算,而是科学与非科学、计算与算计融合的计算计系统。


而计算计系统需要崭新的逻辑体系支撑,而不仅仅是与或非等“石器和木棒”。


人机器人交互封面.jpg

计算如剑,算计如桥


LeCun与Marcus的观点都对,也都不对



LeCun、Geoffrey Hinton 等人认为神经网络不需要将符号和代数推理硬编码到其中就可以操纵符号。深度学习的目标不是机器内部的符号操纵,而是世界系统中出现的正确类型的符号使用行为。

为什么深度学习撞墙的说法如此具有挑衅性?如果 Marcus 和先天论者是对的,那么深度学习将永远无法实现类人的 AI,无论它提出了多少新架构或投入了多少计算能力。不断添加更多层只会令人困惑,因为真正的符号操纵需要一个与生俱来的符号操纵者。而且,由于这种符号操作是几种常识能力的基础,因此深度学习系统将永远不会拥有任何东西,只能拥有对事物粗略、现成的理解。

相比之下,如果深度学习的倡导者和经验主义者是正确的,那么插入符号操纵模块的想法是令人困惑的。在这种情况下,深度学习系统已经在进行符号推理,并将继续改进它,因为它们通过更多的多模态自监督学习、越来越有用的预测世界模型以及用于模拟的工作内存的扩展以及评估结果来满足约束。引入符号操纵模块不会导致更像人类的 AI,而是迫使所有「推理」通过一个不必要的瓶口,让我们与类人智能渐行渐远。这可能会切断深度学习最令人印象深刻的方面之一:它能够提出比人类程序员想象的更有用和更聪明的解决方案。

尽管赌注很高,但同样重要的是,这些辩论中提出的许多问题至少在某种程度上是次要的。比如一些讨论:深度学习系统中的高维向量应该被视为离散符号(可能不是),实现深度学习系统所需的代码行是否使其成为「混合」系统(语义),在复杂游戏中获胜是否需要手工的、特定领域的知识,或者它是否可以学习(说得太早了)。还有一个问题是混合系统是否有助于解决围绕人工智能的伦理问题(否)。

而这一切都不是为了证明这场愚蠢的炒作是合理的:当前的系统没有意识——它们并不能理解我们,强化学习还不够,你不能仅仅通过扩大规模来建立类人智能。但所有这些问题都与主要争论无关:符号操纵是否需要硬编码,还是可以学习?

这是停止研究混合模型(即具有不可微分符号操纵器的模型)的呼吁吗?当然不是。研究人员自 1980 年代以来一直在研究混合模型,但尚未证明它们是灵丹妙药——或者在许多情况下,甚至远不及神经网络。更广泛地说,人们应该怀疑深度学习是否已达到极限。

通过以上分析,我们可以看出:深度学习能够解决不少问题,同时仍有大量的问题不能解决,这些不能解决的问题可以通过人类的智能加以权衡、分解、逼近解决,未来的真正智能形式应该是人机环境混合的系统智能,文理兼备、通情达理、事实价值、无往不前……






https://m.sciencenet.cn/blog-40841-1343461.html

上一篇:脉冲神经网络与态势感知计算计
下一篇:人-机器人交互导论

3 张俊鹏 郁求恩 高峡

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 20:46

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部