twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

AI的失败之处

已有 1025 次阅读 2023-3-30 20:51 |个人分类:2023|系统分类:科研笔记

语言学家史蒂芬·平克在《思想本质》中说的:“语言是人们表达思想和情感的媒介,但并不等同于思想和情感本身”,“思想是思想、语言是语言。”


人类的意向性是还没有形成自然语言表征的思维倾向。某些语词或命题的意义,只有在一定的生活形式之上,才能真实地显现出来。价值命题即是其中的一种,它的意义之显现,一定是与某一种生活形式相连,而不在于科学意义上的真或假。有关这一点,正如皮尔斯所言:“宗教命题的意义不在于如果它是真的它必然会产生的功能,而是一种使信服它的人的生活产生重大差别的功能。宗教信仰不同于事实信仰,它不是假设,它不以事实为依据,它不被视为有多大的可能性。”。


维特根斯坦所发现的,数学是同义反复的,AI又何尝不是?!他在《逻辑哲学论》中的两句话说就是:“上帝不在世界之内显露自身。”,他认为世界是事实的总和,而事实的世界,总是充满着各种各样的冲突和意外,因此是一个偶然性的世界。而超验的东西,代表着绝对的价值,这就意味着它们不可能存在世界之内。所谓“上帝不在世界之内显露自身”,即意味着“它没有使自己显现在任何个别事实或事实的集合中。”上帝是一种必然性的存在,或许也就是人类的思维。


海森堡曾经有这样一段表述:“我们必须记住,我们观察到的不是自然本身,而是我们的提问方式揭示的自然。


普朗克认为:“科学是内在的整体(Science is inherently a whole),被分解为单独的部门,不是取决于事物的本质,而是取决于人类认识能力的局限性。实际上存在着由物理学到化学、通过生物学和人类学到社会科学的链条。这是一个任何一处都不能被打断的链条。”    


艾略特在其《传统与个人才能》中认为:“诗之所以有价值,并不在于感情的“伟大”与强烈,不是由于这些成分,而在于艺术作用的强烈,也可以说是结合时所加压力的强烈。”


哥德尔指出的:“不管计算机发展到什么程度,最后跟它说话的只能是人,而不是计算机。”

俄国诗人纳德松有句话:“世界上没有比语言的痛苦更强烈的痛苦。”语言作为思想的表达工具是帮助人们思维,但同时也是阻碍人类思维的工具。对于人工智能而言更是如此。


mmexport1677718144226.jpg


许多AI系统不稳定,它正在成为应用领域的一个主要问题,尤其是它们越来越多地用于疾病诊断、金融博弈或自动驾驶汽车等高风险领域。


不稳定性是现代人工智能的致命弱点,一个数学悖论显示了人工智能的局限性。研究人员发现的悖论可以追溯到 20 世纪的两位数学巨人:艾伦·图灵和库尔特·哥德尔。20世纪初,数学家试图证明数学是科学的终极一致语言。然而,图灵和哥德尔展示了数学核心的一个悖论:无法证明某些数学陈述是真还是假,一些计算问题无法用算法解决。而且,只要一个数学系统足够丰富,可以描述我们在学校学习的算术,它就无法证明其自身的一致性。



对此,科尔布鲁克(Matthew Colbrook) 博士说:“数学存在固有的基本限制,同样,人工智能算法也无法解决某些问题。



除了人为的操作和统计的使然外,AI还不能较好地处理等效、等价、类比、因果及其混杂问题。


不能理解并实现非存在的有,即合理的或不合理的等效心理重组、旋转、弥聚任务)。


从语法到语义的跳跃一般是常识性的,但对于个性化意向、非常识性的则很难实现完美的跃迁。


科学、技术、数学上讲有因有果、讲why,但人世间除了因果(包括人造的、自然的以及混杂的)事以外,世界上还有许多有因无果、有果无因的事……所以有人就说太阳底下就没有新奇的事。人造的不一定完全不好,比如人工智能。一个人造的因果是个别,一群人造的因果叫做常识或公理。


AI不知道如何在通信降级和拒止环境中进行判断、制定决策,且大都会在封闭结构里进行聚合计算,没有在开放环境下进行有效的弥散算计。


计算计既是一种开放的封闭结构,同时也是一种封闭的开放结构。


合理的等效是理性的内核,不合理的等效则是灵性的源泉,二者结合更是表象与本质的统一,同时也是产生主观与意识的基础,可惜AI及其开发者没有感知到这些,或者感知到了这些却或不能或不想或不敢或不知实现之。



因为不能等价,所以只能等效;因为不能等效,所以只好类比;没有类比,就没有因果;没有因果,就没有AI。


其实,一元、二元、三元、……多元并不重要,重要的是变元;主体、客体、三体、……多体不重要,重要的是变体;没有等效、等价、类比、因果的变化,就没有真实动因的智能与反智能存在。


—————————————


智能之所以有价值,并不在于理性的“伟大”与强烈,不是由于这些成分,而在于艺术(感性及灵性)作用的强烈,也可以说是多者结合时所加压力的强烈。




英文书封面.jpg


每一个翻译都是解释,


每一个解释都是翻译。



GPT的先天不足包括:


1. 难以处理长文本:由于GPT是基于Transformer模型,它不太适合处理长文本。当输入文本很长时,模型需要更多的计算资源,这会导致计算效率降低。

2. 缺乏常识知识:GPT主要是通过大规模的文本数据进行训练,但这种训练方法无法为模型提供常识知识。因此,当GPT遇到需要常识判断的问题时,可能会出现错误的答案。

3. 容易受到样本偏差的影响:由于GPT是建立在大规模文本数据上的,如果训练数据存在样本偏差,那么模型就会受到影响。这可能导致模型在处理不同领域的文本数据时出现问题。

4. 缺乏人类推理能力:虽然GPT可以生成自然语言文本,但它仍然缺乏人类推理能力。例如,GPT无法像人类一样从上下文中推断出隐含的含义或逻辑关系。

5. 对新领域的适应性不足:GPT是在大规模文本数据上训练的,因此对于新领域的文本数据,它的适应性可能不足。这意味着模型需要重新训练才能适应新的领域。





https://m.sciencenet.cn/blog-40841-1382403.html

上一篇:[转载]ChatGPT、尤瓦拉·赫拉利对三联问题的不同回答
下一篇:ChatGPT的哲学基础是?

2 林燕丹 许培扬

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 08:35

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部