twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

为什么说GPT先天不足?

已有 1715 次阅读 2023-3-26 10:53 |个人分类:2023|系统分类:科研笔记


问:现在的博弈论有何不足?

CHATGPT回答:

博弈论的缺点主要包括以下几点:

1. 假设过于简化:博弈论往往基于一些理想化的假设,如玩家的理性和信息完全透明等,但在现实生活中,这些假设往往难以满足,因此博弈论的结论可能与实际情况有所偏差。

2. 无法涵盖全部情况:博弈论只能处理有限的、特定的情况,而现实生活中的决策问题往往是复杂、多变的,博弈论很难覆盖全部的情况。

3. 缺乏数据支持:博弈论往往需要大量的数据支持,但在某些情况下,数据可能很难获取或者不准确,这将影响博弈论的应用效果。

4. 缺乏实践价值:博弈论的研究结果往往难以直接应用于实际问题中,需要进一步的实践验证和调整,这将增加决策的时间和成本。


问:在土地革命战争、抗日战争、解放战争、朝鲜战争中,不少武器装备军事体系具有优势的一方将领一直存在着一个疑惑:为什么飞机大炮打不过小米步枪甚至大刀长矛?!(我们官方的解释是由于他们“钢多气少”之故。)

CHATGPT回答:

这个疑惑的原因主要是由于战争胜负不仅取决于武器装备的先进程度,还取决于战术、战略、指挥等多方面因素的综合作用。尤其是在山地、森林等复杂地形中,武器装备的效能会受到很大的限制,而步兵作为军队的主力,具有灵活、机动、适应性强等优势,能够迅速占领地形、控制制高点,从而对敌人形成有效的压制和限制。此外,步兵也是军队的“心脏”,武器装备虽然可以提高杀伤力,但要发挥其最大效能,还需要有强有力的指挥和配合,而这一点往往需要步兵的密切配合和支援。因此,即使是先进的武器装备,如果没有得到有效的指挥和配合,也难以在实际战斗中发挥出其应有的作用。

接着问:什么是钢多气少?

CHATGPT回答:

钢多气少是指在钢铁制造过程中,钢铁中含有较高的碳含量,而氧气含量较低。这种情况通常是由于冶炼过程中氧气供应不足或者反应条件不充分导致的。钢多气少会使钢铁质量下降,强度和韧性都会受到影响。

———


从上面的两个问答我们可以看出,在连续问题的追问中,其实机器是不理解概念的,机器理解的是概率分布。语言,每一个字的出现,都是有概率分布的。它的答案是基于概率的一种推理,不是概念的推理。

然而,人类的思维语言常常存在于自然语言之外,人类的算计往往在概率之外,这是由于人类的算计既包括理性也包括感性,理性中可以存在规则秩序与概率统计,感性中则与规则、概率关系不大,而是情感、信任等有密切的联系。利用模棱两可信息的能力很可能与感性有关。

爱因斯坦有一句名言:重大问题的解决方案永远不可能在产生这个问题的维度上出现!

所以,智能问题的解题思路不可能在智能问题本身这个维度上求解,要跳出智能问题,在另外的维度寻求答案。

那么另外的维度是什么?

哈耶克认为:由于知识的分散性,经济计划本质上是有缺陷的。同样,由于知识随情境的可变性,基于规则或概率的理性智能也是有缺陷的。但在人类感性机制的调节下,这种不确定的可变性却可以被调教的可控有序。数学与博弈论就存在先天不足性,如理性较强,感性不足。

在哈耶克看来,对人类这样具有“有限理性”的动物而言,没有“客观”知识,只有“主体间客观”(intersubjective)的知识过程。

Chatgpt对于个体情感性诉求的回应,其实也仅仅属于对于输入的情感性关键词的回应,并非是真正站在人的角度做出的回应。这种虚假的“同理心”带给人类的情感回应其实是短期的,因为人们对于机器的能力并没有报以太高的期望,当机器产生了如此“情感化”的回应会让人觉得惊奇,这种惊奇让人感到有趣。就好比一个人在安慰你的时候编了一个故事,你会觉得平平无奇,而当你心里认为不具备“安慰”能力的机器给你编了一个故事,你反而感到惊喜。然而一旦机器的能力被接受,它所输出的情感类回应也就不再新鲜,那么也就失去了当前看似神奇的地位。

我们不能否认Chatgpt作为一个很有用的工具,可以在一些产品中增添类人的熟悉感,可以内置陪伴型机器人以增添更多功能,但是作为一个能够看透机器内核的人类,光靠Chatgpt产生所谓的“情感茧房”在短期内是不可能的。Chatgpt的出现将会冲击信息检索的方式,取代一些简单总结性的工作。 Chatgpt的语言模型再精准再像人类,终究只是机器,它所谓的创造能力都是基于大量的数据训练而来,是“有中生有”,而人最宝贵的“无中生有”它是做不到的,更不必说人类的价值判断等。

虽然人工智能通过01高低电平概率可以实现相关性,且可以使用“与或非”逻辑关系实现计算,但仍不能理解逻辑关系的少许变化,如“大与、小或、中非”,那么它是否能够有一天通过真值关系而突然发现了逻辑蕴含的意义呢?如果能,就相当于理解了“如果—那么”吗?如果不能,人工智能就无法为自己建立主体性和自我意识吗?

有人试举了几个人类无力解决的问题,似乎都触及了人类的智能极限,其中一个是:价值排序永远存在两难和歧视,不可减省的需要太多,因此无法解决优先性的问题;另外一个是:价值问题不存在一个真理解或普遍必然解。据说这两个来自休谟之问,简单地说,不存在关于“好”的普遍必然定义,因此,价值只是一个语境化的变量而不可能成为一个常数。

上面这位朋友的观点似乎还在理性智能中打圈圈,其实,对于人类而言,通过感性智能,可以很快地消除价值两难和歧视问题,不求最优解,只求满意解,不求“好”的绝对值,只求“好”的相对值就好,生活中又有多少绝对值呢?!如果没有,那么价值就可以被近似看成一个语境化的常数而不是一个变量,如此一来,才可能进行微积分式的活下去,不然呢?

衡量智能的一个基本原则就是能否有效地处理各种矛盾,若能,就是相对智能,若不能,就是GPT吧?!

另外,语言不一定就是思想的本质,维特根斯坦认为:“语言的界限就是我们世界的界限,没有语言就没有思维。”,或许他真的犯了一个错误,在人类的世界中,没有语言也有思维吧。




人机与认知实验室







https://m.sciencenet.cn/blog-40841-1381864.html

上一篇:老鹰酒吧
下一篇:人机混合智能:新一代智能系统的发展趋势

9 李剑超 蒋大和 崔宗杰 李升伟 黄河宁 许培扬 贾玉玺 林燕丹 高峡

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-24 19:39

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部