twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

人工智能的未来是人机环境系统智能

已有 1396 次阅读 2022-6-7 09:23 |个人分类:2022|系统分类:科研笔记

真正的军事智能或人工智能不是抽象的数学系统所能够实现的,数学只是一种工具,实现的只是功能而不是能力。只有人才产生真正的能力。所以,人工智能是人、机器、环境、系统相互作用的产物,未来的战争也是机器计算结合人的算计所得出的洞察结果。


军事智能就像战争一样,是一团迷雾,存在着大量的不确定性,是不可预知、不可预测的。从当前人工智能的发展趋势来看,可预见的未来战争中,存在着许多人机融合隐患仍未能解决,具体有:


(1)在复杂的信息环境中,人类和机器在特定的时间内吸收、消化和运用有限的信息,对人而言,人的压力越大,误解的信息越多,也就越容易导致困惑、迷茫和意外。对机器而言,对于跨领域非结构化数据的学习理解预测,依然是非常困难的事。


(2)战争中决策所需要的信息在时间和空间上的广泛分布,决定了一些关键信息仍然很难获取。而且机器采集到的重要的客观物理性数据与人类获得的主观加工后的信息和知识很难协调融合。


(3)未来的战争中,存在着大量的非线性特征和出乎意料的多变性,常常会导致作战过程和结果诸多不可预见性,基于公理的形式化逻辑推理已远远不能满足复杂多变战况决策的需求。鉴于核武器的不断蔓延和扩散,国家无论大小,国与国之间的未来战争成本将会越来越高。无论人工智能怎么发展,未来是属于人类的,应该由人类共同定义未来战争的游戏规则并决定人工智能的命运,而不是由人工智能决定人类的命运,究其因,人工智能是逻辑的,而未来战争不仅仅是逻辑的,还存在着大量的非逻辑因素。


(4)鉴于各国对自主装备分类不同,对于强人工智能或叫通用人工智能类武器概念的定义和理解差距都很大,所以当前最重要的工作不时具体的技术问题如何解决(技术迭代更新的非常快),而是有关人工智能应用基本概念和定义如何达成共识,如::①什么是AI?②什么是自主?③自动化与智能化区别是?④机器计算与人算计的区别是?⑤人机功能/能力分配的边界是?⑥数据、AI与风险责任的关系如何?⑦可计算性与可判定性区别等等。


    有的定义还很粗略,需要进一步细化,如从人类安全角度看,禁止“人在回路外”的自主武器是符合普世价值且减少失控风险必要之举,但是什么样的人在系统回路中往往就被忽略,一些不负责任的人在防疫系统中可能会更糟糕;


(5)对于世界上自主技术的发展情况,建议设立联合评估小组,定期对自主技术发展情况进行细致的评估与预警,对技术发展关口进行把关,对技术发展进行预测分析,对进行敏感技术开发的重点机构和研发人员进行定向监督,设立一定程度的学术开放要求。


(6)AI军用化发展所面临的安全风险和挑战主要有:


①人工智能和自主系统可能会导致事态意外升级和危机不稳定;


②人工智能和自主系统将会降低对手之间的战略稳定性(如中美、美俄之间战略关系将更加紧张);


③人和自主系统的不同组合(包括人判断+人决策、人判断+机决策、机判断+人决策、机判断+机决策)会影响双方的态势升级;


④机器理解人发出的威慑信号(尤其是降级信号)较差;


⑤ 自主系统无意攻击友军或平民的事故将引起更多质疑;


⑥ 人工智能和自主系统可能会导致军备竞赛的不稳定性;


⑦ 自主系统的扩散可能引发人们认真寻找对策,这些对策将加剧不确定性,且各国将担忧安全问题。




https://m.sciencenet.cn/blog-40841-1341896.html

上一篇:为什么说AI距离智能越来越远?
下一篇:什么是算计?

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-26 20:38

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部