博物学生存分享 http://blog.sciencenet.cn/u/antiscience

博文

勾勒姆、弗兰肯斯坦与机器人伦理:从玛丽到阿西莫夫

已有 13638 次阅读 2009-6-26 08:28 |个人分类:生活点滴|系统分类:人文社科|关键词:学者| 机器人, 伦理, 阿西莫夫, 机器人定律, 玛丽

勾勒姆、弗兰肯斯坦与机器人伦理:从玛丽到阿西莫夫
刘华杰
现在机器人种类已经有许多,虽然仍然比较初级,但许多人确信在不远的将来,机器人的发展会带来一系列伦理问题,比如情感问题、自我意识问题、人格权利问题等等,机器人与人之间的关系也会变得相当复杂。1978年时日本就发生过机器人杀人的事件;1985年一位计算机棋手突然向金属棋盘释放强大电流,当场杀死与它对弈的国际大师。(张显峰、程宇婕, 2009.04.21)
科学知识社会学(SSK)的活跃人物柯林斯与平奇1993年出版了后来获大奖的作品《勾勒姆:关于科学人们应当知道些什么》。勾勒姆(Golem)一词源于伊地语,也译作“泥人”。勾勒姆是犹太神话中的造物(creature),是人用泥和水,通过咒语和魔法,制造的具有人之特征的东西。勾勒姆的最突出特点是强有力,而且日渐强壮。它的本性并不能说是坏,相反它服从命令,按人的指挥为人做事,并且可以保护你免受敌人的威胁。但同时,它笨拙、莽撞和危险。如果未加好好管教,它甚至可能以其鲁莽而伤害其主人,即造它的人。
关于勾勒姆,有的传说中把它描写为邪恶、恐怖的怪物,更一般的是把它描写为体型庞大笨手笨脚的愚人,它(或他)既不知道自己有多大劲,也不知道有多笨或者有多无知。关键之处在于,在传说中,勾勒姆的形象有一丝丝差别,而这里面些微的“纽安斯”(nuance)会被放大为本质上不同的观念。柯林斯用勾勒姆作为“科学”的一种隐喻(metaphor),也许巧妙地考虑了传说中关于勾勒姆本身就有多重含义。果如此,这实在太妙了。如今人们理解科学也有多种道路和立场,这可以与不同版本的勾勒姆传说相呼应。
柯林斯坦诚地说,他这部书是想用“勾勒姆”解释“科学”,“我们试图证明它不是一个邪恶的造物,只是有点疯狂(或译成‘傻’)(it is not an evil creature but it is a little daft)。不要责备勾勒姆科学的过失;是我们人类在犯错误。如果勾勒姆尽力做其自己的事情,它不应受到责备。但是我们不能奢望过多。勾勒姆尽管强有力,它却是我们的文化(art)或者我们的技艺(craft)的造物。”雪莱夫人的《弗兰肯斯坦》与勾勒姆有密切联系,也为后来的科学作了隐喻式说明,尽管有些悲观。在《弗兰肯斯坦》中,不是拉比造“人”(怪物),而是科学家弗氏在造“人”。
女作家玛丽(Mary Wollstonecraft Godwin,1797-1851),那个著名诗人雪莱(Percy Bysshe Shelley)未来的妻子,20岁左右用两个月时间创作的《弗兰肯斯坦:或当代普罗米修斯》被认为是世界上第一部科学幻想小说,它于1818年元旦面世,随后被多次改编成戏剧和电影。玛丽1823年还亲自观看过改编的戏剧《弗兰肯斯坦的命运》。《弗兰肯斯坦》并不涉及许多具体的科学知识和科学推理,从现代的眼光看,它以一种巧妙的虚拟方式活灵活现地探讨了若干科学哲学与科学社会学问题。
玛丽似乎猜测到了,终有一天,某个科学家将像上帝一样造出一个或者多个“人”,而结局并不乐观。用诗人雪莱的话讲,玛丽这篇作品并非纯粹为了编织荒诞的鬼怪故事,“尽管故事不能作为活生生的事实为人所接受,然而它提供了一个新着眼点:借助于想象,较之单凭观察生活中的普通人事关系,更能全面地、居高临下地刻划人类的激情。”
这部科幻作品放在21世纪的现在,也许并不新奇,但它是1818年出版的,女作家塑造的“怪物”形象深深影响了后来的科幻作品,并且在更广泛的意义上影响了科学的“公众形象”,即在公众中,“科学是何种东西、看起来像什么”。如果我们仅仅因为它是一部幻想的作品,而不重视其中对科学、科学家、科学伦理所进行的描写,那就大错而特错了,毕竟相当多的公众可能仅仅是通过小说、游戏、传说、影视等等间接接触和了解科学的,他们无法分清哪些是正规的、可信的而哪些不是,反正都是关于科学的。如今大量的科幻影片继承了玛丽的传统,一直在塑造着科学的公众形象和科学的未来形象。从科学传播、科技伦理的角度,我们当然要关注这些文艺作品中的科学形象,因为它的影响力要远大于一打普通科普作家讳人不倦的努力(我们暂时不管谁传播的观念是正确的)。
1816年夏天,当时玛丽19岁,她与雪莱(当时同居但还没有结婚)、拜伦及拜伦的朋友(也说情人)到日内瓦郊外游玩。诗人雪莱为《弗兰肯斯坦》代写的序言中有一句:“那个季节阴冷多雨,傍晚我们围绕熊熊燃烧的柴堆烤火,时而用一些顺手可以找见的日尔曼鬼怪故事自娱。这些传说激发大家照猫画虎,试图如法自己创作相应的故事。”它点出了那篇传世佳作的创作动机和人物形象的来源。那些日尔曼传说中便可能有关于勾勒姆的故事,特别是有关布拉格大拉比罗(Loew)制造勾勒姆的传说。不料,不久天气放晴,其他朋友都前往阿尔卑斯山中游览去了,奇峰美景早使他们忘记了创作鬼怪故事的计划,唯有《弗兰肯斯坦》留了下来。
《弗兰肯斯坦》的故事并不复杂,全篇通过沃尔登(R. Walton)给姐姐萨维尔夫人(Mrs. Saville)的信件,用第一人称的方式讲出。全书结构为:诗人雪莱的序言;四封信;24章主体正文;第4封信的继续。沃尔登是个追求知识、渴望探险的青年,他作为队长组织了去北极的探险航行,在冰原上巧遇一个怪物和弗兰肯斯坦。这个怪物便是科学家弗兰肯斯坦一手制造的,并且直接杀死三人:弗氏的小弟弟,弗氏的爱妻和弗氏的一位同窗好友,还因嫁祸于人而间接杀死弗氏的一个使女。
与勾勒姆不同的是,弗氏的怪物不但会讲话,而且能言善辩,有时像个20世纪的分析派伦理学家在为自己的罪行进行无罪辩护。书中大量精彩对白描述了“可能世界”中的伦理学,揭示了其中激烈的矛盾冲突,为后人提供了宝贵的生命伦理学研究资料。
那怪物与勾勒姆一样,不能说它(或者用“他”)天性就坏透了,甚至可以说它心地纯净。但它的身份一直处于尴尬地位,是人还是物?它介于人与物之间,有时接近人有时接近物。就其具有人形、能思维、能言谈而言,它更像人,时刻要求具有与人同等的做人的权利,如受到尊重、能有个女人与之相爱等等。当我们人的世界并不接纳它时(怪物长相极丑陋),它被迫反抗,作出极端行为。它还主奴颠倒,要求造它的主人——科学家弗兰肯斯坦,为它再造一个女人,好与它作伴。弗氏起初答应了怪物的要求,后来考虑再三,否定了那个想法。怪物盛怒之下,在新婚之夜杀死了弗氏的妻子伊丽莎白。
该谴责的无疑是那怪物,但是弗兰肯斯坦就没有责任了吗?他为什么造它?他仅仅基于好奇心、一种乐观的科技无条件有益于社会的假设,便想当然地造了那怪物,甚至他根本就没有做深入的思考。他只顾得意于自己的惊人发现:“上帝创造世界以来,大智大贤者所孜孜以求的目标,现已尽在我手掌之中。”“一个新物种将奉我为造物之主,称我的名字为圣。”“任何一个做父亲的,也不比我更有权利要求自己的孩儿感恩图报。”
实际上呢?天下事,“异化”者多矣。不孝子孙到处有,科学家的造物也不例外,甚至上帝的造物对于上帝也并非时时尊重,人不是经常违背律法,背叛上帝之约吗!当然,因为我们并不相信有上帝,人世间的法律并不像神人之间的“约”那么神圣。即使人们相信父子之间必须要信守传统上的恩报伦理,也要考虑有什么措施对付非常规事件的发生。道德的存在意义恰恰在于非道德行为的存在。道德的约束力量在于,退一步还有法律的强制执行。上帝的处处在场约束对于不信上帝或者敢于与上帝做对的人或物而言,那不过是稻草人。对于无神论科技工作者而言,他们自己就是自己和自己所造之物的上帝。
按《圣经》的说法,上帝按照上帝自己的形象造人,人在地上代替上帝照管万物,上帝的灵性存在于每个人的心中和肉体中。在这种意义上,人与上帝有了平起平坐的成份,尽管在最终意义上如《约伯记》(Job)所述,上帝在起源的意义上毕竟高于人。可是,一旦程序启动了,有谁还关心当初的起源过程呢,如今“想当年”的话语在后生听来都是感到厌烦的。
虽说在起源的意义上,弗氏造了那怪物,但在那之后,怪物独立生存,弗氏拿它没办法。弗氏与那怪物有名义上的主奴关系,可是作为奴隶一方一旦争脱了枷锁,它便是自由“人”,它要申张自己的“人权”。有什么理由剥夺它的基本权利?正如,父母生养子女,但并无权剥夺子女的生命权、独立思考权、自由恋爱与婚配权、选举权等等。
《弗兰肯斯坦》指出了过度追求知识的不恰当性:“知识的获得有多危险。”作者流露出:普通村民由于缺乏知识,可能以为故乡便是整个世界,但是这些村民比起雄心勃勃却又力不从心的人(如弗氏)来,却不知幸福多少倍了。弗兰肯斯坦在弥留之际这样述说着:“我一直在反省过去的所作所为,我认为是无可指责的。凭着一阵疯狂的热情冲动,我造出了这个有理性的生物,因而也就对他负有义务,应竭尽自己的所能,保证他幸福安康。不错,这是我的义务,但是我还有比这更重要的义务,对我自己同类的义务,我更应把这放在心上,因为这关系到更多人的幸福和痛苦。”
当弗氏造了那有理性的怪物,另外一个与人类近乎平行的世界便诞生了,两个族类如何共同生存便是现实问题。幻想的和谐共处是靠不住的。这不仅是伦理道理的问题,还有更重要更基本的事务需要认真考虑。
沃尔登忍不住向曾造出怪物的即将死去的弗兰肯斯坦打探制造怪物的技术细节,弗氏守口如瓶,没有向他人讲述自己的技术发明。这意味着,那项造人的技术随之消失。但是在现代社会,一项新技术不会真正消失,即使丢失了,仍然可能被重新发明出来。因此,避免负面影响,走保密的道路是行不通的。
玛丽虽有些悲观,却安排了善意的结尾,即那怪物自愿毁灭那平行的世界。然而这种行为的根据并不充分。自《弗兰肯斯坦》问世,类似题材的科幻作品多以正义战胜邪恶的套路结尾,如电影《异形》。这些都不过是人类在自我安慰罢了。
如《弗兰肯斯坦》(1818)和捷克斯洛伐克作家卡雷尔·恰佩克(Karel Capek)的《罗萨姆的万能机器人》(1918,1921)所描述的,人造生命似乎注定要异化,要对其创造者发起攻击。文艺作品中对知识、对科学技术的这种悲观的展望,在科学技术得到迅猛发展并产生前所未有的影响之前,早就发生了,而且持续了很长时间。在后现代思想流行的今日,这种科技悲观论的情绪在知识界日益加重。如果任这种思潮或者悲观思想蔓延,民众中的反科学情绪就会不断积聚,对科学的发展产生复杂的影响。
那么是否还有另外一种可能性,即人造生命可以与人类世界和平共处?人类社会已经持续数万年,其间虽然也不断爆发战争,有着残酷的自相杀戮的历史,但在大多数情况下,人类社会在局部上或者在较大的范围内,甚至在整体上,达成一些共识,共同遵守着某些行为规则。如果遵守一定的规则,则视其为人,不遵守它们则说明他们不是人。可否把这种思路应用到人造生命中去呢?
人必须全方位地面对机器人。真正富有创见的发展,是由著名科幻小说家、科普作家阿西莫夫作出的。
美籍犹太人艾萨克·阿西莫夫(Isaac Asimov,1920-1992)在此方向上有惊人的创举。他既是科学作家又是科幻作家,一生著述数百种,至今无人能够与之相比。用卞毓麟的话说:阿西莫夫著述岂止等身。据初步统计,他一生著述470种,涉及几乎所有学科,其中长篇科幻小说38部,短篇科幻故事集33种。主编科幻故事118集。萨根的评语是:“阿西莫夫是一位文艺复兴时代的巨人,却生活在今天。”
阿西莫夫回忆,在他出生的那个年代,20世纪20年代,科幻小说成为一种大众艺术,但是故事的设计并没有本质的突破,还是笼罩在《弗兰肯斯坦》(1818)和《罗萨姆》的阴影中,即机器人由主人创造出来,最终又毁灭其主人。这一套已经令人厌烦。“知识确实具有危险性,可是,对此的反应就只能是从知识中退却吗?”阿氏从20岁(1940年)开始撰写机器人的故事,但讲述的是不同的机器人故事。“我的机器人是由工程师设计的机器,而不是由渎神者制造的假人。”为了避免机器人伤害人类这种潜在的危险,阿氏与科幻作家兼编辑坎贝尔(John W. Campbell)一同创立“机器人学三定律”。坎贝尔对于扶植阿西莫夫成才帮助甚大,阿氏的许多小说是由坎氏编辑后发表的。阿氏随后的机器人题材的创作,都围绕这三条定律展开,融艺术、科学、伦理、幻想于一体。从今日的眼光看,阿氏的这些作品最大的贡献也许在于对“机器人行为学”及其“人类伦理规律”的研究。
恰佩克把具有“农奴”含义的捷克词Robota写成了Robot,后来“机器人”一词在英文中都写作robot。阿西莫夫自然延用了robot这个词,并创造了Robotics(机器人学)一词。他写过著名的科幻小说“I, Robot”,即《我,机器人》。具有悖论意义的是,阿西莫夫以幻想小说的形式使机器人学不再是纯粹的幻想。他的机器人三定律非常简明,自成体系:
 
第一:机器人不可伤害人类,或目睹人类将遭受危险而袖手不管。
第二:机器人必修服从人给予它的命令,当该命令与第一定律冲突时例外。
第三:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
 
这三条定律,1940年首次被提出,在《我,机器人》中一一得到应用和检验。这部小说由《罗比》、《环舞》、《推理》、《捉兔记》、《讲假话的家伙》、《捉拿机器人》、《逃避》和《证据》这8个故事组成(也说9个,另一个指《不可避免的冲突》,可能是不同版本所致)。小说的引言一开始就写着这三条定律,并注明“引自《机器人学指南》第56版2058年”的字样。
《罗比》故事非常简单,述说了机器人罗比为一个小女孩当保姆的事情。女孩的母亲担心孩子与机器过分亲近,后来父母把机器人送走了,却引起小孩的不满。故事的高潮是,机器人罗比运用第一定律,救了小主人(女孩)的生命。
《环舞》讲的是考察队员带着机器人到水星上采矿的故事。一个叫斯皮迪的机器人出了故障,只会沿着环形的路线转圈。经过试验和推理,人们发现斯皮迪的问题出在“行为锁相”,即第二定律与第三定律在特定情况下的结合,导致机器人做出奇怪的动作。在硒矿产地附近存在危险,机器人离产地越近危险越大。按第三定律,机器人内置程序中特别规定必要时逃离危险。可是在去采矿时,人给它下了命令(相当于第二定律),即让它去采矿。在某一特定位置,执行第二定律与第三定律的电势达到平衡,即第三定律使它往回赶,而第二定律使它向前走,于是行动被锁相于一个圆圈上。
工程师最终用一种冒险的方式,即让某人处于极度危险状态,迫使斯皮迪执行更重要的第一定律,去救人,从而打破死锁状态。这个故事要比前一个生动得多。
《捉拿机器人》情节更加巧妙、起伏。有一个叫内斯特的特殊机器人混入62个正常的机器人当中,它的特殊之处在于军方当初设计时没有完整地给它输入机器人学第一定律,即只输入了第一定律的前半部分。这样,第63个机器人就有了一种变态的优越感,它面对人们的调查时不断撒谎,令人们无法将它区分出来。这个内斯特倾向于认为它比其他机器人和人类更聪明。最终,机器人心理学女博士卡尔文设计了一个巧妙的实验,找出了内斯特。
实验的安排如下:告诉每一个机器人,在机器人与卡尔文之间有致命的伽玛射线,如果机器人越过的话必死无疑,但普通机器人无法识别伽玛射线与无害的红外射线。实验开始后,突然在卡尔文的头上有一重物坠下,向她砸去。按照第一定律,所有机器人本应当去救卡尔文,但它们事先被告之它们与卡尔文之间有致命射线,即使它们冲过去也无用,会白白死掉。因此,凭理性机器人不会去救卡尔文。当然实验早就做了安排,在最后一刹那,有一根铁棍通过同步的办法突然有力地把重物打到一边,可以确保卡尔文的安全(机器人不知道这一点)。实验的结果是,62个机器人原地没动,只有一个机器人蓦地站起来,向前紧走两步,然后马上停了下来。这个机器人就是要找的那个内斯特。
原因在于,它与其他机器人不同,它能够识别出人们设置的辐射并非有害的伽玛射线,而是普通的红外辐射。对它而言,他知道射线并没有危险,按照第一定律,他必定急于向前救卡尔文。但当它向前冲出时发现其他机器人都没有动,它突然意识到自己犯了一个错误,它想起来了,其他机器人无法区分不同射线的波长。于是它又停了下来。这个故事说明,机器人定律是不能随便修改的,一旦修改,可能导致意想不到的可怕后果。此外它还证明,机器人心理学大有用途,人有办法控制机器人。
《证据》一篇讲的是“机器人嫌疑人”担任区检察官和市长的事。一位名叫奎因的政客想找到政敌拜厄利为机器人的证据,首先指控对方没有在公开场合让大家目睹过他会吃饭或者需要吃饭。“我们的区检察官从来不吃东西!”奎因散布着这样的怀疑。“说得委婉点,是从来没有人看到他吃过什么,或喝过什么。”
机器人心理学家卡尔文博士另有评论,她认为,一个制作精良的机器人,一定会考虑到吃饭、睡觉、排泄一类小事,不会轻易被人识破。她虽然目睹了拜厄利当众吃下一只苹果,但这不说明任何问题,据此不能说明他是人还是机器人。检验拜厄利的方法有二,一是物理学的方法,另一个是心理学的方法。后者涉及的是他的行为是否符合机器人学三定律,因为如果他是机器人,在装配时已给他输入了那些定律。不过,只有在他违反其中任何一条定律时,才能证明他不是机器人。如果他按照机器人定律行事,他的行为证明不了任何东西。后来拜厄利成功当选市长,并且当众表演了“打人”的把戏,“充分证明”了自己不是机器人,因为按机器人学定律,机器人从来不打人。但是有一种情况例外,当机器人所打的人不是真人时!这是故事的机关,机器人心理学家卡尔文似乎已经洞悉了秘密,但她本人喜欢机器人。
卡尔文说:“我对它们的热爱远远超过对人类的热爱。如果能制造出一种能担当社会行政长官的机器人的话,那它必定是社会行政长官中的佼佼者。根据机器人学定律,它不会伤害人,一切暴虐、贿赂、愚蠢和偏见与它都将是不相容的。”
这是一段至少部分正确的、有诱惑力的说明。机器人学三定律并非凭空捏造,它与世界上大多数道德规范的最基本指导原则是高度一致的,或者说就是其逻辑抽象。行为符合这三条定律的人,就是一个高尚的人,他(它)不但爱自己而且爱邻人,甚至为救他人而不惜牺牲自己的生命。我们人类个体很难做到这些,但对于机器人,做到这些并不难,制造的当初把它们作为指令输入就是了。另外,对于人类,有德未必有才,德高智低的人担当社会行政高职未必是好事。未来的机器人,可以做到更理性、更聪明,至少比一半人聪明。机器人当某国的国王,确实可以避免民间广为流传的笑话:说“某某是傻瓜”,便犯了“泄露国家机密”罪。在一个官员好吃、好贪、好色的官本位国度,百姓对于拜厄利式的人物担当公职,大概是欢迎的。我们的社会缺少的恰是法律规则和伦理规则,当然不是指纸上的而是指实际运行的。中国的许多规则大都指向除自己以外的他人,这并非是说中国人的人性天生不佳,而是说我们没有运用一种社会机制使那些显然的法律和道德规则得以有效运行。这便牵涉到元规则,即大环境的约束。
一位署名speedy的说:“其实,研究科幻小说中的机器人伦理问题,现实意义主要就在于它其实就是人类自己的伦理问题,反倒和现代机器人技术实践关系不大。人类的道德准则常常得不到普遍认可(道德准则的合理性不能象数学定理一样严格论证),并且其中不乏自相矛盾之处(小说中机器人所面临难的道德冲突,其实就是人自己会遇到的冲突)。如果真能提出机器人可以完美实践的道德准则,人类不妨有所借鉴。”其实,两方面的意义都存在。
从学理的角度,阿氏的三定律还有进一步讨论的必要,难道人类道德规范能够缩减成几条简单的规则?即使做到了,规则之间是相容的吗?机器怎样识别人的指令?当某种机器人在设计时就特意违背规则时,会出现什么可怕的后果?与上一段讨论的相关的问题是,在现实社会中,规则之实施需要有一个讲规则的环境,我们怎样促成那样一种环境?这些问题非常重要,但想取得进展又相当困难。
早在1950年阿西莫夫就发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年阿西莫夫对原有的三定律进行修订,增加了第零定律,同时修改了其他定律:
 
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
第一定律:机器人不得到伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必修服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
 
那么这些定律是否足以解释科幻小说中所提到的机器人的所有行为呢?回答是否定的,这意味着其中还有隐含的规则没有说出来。罗杰·克拉克(Roger Clarke)在一篇论文中指出,还要增加三条定律:
元定律:“机器人可以什么也不做,除非它的行动符合机器人学定律。”此定律置于第零、第一、第二、第三定律之前。
第四定律:“机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。”
繁殖定律:“机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。”
至此,阿西莫夫原来直觉上明显的三定律已经变得到十分复杂,但是,即使如此,要把这些定律实际应用到机器人的设计当中,仍然有许多模糊之处。不过,这并不意味着,阿氏的努力无意义,信息技术工程师们已经在考虑以不同的方式体现阿氏的机器人规则。那些原则不但适用于机器世界,同样它们极好地反映了我们人类世界最一般的伦理原则,它体现了人文主义与平权的思想。
IEEE计算机学会、计算机器协会(ACM)、大英计算机学会、澳大利亚计算机学会的专家们,都十分关注其职业的道德准则,这些准则将包含一部伦理法规(a code of ethics)。虽然这样的法规不可能穷尽所有准则,并且法规也要随时间改变,但是它的核心内容是稳定的。阿氏的科幻探索为工程师们留下了宝贵的财富,当今的若干灾害预警与应对决策、CAD/CAM,EFT/POS,城市交通控制系统,社会经济预警系统等,都直接或者间接涉及这样的伦理法规。
信息技术与机器人技术日新月异,现在考虑其中的伦理道德问题不算早,考虑其难度,似乎已经有些晚了。这项工作也不能只由某一行当的专家负责,更多行业专家与民众的参与有好处。
有人指出:“至少在可见的将来内,计算机的伦理并不存在,因为计算机根本没有思考的能力。如果只是计算机使用的道德问题,就跟其它工具的使用道德是同样的code。问题在人而不在机器。说什么现在已经有些晚了,这只是吓唬人而已,一点实际的意义也没有。”其实这只是个态度问题,计算机或者网络有没有智能?只需看看网上肆虐的计算机病毒就行了。智能是相对的,呈现为连续的谱,不是简单的有或者没有的问题。会做2+3=5,也许不算有智能;能够证明几何定理,大概就不太好界定了;能够进行生产管理控制的复杂计算机系统呢?如果不将“人类”的智能与“单个机器”的所谓“智能”相比,我们就很难再下有无分明的结论了。
另外一种反对意见是:“须知,机器(哪怕是当前最聪明的机器)都只是人的能力的延伸,这种人工系统所实现的,明白无误就是设计者的自身意志(设计者会有失误,比如设计出会死机的程序,但这也是设计者行为的结果。而所有设计者行为都可归结为他的意识和无意识。此外并无奇妙之处)。这种问题和人类有能力制造武器(如刀子)后所引发的关于武器使用的道德问题,没有本质区别。一言以蔽之,这种问题(所谓的机器人伦理问题)本质上就是人自己的伦理问题。这和阿西莫夫机器人定律何干?”持这种见解的人一定不少。机器及机器人无疑是人的肢体或者大脑的延伸,正如原子弹和细菌武器一样,这是从一个方向看问题。但我们关注的却正是“设计”(发明)与“使用”之间不可避免的关联,两者虽然不是一一对应的,却有先后及某种弱因果联系。
新时代的科技伦理,恰恰强调在最初的研究、探索阶段融入伦理关怀,而不是在事成之后、出了问题之后才回头思考。


https://m.sciencenet.cn/blog-222-240320.html

上一篇:针对中国至少29.6万儿童的人体实验
下一篇:我为什么反科学?

2 曹聪 蔣勁松

发表评论 评论 (2 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-19 06:10

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部