强人工智能设备面临的伦理困境与风险_张亦佳.pdf
《强人工智能设备面临的伦理困境与风险_张亦佳.pdf》由会员分享,可在线阅读,更多相关《强人工智能设备面临的伦理困境与风险_张亦佳.pdf(10页珍藏版)》请在咨信网上搜索。
1、江苏社会科学2023年第 2 期20世纪70年代,塞尔(John Searle)首次提出了“强人工智能”概念,认为“计算机不仅仅是用来研究人的思维的一种工具,只要运行适当的程序,计算机本身就是有思维的”1。业界认为相对于弱人工智能,强人工智能的优势在于“机器可以全面、综合地复现人类的所有思维能力,且聪明程度能够达到或超过人类”2。2022年9月,AlphaGo Zero被证明能够独立于人类的经验知识与指令,通过感知领域的深度学习和决策领域的不断强化学习,最终实现智力的自我进化。强人工智能设备可能带来的风险又一次引发广泛关注和担忧。关涉到战争领域,以智能无人作战为主导的未来战场将呈现出“零伤亡、
2、高智能和无人制胜”的特点。随着自主武器系统的深入研发与实践应用,战争形态的范式转变所强人工智能设备面临的伦理困境与风险张亦佳内容提要基于“人是目的”的价值设定而建立起的“伦理至善”第一原则让强人工智能设备的研发和应用首先遭遇道德合法性的论证难题。“有限的道德合法性”为其谋求到了一个伦理存在空间。以致命性自主武器系统(LAWS)为例,“有限性”的前置条件则让关于其“道德责任代理人”的准确识别与划分成为首要问题。以道德判断能力为标准,将作为“工具”的机器和作为“具有实践智慧”的人做明确划分是准确识别LAWS责任代理人的逻辑基础。基于道德责任代理人的逻辑梳理,即使被完美道德编码的LAWS作为“非道德
3、”的机器在应用中也可能会遭遇“不道德的人”的伦理难题。这是我们可预见且对国际关系构建和整个人类社会发展可能产生颠覆性影响的伦理威胁。从这个角度看,谨防出现基于“技术野蛮”的“寡头恐怖主义”这一时代命题要求我们尽快对相关强人工智能设备给出一套有效的、缜密的预防性伦理应对机制。关键词强人工智能致命性自主武器有限的道德合法性道德主体寡头恐怖主义张亦佳,河海大学马克思主义学院博士研究生、南京财经大学助理研究员本文为国家社会科学基金项目“战争形态智能化的伦理约束机制研究”(20CZX057)的阶段性成果。1J.R.Searle,Minds,Brains,and Programs,Behavioralan
4、d Brain Sciences,1980,3(3),pp.417-457.2王彦雨:“强人工智能”争论过程中的“态度转换”现象研究,科学技术哲学研究 2020年第6期。58DOI:10.13858/32-1312/c.20230328.002强人工智能设备面临的伦理困境与风险引发的道德困境和挑战将会是人类未来必须面对的重大伦理议题。自主武器系统的研发初衷是减少人类战士在战场上的伤亡,但是,近来基于强人工智能的致命性自主武器系统(lethal autonomousweapon systems,LAWS)已经被研发出来甚至出现了实战应用案例1,而以此为代表的强人工智能设备可能带来的伦理问题也日益
5、凸显。由于强人工智能的具体表现形式多样,本文将以LAWS为例来具体分析此类强人工智能设备可能面临的伦理挑战。一、强人工智能“伦理至善”的道德合法性难题及其可能性辩护整体来说,强人工智能设备应该具备以下特征:须达到或超越人类智能、可实现“意识自醒”并形成“自己”独特的行动目标、具备较为完整的认知能力序列和情境适应性能力等2。而依照相关概念,LAWS指的是“一种基于AI技术且具有自主决策性能的 杀手机器人(killer robots)武器攻击平台,可以在不经过人类操作员干预的情况下,独立搜索、识别目标并自主性地做出攻击决策,其设计初衷是寄望于以智能机器人取代人类战士从事战场侦察、日常巡逻和执行危险
6、性战斗任务,从而达到降低人员伤亡、减少战争损耗和实现精准打击之功效”3。可见,“自主性+攻击性”的叠加性能是其区别于传统军事武器类型的最主要标志。由于LAWS具有“能够在没有任何人类指令输入或人机互动操作情形下自主选择攻击目标并开火”的性能4,至少从表面上看,人就已经完全被排斥于一个军事任务的闭环之外。目前关于LAWS的最大伦理争议,实际上来自道德责任的认定,即马蒂亚(Matthias)所提出来的关于军用机器人使用中的“道德鸿沟”5问题。在传统意义上,正义战争一贯秉持“如果有可识别的战争罪行,就一定有可识别的罪犯”6的道德主张,在人工智能高度参与的各项军事行动中,人们也应该要求有明确的、可识别
7、的道德行为主体为各种军事行动的后果和影响承担起直接的道德责任。谁应该为LAWS承担道德责任,LAWS是否要为自己的“自主性”承担道德责任,责任代理人各方又应该承担什么样的道德责任,以及如何才是真实有效地承担道德责任等问题,是当下最具争议的伦理话题。在开始讨论LAWS的道德责任之前,我们需要对LAWS最基本的前置性问题进行辨析,即从逻辑上来讲,当人们提出“LAWS能否被视作一个独立的道德行为主体,并能否成为其行为后果的道德责任代理者”的问题时,实际上就已经默认了这一基本预置前提LAWS是被允许研发并应用于现代性军事行动当中的。这就涉及对LAWS应用的道德合法性确证问题,如果有充分论证表明,LAW
8、S是应该完全被禁止研发和应用于军事行动中的,那么其道德责任问题也就随之从根本上被消解而成为一个无意义的问题。因此,我们无论对LAWS持支持或反对意见,都必须首先给出关于其合法性的严谨而完整的道德哲学论证。1目前已经部署并投入使用的自主武器系统主要有:美国“宙斯盾”巡洋舰的“方阵”系统,它能自动发现、跟踪和打击反舰导弹以及飞机等防空作战威胁;以色列的“哈比”系统,主要用来探测、攻击并摧毁雷达发射器;英国“雷神”喷气式无人战斗机,可以自主地对敌人进行搜索、识别和定位,但只有在得到任务指挥官授权时才能攻击目标。同时,美国在2019年对伊朗革命卫队圣城旅指挥官苏莱曼尼的“斩首行动”中,已经启用了高度智
9、能化的、能够自动搜寻鉴别目标并发起攻击的军事武器系统“MQ-9掠食者无人机+地狱火导弹系统”,直接对苏莱曼尼实施了精准射杀(美国称之为“定点清除”)。2王彦雨:“强人工智能”争论过程中的“态度转换”现象研究,科学技术哲学研究 2020年第6期。3董青岭:新战争伦理:规范和约束致命性自主武器系统,国际观察 2018年第4期。4G.P.Noone,D.C.Noone,The Debate over Autonomous Weapons Systems,InCase Western Reserve Journal ofInternational Law,2015,47(1),p.28.5A.Matt
10、hias,The Responsibility Gap,Ethics and Information Technology,2004(6-3),pp.175-183.6迈克尔 沃尔泽:正义与非正义战争,任辉献译,社会科学文献出版社2015年版,第261页。59江苏社会科学2023年第 2 期1.关于道德责任诘难的一个必要澄清关于作为强人工智能的LAWS的研发及应用是否具有道德上的合法性问题,无论我们持何种观点或许都会招致诸多伦理挑战。但我们首先要做的是要从一种“责任鸿沟道德禁令”互为前提、循环论证的思维泥潭当中摆脱出来。对LAWS的反对意见中,最具普遍性的道德理由及其证成逻辑如下:基于一个道德
11、共识,即作为可以承担道德责任的代理人的一个条件是有能力通过相应的痛苦或报酬,受到相应的惩罚或奖励。因此,道德责任的一个必要条件是要将责任代理人纳入惩罚和奖励范围。机器人缺乏诸如痛苦、快乐一类的感知能力,这就意味着任何惩罚方式都无意义。所以,强人工智能设备就不符合负责任代理的资格1。同样,LAWS作为强人工智能设备的一种,任何对其不道德行为的事后指责都无意义。如此,在那些已发生的错误选择行为中就没有任何主体可以公平地去承担灾难性后果的道德责任。那么,我们是否可以以此为全部理论依据而禁止LAWS参与到战争领域中呢?我们必须认识到,以上论证根本上隐藏了一种逻辑顺序颠倒的无效论证:由于LAWS在道德责
12、任方面的不确定性,因而不具有研发和使用上的道德合法性;进一步地,又因为LAWS不具有道德上的合法性,所以LAWS的道德责任讨论是可以被消解的。因此可以得出一个结论:既无法准确划分LAWS的道德责任,其也没有道德上的合法性。但事实上,道德责任的归属问题并不能构成一个关乎终极价值目的和最高伦理关怀的道德合法性的说明,它应该是一个基于道德合法性探讨而随之出现的二阶伦理问题。因此它也不能成为否定LAWS价值性存在的根本依据。对于上面的论证,一个很简单的逻辑反诘是:如果有人愿意成为或者我们能够寻求到一个道德责任的实际承担者,LAWS是否就具有完全的道德合法性而可以被不加限制、随心所欲地使用呢?显而易见,
13、这里的答案仍然是否定的。实际上,现在大多数反对LAWS的道德声音都是出于人们基于“杀人是不对的”这一基本常识性道德判断,对LAWS可能摧毁生命的天然使命有着一种强烈的道德厌恶和情感抗拒2。只要对LAWS功能和主要军事用途做一个大致了解3,单就“致命性武器”带给人们的直观感受而言,就不难理解为什么很多人对LAWS怀有如此强烈的道德直觉式排斥。这就像一个和平主义者基于对战争本身的道德厌恶而对其正义问题嗤之以鼻一样。如果单纯谈论非武器化自主性机器人(即那些被我们称之为“朋友机器人”的人工智能)的道德合法性问题,比如无人驾驶汽车、仿生智能宠物、机器人医生、机器人服务员等,可能我们会宽容很多。因此我们期
14、待更加理性、慎重、严谨的哲学审视和论证。2.基于战争伦理先在规定的“有限的道德合法性”立场到目前为止,我们只是说明了强人工智能在军事应用中的逻辑混乱问题,而仍未给出关于LAWS的任何道德合法性说明。为LAWS做道德合法性辩护非常困难的原因很大一部分在于“自主性+致命性武器”的组合而导致的双重界定难题。从智能性来看,2018年欧盟发布的由欧委会人工智能高级专家组(AIH-LEG)所起草的 可信任人工智能伦理指南(Ethics Guidelines for Trustworthy AI)4,对人工智能所要求的内在遵循仍然是“人为自己立法”的规范性原理。也就是说,包括强人工智能设备在1R.Sparr
15、ow,Killer Robots,Journal of Applied Philosophy,2007,24(1),pp.62-77.2D.Purves,R.Jenkins,B.J.Strawser,Autonomous Machines,Moral Judgment,and Acting for the Right Reasons,Ethic Theory Moral Practice,2015,18(4),pp.851-872.3现在人们所谈论的LAWS,常常是指具有杀伤力和致命性的自主机器人系统,甚至有学者预测,LAWS有朝一日有能力“自行”做出针对人类生存和死亡的决定。4Ethics
16、Guidelines for Trustworthy AI.URL=http:/ec.europa.eu/futurium/ai-alliance-consultation/guidelines.60强人工智能设备面临的伦理困境与风险内的所有人工智能的设计、制造和应用都要符合“人是目的”这一道德合法性根基。因此,就形式而言,我们将“规范者指引”伦理框架的先行构建提炼为可信任人工智能伦理规范的第一个基本原则就是让“算法”遵循“善法”1。但同时,按照“致命性武器”用途的先在性设定,如果LAWS从其开始构想设计之日,其算法所设定的目的就是去“针对和杀害人类”(即“朋友机器人”的反面“杀手机器人”)2
17、,那么是否基于伦理至善的首要原则为LAWS留有道德合法性的伦理空间,这才是LAWS道德合法性确证的根本性难题。关于这一伦理难题的处理方式大概会有两种:一种是悬置,正如一些军事家所做的;另一种是迎难而上一探究竟,这是伦理学者的使命。前者如美国国防部前副部长鲍勃 沃克(Bob Work)3曾在2016年接受采访时公开说道:“未来10年或15年内,如何授权机器人(实施杀伤行动)将变得非常清楚但我非常担心美国经常围绕致命性自主武器的 道德、法律和伦理问题 进行讨论我们的竞争对手可从来不这么干”4。而事实上,五角大楼后来的确悬置了这一问题。近年来,美国多次采用“无人机+导弹”技术开展了被其称之为“定点清
18、除”的斩首行动。但是这绝不意味着这些已经展开的军事行动具有充分的道德正当性,也绝不意味着国际社会会同意这种情况一直发生下去。如果继续讨论下去,关于LAWS的道德合法性说明似乎陷入了一种僵局:我们既推翻了现有反对意见的道德论证,似乎又不打算为LAWS的无限制应用做道德合法性辩护。而一个更为严峻的事实是,截至目前,全球已有40多个国家被披露正在设计、研发和试图使用“致命性自主武器”系统5。正如有些学者早已经意识到的,“伴随着人工智能技术的进步与日臻成熟,基于强人工智能技术的 自主性 已成为现代武器系统的一个重要进化趋势,全面禁止致命性自主武器系统在现实中已不太可能,即便实施了禁令,也很可能不会产生
19、效果”6。如果我们回到讨论LAWS的伦理场域原点军事与战争领域,就会发现如今关于LAWS道德合法性问题的困境正如我们在讨论战争正义问题时所遭遇到的道德合法困境一样它既无法被全盘否定,又不具有天然的道德合法性7。如果依据联合国 公民权利与政治权利国际公约 的规定,“每个人都有与生俱来的生命权,这项权利应受法律保护,任何人不得随意剥夺他人的生命”8,那么战争从其出现之日起,就从来没有获得过最高的道德合法性辩护。但事实却是一部人类史就是一部战争史。因此,从这一意义上讲,我们只能基于历史经验与事实,在一定的前提和限制条件下去讨论战争的道德正当问题。“正义战争理论是反对和平主义的然而更重要的是它也反对侵
20、略征服它是一种限制性的理论。然而,它在限制的同时也许可以许可限度之内的武力行为。”9我们将这样的道德合法性称之为相对于“无1田海平、郑春林:人工智能时代的道德:让算法遵循“善法”,东南大学学报(哲学社会科学版)2019年第5期。2D.Purves,R.Jenkins,B.J.Strawser,Autonomous Machines,Moral Judgment,and Acting for the Right Reasons,Ethic Theory Moral Practice,2015,18,pp.851-872.3鲍勃 沃克(BobWork)致力于人机协同和致命性自主武器的研发,他也是推
21、动美国国防部机器人领域发展的领军人物。4保罗 沙瑞尔:无人军队自主武器与未来战争,朱启超等译,世界知识出版社2019年版,第104页。56董青岭:新战争伦理:规范和约束致命性自主武器系统,国际观察 2018年第4期。7战争的正义问题也是一个极具争议的问题。从“人是目的”的最高价值设定来说,战争的正义不具备天然的道德合法性,它必然以牺牲生命为代价,其正义性来源于对非正义方的辨别。战争正义问题的开端,既是反对和平主义,也是反对侵略和征服的。因此,无论是在一个和平主义者、军国主义者,还是在一个马基雅维利主义者那里,战争的正义问题或许都是无解的。8参见 公民权利与政治权利国际公约 第6条第(1)款的规
22、定。9迈克尔 沃尔泽:正义与非正义战争,任辉献译,社会科学文献出版社2015年版,第2页。61江苏社会科学2023年第 2 期限”的“有限的道德合法性”。同样,如果在有明确的前置条件和限制的严格规约下,我们或许能为LAWS找到一个适存性的伦理空间。回到LAWS关于“降低人员伤亡、减少战争损耗和实现精准打击”的研发初衷,LAWS有限的道德合法性问题或许值得一辩。当然,这种辩护只能是消极的。或许在更消极意义上,就如核武器研发的辩护空间仅剩于“以核制核”的威慑伦理之辩护一样,LAWS的研发也可以被看作是在人类道德文明的发展高度还不足以使人类自身走出战争这样的时代背景下应运而生的,它是被用于实现国家之
23、间相互制衡式和平的一种“不得已”手段和方式。无论怎样,LAWS用途的道德合法性在任何时候都需经过严谨到近乎苛求的论证说明才有足够的理由有限使用。而比起LAWS的可能性空间的讨论,更重要的是要对诸如以下这些问题时刻保持一种警醒:人员伤亡的降低、战争损耗的减少会不会潜藏着战争更加轻易被发动的可能?精准打击要求的科学技术是否会使更多的包括科学家、程序员等在内的原本属于非战斗人员都卷入战争当中?LAWS的滥用会不会使人类社会进入一种高科技野蛮时代?我们必须清楚地认识到降低战争准入门槛的风险背后所隐藏的都是对生命无限制的威胁和杀戮之可能。这些可能性也就意味着尽快拟定一整套审慎的、严格的、系统的关于LAW
24、S的伦理规约性条款是时代的召唤和要求。换言之,所谓“有限的道德合法性”,一定要从“有限性”和“道德合法性”两方面来看:“道德合法性”的确为LAWS寻求到了一个伦理适存空间,但“有限性”的前置性则要求我们对LAWS的伦理适存空间首先要做出系统的、谨慎的、详细的论证说明。限制谁?作何限制?由谁来限制?如何限制?这些问题必须一一去思考、回应和解答。当然,在这些限制条款中,LAWS除了作为一般原则的“算法遵循 善法”的伦理原则要得到充分的解释和认可1,它还需要通过各种具体的法则,如自主程度、部署方式、用途范围、对人的伤害程度、后果预测、容错率、责任代理等各个方面进行限制性条款说明。而在所有的这些具体性
25、问题中,道德行动者和责任人的识别和明确又首当其冲,它是所有限制性条款变得有实际意义的前提条件。这就涉及我们接下来要讨论的关于LAWS最主要的伦理难题:由LAWS自主程度所引发的关于行为主体与责任代理人的道德难题。二、强人工智能道德编码与道德判断:责任代理人难题及其辨析在为以LAWS为代表的强人工智能设备找到一个可能性伦理空间以后,我们对LAWS责任代理人的讨论才有意义。但在深入讨论“应该由谁承担什么样的道德责任”这个问题之前,我们首先需要明确一个最基本划分:LAWS的道德责任主体是机器人自身还是相关的人或以人为主体的整体性实体。从一般意义上讲,当我们将道德责任置于人工智能的语境中去深入讨论时,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 设备 面临 伦理 困境 风险 张亦佳
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。