美章网 资料文库 动物伦理中的人工智能的基本原则范文

动物伦理中的人工智能的基本原则范文

时间:2022-01-17 03:25:05

动物伦理中的人工智能的基本原则

摘要:人工智能出现后,改变了以往动物伦理中的“人类-动物”的二元伦理关系,形成了“人类—人工智能—动物”的三元伦理关系,在这种三元伦理关系中,弱人工智能由其设计和生产单位及其负责人承担道德责任,强人工智能自身承担道德责任。动物伦理中的人工智能应当遵循以下三项基本原则:一是禁止人工智能伤害人类;二是禁止人工智能在非必要的情况下伤害动物;三是人工智能在人类与动物利益相冲突的情况下遵循人类利益优先的原则。

关键词:动物伦理;人工智能;机器人;基本原则

动物伦理是当今世界颇具争议的伦理学前沿理论,它以人道原则作为伦理起点和基础,以人类和动物的伦理关系作为研究对象,内容涉及科技伦理、制度伦理、情感伦理和信仰伦理,是一门关于人类应该在多大的限度和范围内有效地保护动物的伦理学科。[1]科学技术是动物保护的重要手段,人工智能(ArtificialIntelligence英文简称AI)作为一种高精尖的科技手段,日益广泛地应用在动物伦理之中。所谓人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。简单来说,“人工智能(AI)由像人类一样聪明甚至比人类更聪明的机器组成,通常由计算机控制这些机器”[2]。随着人工智能向强人工智能的方向发展,最终能够制造出拥有感受能力、创新思维和自我意识的高仿真度的人型生物智能体———人工智能仿真机器人。①近十几年来,人工智能作为动物伦理中的科技手段,在农场动物、实验动物、娱乐动物、陪伴动物、工作动物和野生动物等国际公认的六大类动物保护领域得到广泛应用,重新结构了它与人类和动物的原二元伦理关系。

一、动物伦理中的“人类—人工智能—动物”三元伦理关系

强人工智能(机器人)出现以后,传递出一些不可忽视的道德问题:有着自主性②的机器人有没有“人格”或道德地位?是不是道德主体?这不是搞笑的问题,而是人类在未来50年内必须应对的人工智能发展的现实问题。尽管现阶段的机器人技术还无法摆脱“莫拉维克悖论”,然而我们并非要讨论未来的机器人是否具有自主性,因为这是科学家们要解决的事情。我们的关注焦点本身就是以强人工智能下的拥有感受能力、创新思维和自我意识的仿真机器人为前提,在这一前提下讨论动物伦理中的人工智能的道德责任问题,这实质是在追问:如果机器人具有所谓的“人格”或道德地位,那么他是否也应该成为动物伦理的研究对象?我们知道,传统的动物伦理的研究对象是人类与动物的二元伦理关系,在人工智能出现后,其研究对象就重新结构成“人类—人工智能—动物”这样一种三元伦理关系,使得原本很难在动物伦理中确证的道德责任问题变得更加复杂艰难,由此也产生了一些这样的道德问题:如果失控的人工智能(也称AI失控)对人类和动物进行伤害,究竟应该追究谁的责任?是人工智能还是其创造者?只有在确证了动物伦理中的人工智能的道德责任之后,我们才能制定关于人工智能的伦理原则。在“人类—人工智能—动物”这样一种三元伦理关系中,人工智能的道德责任可以用一个更清晰的思路来表述:设人工智能是A、人类与动物是X,那么要确证A对X负有道德责任,就必须确证这一道德责任所分解出来的另外两个维度:(1)承认X具有一定道德地位;(2)X的道德地位有利于确立A的道德地位。[3]因此,动物伦理中的“人类—人工智能—动物”的三元伦理关系必然是一个互为支撑的稳定结构,否则三者之间就不存在道德可言,也没有伦理原则探讨的必要了。就这两个维度来说,一是对于人工智能而言,人类具有完全的道德地位,动物也具有一定的道德地位,因此满足X具有一定的道德地位这一维度;二是以机器人为代表的强人工智能具有“人格”或道德地位是我们进行讨论的前提,A的道德地位又有利于确立X的道德地位这一维度亦无矛盾。

二、动物伦理中的人工智能的道德责任确证

现在,再来从“人类—人工智能—动物”这样一种三元伦理关系中,对人工智能是否应该对人类和动物负有道德责任进行论证,这一论证从强人工智能和弱人工智能两个不同的方面来展开。(一)弱人工智能由其设计和生产单位及其负责人承担道德责任。对于基于某一领域内的代替人类工作需要的非人型智能系统或机器这类弱人工智能,由于它本身只是局限于某些如医疗、搜救、饲养、屠宰等领域,并不具备创新思维和自我意识,也不是仿真人型,因此它不能成为道德主体,或者说不能被人类赋予“人格”或道德地位。即使这类人工智能系统或机器拥有像人类一样的嗅觉、触觉、味觉、听觉和视觉等五大类基本的仿生性的感知能力,也并不代表它具有感受痛苦和享受快乐的能力,即杰罗米•边沁和彼得•辛格所说的“感受性”(感受能力),更不要说具备创新思维和自我意识了,所以这类人工智能对于人类而言,充其量也只有工具价值。对于这样一种作为工具价值的人工智能而言,如果发生设备故障导致AI失控,出现AI对人类和动物进行攻击和伤害的现象,其负责设计和生产的单位及其负责人必须承担一定的道德责任甚至是法律责任。(二)强人工智能自身承担道德责任。只要机器人拥有感受能力、创新思维和自我意识,就具有自主性,完全可以被视为具有“人格”或道德地位的行为主体,则应该承担相应的道德责任,而不是由他的设计和生产的单位及其负责人来承担。理由有三:一是同一物种的所有个体可以被赋予同样的“位格”(对人类而言就是“人格”)或道德地位,并一起纳入道德共同体之中。而如果一个拥有感受能力、创新思维和自我意识的机器人与人类在自主性和外观方面也完全无异,那么他也理应和人一样拥有“人格”或道德地位。例如,沙特阿拉伯授予索菲亚公民身份这一事件,标志着人类在承认机器人的“人格“或道德地位的问题上已经迈出了开创性的一步,尽管目前索菲亚或许还不够这样的条件和资格。因此,机器人同样应该是道德主体,在他与人类和动物的伦理关系中也应该承担起相应的道德责任。二是道德的基础在于行为主体的自主性,“自由是人的道德基础,人由于有了自由能力,他才负有对于自己行为负责的前提,这种自由能力就是善恶判断能力、善恶选择能力和自我意志决定能力”[4]。显然,一个拥有感受能力、创新思维和自我意识的机器人具有完全的自主性,能对善恶行为进行价值判断并作出选择,因此机器人必须为自己的道德选择行为承担起道德责任。总之,承担道德责任的前提是要求行动者具有一定的自主性,除非行为主体受到某种约束(例如强制、威胁、催眠、操纵等),这种情况下他们可能无需对所采取的行为负责。[5]三是拥有感受能力、创新思维和自我意识的机器人具备自我复制或再生产的能力,这会导致很难推断出一个机器人究竟是人类设计和生产的,还是另一个机器人自我复制或再生产的,并由此造成道德责任的认定受到干扰。对于这种情况,必须依从谁犯事谁负责的道理。正如从法理上来说,某一个人的犯罪不能追究到其生父母的责任一样,当然也不能因为某一机器人自我复制和再生产出来的另一个机器人有了攻击和伤害人类或动物的行为,就对其道德责任进行无穷倒追,甚至追究到第一个创造他的那个机器人那里。

三、动物伦理中的人工智能的基本原则

1950年,美国著名的科幻小说家阿西莫夫提出了“机器人学的三大定律”。他认为,在人类与机器人的伦理关系中,必须遵循以下三条定律:第一定律:机器人不得伤害人类,或袖手旁观让人类受到伤害;第二定律:在不违反第一定律的情况下,机器人必须服从人类给予的任何命令;第三定律:在不违反第一及第二定律的情况下,机器人必须尽力保护自己。[6]这一著名的机器人学三定律是针对人类与机器人的二元伦理关系而提出的基本原则,而现在我们要来讨论关于动物伦理中的人工智能的基本原则,就必须以动物伦理的研究对象为基础。在“人类—人工智能—动物”的三元伦理关系中,人工智能又应该遵循什么样的基本原则?我们认为,可以提出以下三项基本原则。

(一)第一项基本原则:禁止人工智能伤害人类“机器人学的三大定律”浓缩为在动物伦理中的人工智能的第一项基本原则:禁止人工智能伤害人类。这条基本原则实质上是“机器人学第一定律”即“人工智能不得伤害人类或袖手旁观让人类受到伤害”的补充和延伸。它主要是基于以下两个原因:一是基于人工智能尤其是机器人在算法和智能方面远远超越人类,一旦人工智能失控对人类发动攻击和伤害,人类将有可能遭到毁灭。因此站在人类生存发展的高度上来说,必须制定出禁止人工智能伤害人类这一项基本原则,才能对其行为加以约束和限制,防止AI失控。二是基于人工智能的设计和生产的目的必须是促进人类福祉的需要。即使是强人工智能下的具有自主性以及自我复制和再生产的能力的机器人,也不是传统的生理意义上的人类,不符合人类繁衍生息的自然法则,更缺乏人类的生命灵性。人类之所以创造人工智能,目的仍然是为了促进人类福祉,决不是为了把它们制造出来伤害人类自己。而且,在动物伦理中,人工智能有了第一项基本原则,“机器人学的三大定律”中的原第二定律和原第三定律都成了不必要的设定。理由如下:首先,人工智能不需要服从人类给予的任何外在命令。原因有二:一是如果人类之间发生战争,究竟谁可以代表正义的一方来向人工智能(武器系统或机器人)发号施令?人工智能(武器系统或机器人)到底应该听从谁的命令?显然,人工智能(武器系统或机器人)需要做的唯一的事情就是:不参与和干涉人类事务,宁可袖手旁观也不能服从某一部分人的命令来伤害所谓的“敌人”———另一部分人。二是人类也不能将一个具有自主性的“人格”机器人视为物或工具随意利用,人类与未来的机器人在道德和法律上都是平等的,这就消解了机器人必须服从人类给予的任何外在命令这个原第二定律。只要禁止机器人伤害人类就行,可以允许他们有自由权利而不需要受人类的奴役和支配。但是,如果机器人伤害人类,同样要被绳之以法甚至人道毁灭。其次,人工智能都会主动或被动保护好自己。一是某一领域内的代替人类工作需要的非人型智能系统或机器本身就需要操作上的精确性而不允许有任何失误,因为任何失误都会导致可怕的灾难性后果。而且,这类弱人工智能自身并不具有保护自己的能力,需要人类经常对它们的系统和设备进行维护和保养,也就是说,它们不存在尽力保护自己的问题,而只是被动地接受人类的保护而已,因而原第三条定律在这类人工智能面前是无效的。二是对于强人工智能下的具有自主性的机器人来说,他们必然懂得如何主动保护好自己。最近的机器人“越狱”事件,也足以说明这类机器人具有主动的自我保护能力。因此,对动物伦理中的人工智能而言,“机器人学的三大定律”的原第三定律也是不必要的设定。

(二)第二项基本原则:禁止人工智能在非必要的情况下伤害动物由于动物伦理的研究对象是“人类—人工智能—动物”之间的三元伦理关系,它比人类和机器人的伦理关系更加复杂。因此,仅仅只有禁止伤害人类的第一项基本原则显然是不够的,必需增设第二项基本原则:禁止人工智能在非必要的情况下伤害动物。所谓禁止人工智能在非必要的情况下伤害动物,是指人工智能只有在符合人类需要或人类授权的必要情况下,才可以伤害动物(比如人类为了生存和发展的需要,利用或授权人工智能来对动物进行杀生食肉的伤害动物的行为),除此以外,在其他任何情况下都必须禁止人工智能伤害动物。首先,把“人类—人工智能—动物”三元伦理关系简化为“人类与动物”的二元伦理关系,而在此伦理关系之内,人类负有对动物进行保护的道德义务。人类与动物是双向度的伦理关系,人类的生存和发展与动物具有非常密切的关系。长期以来,关于两者的权利和义务问题争议不休,争议的核心在于动物是否拥有权利,而动物是否拥有权利也是它们能否纳入人类道德共同体并给予道德关怀的必要条件之一。20世纪最伟大的人道主义者史怀泽说:“把爱的原则扩展到动物,这对伦理学是一种革命。”[7]但这一任务是十分艰巨的,至今都没有出现在人类的道德法典中。我们认为,这一争议可以暂时悬置,在人类与动物的跨物种之间,权利和义务本身就是不对等的,由动物没有权利不能推定人类没有保护动物的义务;反之亦然,由人类负有保护动物的义务也不能倒推动物拥有权利。支持为利用动物而辩护的学者卡尔•科亨教授认为,“我们有义务不去残忍地对待动物,跳跃到动物权利则是一个错误”[8],因为任何“试图从事实中推论出价值的做法正是犯了摩尔(GeorgeMoore)所说的‘自然主义谬误’”[9]。我们负有某些直接针对动物的义务,就像我们负有某些直接针对我们彼此的义务一样。[10]美国学者汤姆•雷根所提出的这种间接义务论诠释了跨物种之间的权利和义务的不对等性问题,也足以说明,动物虽然暂时不具有人类所承认的权利,但并不妨碍人类具有以人道原则保护动物的道德义务。保护动物的实践要求不是开笼放雀式的“解放动物”,而是要求人类禁止对动物的非必要伤害其次,把“人类—人工智能—动物”三元伦理关系简化为“人工智能与动物”的二元伦理关系,而在此伦理关系之内,人工智能更没有无故伤害动物的道德理由。这是因为人工智能与动物是一种单向度的伦理关系,人工智能在生存与发展上完全可以不依赖于动物(如不用进食动物肉体和穿戴动物皮草作为生存和享受的基本条件),动物却可以因为人工智能的广泛应用而增加福利,并因为人工智能的失控而备受伤害。例如,在未来的人工智能时代,人类与动物直接打交道的机会除了伴侣动物以外,其他任何种类的动物都是由人工智能来进行直接接触和处理。以屠宰为例,人工智能屠宰技术毕竟是机器系统,它们不具备像人类一样的生理和心理基础,永远不会具有通过虐待和折磨动物来获得愉快情感的变态能力,只会根据智能算法直接采用无痛苦屠宰动物并剥皮取肉,而不会多费时间以及多加几道非必要的虐待程序来对动物进行痛苦的折磨。因此,人工智能与动物这种单向度的伦理关系决定了禁止人工智能在非必要的情况下伤害动物的基本原则。只有在人类的需要和授权下,人工智能才能伤害动物,如人工智能代替人类屠宰农场动物、在野生动物袭击人类时伤害动物以解救人类等。总之,即使是与动物的伦理关系更为密切的人类,也没有权利可以无故伤害动物,因为人类在非必要的情况下伤害动物的行为也必须受到禁止,而作为人类创生出来的人工智能,就更加必须遵循这一基本原则,未来的强人工智能下的具有“人格”或道德地位的机器人也必须限制在人类为其制定的伦理原则及规范中活动。

(三)第三项基本原则:人工智能在人类与动物利益相冲突的情况下遵循人类利益优先的原则动物伦理中的人工智能还要面对一个更加复杂的情况,那就是当人类与动物利益相冲突时,人工智能需要遵循什么原则?举例来说,当机器人看到人类和动物同时落水时应该选择先救谁?或者说当机器人看到人类在受到野生动物的袭击时,他应该怎么做?这是一个经典的道德问题,必须将人类和动物的利益分为两个不同的方面来论证,并运用功利原则来进行计算,由此推导出人工智能应遵循人类利益优先的原则。

1.人类和动物的不受痛苦的利益相冲突的情况。在道德关怀中,无论人类还是动物,最起码的利益就是不受痛苦。但是如果两者的不受痛苦的利益发生冲突时,谁的利益更大?由于人类与动物的痛苦大致是可以衡量的,如辛格提出的“等值痛苦”的概念可以用来作为参考。他举例说,如果用相同的力气打马屁股和婴儿脸一巴掌,疼痛感受肯定是不一样的,能把婴儿打哭却不一定能把马打痛,但是总有一种对动物的打法(如棍子打)造成的痛苦能够在人类和动物之间进行等值衡量。在功利原则对等值痛苦的计算下,当人类和动物的利益发生冲突时,也同样有理由优先考虑人类的利益。例如当考虑一项实验到底是用人来做还是用动物来做时,假设这项实验非做不可,则用动物来代替人体实验不会构成物种歧视。[11]如果再来设想一个道德实验,假如一只狼正在撕咬一个人,如果用一种打法可以使狼放弃撕咬,显然这种情况下人工智能(武器系统或机器人)都会使用这种打法(甚至是击毙),而之所以这么做,仍然是遵循人类利益优先原则,并不会去考虑到狼的痛苦。所以,在人类和动物的不受痛苦的利益发生冲突时,即使是在等值痛苦的条件下,功利计算的结果仍然是要求人工智能遵循人类利益优先的原则,因为动物是被排除在人类的道德共同体之外的。

2.人类和动物的享受快乐的利益相冲突的情况。人类和动物都有享受快乐的利益,但是绝大多数情况下,人类享受快乐的能力要明显高于动物。譬如猪就不懂得投票的意义,而人则懂得追求人生理想和实现自我价值的意义,人在精神追求过程中所带来的快乐享受要远远高于动物。尽管在人类和动物之间的享受快乐的利益很难做到等值衡量,因此基于功利原则的计算无法进行,然而动物在心智上并不会由于失去了享受快乐的利益而带来长久痛苦,而人则甚至会因为理想破灭或者失恋导致承受不了精神上的痛苦而自杀。可见,如果一种利益总是比另一种利益大,就应该遵循以利益大者为优先的原则。因此,在人类和动物的享受快乐的利益相冲突时,人工智能也应该遵循人类利益优先的原则,这样就能保证人工智能正确地选择优先保护人类的享受快乐的利益。要之,功利原则要求人工智能在人类与动物发生利益冲突(道德两难)时遵循人类利益优先的原则,这显然是一种符合人性的伦理原则。美国法学家加里•L•弗兰西恩(GaryL.Francione)也将人类利益优先称之为人们普遍认同的道德直觉,他认为:“我们大多数人都有这样的观点:在人与动物的利益真正有冲突的情况下,或者要求我们在人与动物之间做出抉择的紧急情况下———也就是很有“必要”这样做的时候———我们应该优先考虑人类的利益而不是动物的利益。”[12]虽然功利主义者认为不能为了一个物种的琐碎利益而牺牲另一个物种的更大的利益(比如为了口腹之欲而剥夺动物的生命),但是在面临人类和动物利益发生冲突时,基于人类利益优先的功利主义做法,人工智能必须作出保护人类而不是保护动物利益的道德抉择。如果人工智能选择保护动物而不是保护人类,显然违背了汉斯•约纳斯(HansJonas)所提出的责任的“第一律令”:不可毁灭人类自己。[13]这样,就能顺利推导出动物伦理中的人工智能的第三项基本原则:人工智能在人类与动物利益相冲突的情况下应遵循人类利益优先的原则。

参考文献:

[1]曹文斌.西方动物解放论与中国佛教护生观比较研究:序言[M].北京:人民出版社,2010:1.

[4]张君平.黑格尔人学思想研究[M].北京:知识产权出版社,2015:163.

[5]胡道玖.以责任看发展:多元视阈的“责任发展观”研究[M].上海:上海交通大学出版社,2014:65.

[6]董慧颖.机器人原理与技术[M].北京:清华大学出版社,2014:6.

[7]〔法〕史怀泽.敬畏生命[M].陈泽环,译.上海:上海社会科学院出版社,1992:76.

[8]〔美〕汤姆•雷根,〔美〕卡尔•科亨.动物权利论争[M].杨通进,江娅,译.北京:中国政法大学出版社,2005:243.

[9]张德昭,徐小钦.论动物解放/权利论的天赋价值范畴[J].自然辩证法通讯,2004(4):47.

[10]〔美〕汤姆•雷根.关于动物权利的激进的平等主义观点[J].杨通进,译.哲学译丛,1999(4):26.

[13]方秋明.“为天地立心,为万世开太平”———汉斯•约纳斯责任伦理学研究[M].北京:光明日报出版社,2009:110.

作者:曹文斌 单位:湘潭大学

被举报文档标题:动物伦理中的人工智能的基本原则

被举报文档地址:

https://www.meizhang.comhttps://www.meizhang.com/shekezazhi/ymxkzz/726868.html
我确定以上信息无误

举报类型:

非法(文档涉及政治、宗教、色情或其他违反国家法律法规的内容)

侵权

其他

验证码:

点击换图

举报理由:
   (必填)