购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

第三期
面向人工智能体开放的伦理学

主讲人:李志祥
主持人/评议人:王露璐
与谈人:吕雯瑜、张萌、沈洁、陈佳庆、潘逸、
张晨、张伟皓、边尚泽、邹家琪、赵子涵

案例引入

“电车难题”(Trolley Problem)是伦理学领域的知名思想实验之一。随着无人驾驶技术的不断发展、人工智能的应用越来越广泛,我们可以畅想无人驾驶版电车难题:在紧急情况下,无人驾驶的人工智能系统如何取舍不同的碰撞目标?情景一:一边是山涧,一边是路人,人工智能系统怎么选?情景二:一边是1个胖子,另一边是5个瘦子,非撞不可,人工智能系统选谁?人工智能系统在设计时无法回避这个著名的“扳道岔”道德困境问题。同时由于电车难题的特性,无论何种选择都会产生道德伤害,那么道德伤害的责任归属如何划分?

从案例中可引出两点:第一,人工智能体具有一定的自主行为能力,即脱离人类控制的、独立的自主行为能力;第二,人工智能体的自主行为可能遭遇一定的道德困境,并且可能导致一定的道德伤害或损害。人工智能体的自主行为可能导致一定的道德后果,这意味着我们需要对人工智能体的行为进行一定的伦理考量和规约;而人工智能体行为具有一定的自主性,这意味着我们的伦理考量既不同于对物的伦理考量,也不同于对人的伦理考量。如果说传统的伦理学理论能够解释物和人的伦理问题,但无法解释人工智能体自主行为引发的伦理问题,那么,这是否意味着,我们需要建立一种新的人工智能伦理学,去解释传统伦理学无法解释的人工智能体自主行为?如果需要建立这样一种专门针对人工智能体自主行为的伦理学,那么这样一种人工智能伦理学,应该是一种什么样的伦理学?

主讲人 深入剖析

问题之一:人工智能伦理应该立足于现实科技还是未来科技?

人工智能体首先是一种科技产品,这种产品的能力,与人工智能体自身的科技水平息息相关。这就意味着:我们要建立的人工智能伦理,也与人工智能体的科技水平息息相关。现在的问题是:我们的人工智能伦理,到底应该立足于现实的人工智能科技,还是未来的人工智能科技?

这个问题的特殊意义在于:科技不同于其他事物,根据摩尔定律和莫拉维克(Hans Moravec)、库兹韦尔(Ray Kurzweil)等技术加速主义者的说明,科学技术的发展是呈指数级速度增长的。科技伦理必然以科技为基础,而科技本身是加速发展的,那么,科技伦理究竟应该立足于何时的科技?如果以现实的科技为基础,那么当我们探索出与之相应的伦理规范时,科技本身已经向前发展了,刚刚探索出来的伦理规范就已经过时了,难以适应新的科技情况。这就是较早的网络伦理学家所说的“立法总是落后于科技发展”。如果以未来的科技为基础,未来的科技到底能发展到什么高度,并不是可精确预测的,而是充满了主观想象色彩。以带有想象色彩的未来科技为基础,所得出的科技规范是否具有实效性,这又变成了一个问题。

在这个问题上,目前存在三种思路:第一条思路可以称为未来主义思路,代表人物是一些狂热的未来主义分子(如莫拉维克、库兹韦尔和赫拉利[Yuval Noah Harari]等)和科幻小说家(如阿西莫夫[Isaac Asimov]、克拉克[Arthur Charles Clarke]等),在他们的眼里,人工智能必然会发展出超级智能,成为宇宙的主人。第二条思路可以称为实际主义思路,代表人物是现实用户,他们以现实生活中已经制造出来的、他们能够接触到的人工智能产品为对象。比如说,目前学界对ChatGPT3.5版本的嘲讽与戏弄,就是这种想法。第三条思路可以称为现实主义思路,代表人物是瓦拉赫(Wendell Wallach)、查夫斯塔(Spyros G.Tzafestas)、韦弗(John Frank Weaver)等,他们强调以已经实现和可预期实现的人工智能为对象。“已经实现”是人工智能已经解决了的,“可预期实现”是人工智能现在还没有解决但将来能够解决的。如果以自主能力为标准,未来主义者侧重于具有完全自主能力的人工智能,实际主义者侧重于具有弱自主能力的人工智能,而现实主义者侧重于半自主能力的人工智能。我更倾向于现实主义思路,认为科技伦理应该立足于已经实现和可预期实现的未来科技。

问题之二:机器人伦理学应该是机器的伦理学还是人的伦理学?

以人工智能自主行为可能引发的伦理问题为对象,我们要建构一种人工智能伦理学,或者叫机器人伦理学。“机器人”与“人工智能”有一定的区别:人工智能仅仅是一种智力系统,而机器人则是智力系统和行动系统的统一。因此,这种伦理学应该叫“人工智能体伦理学”或“机器人伦理学”。现在的问题是:由人工智能引发的机器人伦理学,究竟应该是机器的伦理学还是人的伦理学?

有人认为机器人伦理学应该是人的伦理学,因为机器人在本质上是一种产品,是人在制造机器人;机器人又是一种物品,是人在使用机器人。作为一种人造物,机器人的一切都是人给的,机器人的自主性在本质上也是人给的。正如ChatGPT一样,它之所以能够生成各种文本,是因为人类提供了大量的数据。从这个意义上说,机器人引发的一切伦理问题,从表面上看是机器引发的,从本质上看是机器背后的人引发的。机器背后的人主要包括三种:设计者、制造者和使用者,有人认为还包括销售者。这种思想目前是主流,阿西莫夫其实就属于这种,希腊的查夫斯塔、中国的北京大学人工智能小组,都是如此。很显然,这是一种传统伦理学的思路,其前提是伦理学只是人的伦理学,机器人在本质上只是机器,不是人,只有人才能引发伦理问题,机器本身无法引发伦理问题,所以不需要机器人专用的伦理学。

也有人认为机器人伦理学不应该只是人的伦理学,也应该是机器的伦理学。在他们看来,人的伦理学只看到了机器人的产品性,却忽视了机器人的自主性。人与机器人的关系有点类似于上帝与人的关系:上帝创造了人,赋予人自由意志;人创造了机器人,也赋予机器人自主行动能力。正是这个自主行动能力,使得机器人有可能成为一个行为主体,能够在一定意义上独自承担道德责任。也就是说,如果机器人造成了一定的道德损失,当机器人背后的人都分别承担了各自应该承担的责任之后,还剩下一部分责任无人承担,那么这些责任就应当分配给机器人。就像我们在一开始提出的两个案例一样,一个是意外,一个是失控,无人驾驶系统是否需要承担道德责任?这种观点在伦理学界并未占据主流,最有代表性的就是瓦拉赫和他的《道德机器》(Moral Machines),但这种观点在机器人法学领域的地位日益上升,韦弗在《机器人是人吗?》(Robots are People Too)中就要求确立机器人的有限法人资格。

相比较而言,我更倾向于第二种观点。人工智能尽管是一种人造物,但它与其他的人造物不同,它具有一部分人类的智能,能够做出一定自主行为,人工智能独有的智能和自主性必须引起我们足够的重视,它可以为机器人赢得特定的道德地位。我们不应该把机器人犯的罪都归咎于机器背后的人,否则,机器人的自主行动能力有何意义?这就是说,我们一方面应当保留传统的人的伦理学,追究机器人伦理问题背后的人的问题,另一方面也应当开发新的机器的伦理学,让机器人自身承担相应的道德责任。

问题之三:机器人是否应该享有道德权利?

无论在伦理学中还是在法学中,权利与义务都是完全对等的,即当我们设定了一种权利,那么必然要设定与这种权利相对应的义务,否则这种权利就无法得以实现。但是,权利与义务并不同时属于同一个主体,而是分别属于不同的主体。这样一来,就可能存在这样一种情况:一个存在物可能只享有权利而不承担义务,而另一个存在物则只承担义务而不享有权利。我们可以考虑一下父母与未成年子女的关系,还可以考虑一下人类与动物的关系。如果权利与义务可以分开的话,那么我们可以先讨论一个简单的问题:机器人是否应该享有道德权利?反过来说就是,人类是否应该给予机器人道德关怀?

要回答这个问题,我们可以先回顾一下道德关怀的发展史。人类的道德关怀,经历了一个不断发展的漫长历程。在古希腊时期,道德关怀的依据是理性能力,拥有完全理性能力的成年男性(即公民)享有完全的道德关怀资格,拥有部分理性能力的妇女和儿童只享有部分的道德关怀资格,不拥有任何理性能力的奴隶、动物以及其他存在物,则不享有任何道德关怀资格。这种道德关怀理念后来沿着两条线路发展:一条线是随着对理性能力的认识发展而变化。随着科学知识的发展,人类开始认识到,不同性别、不同阶层、不同种族事实上拥有相同的理性能力,因而应该享有平等的道德关怀资格。另一条线是随着对道德关怀资格标准的认识发展而变化。最开始,人类以理性能力作为道德关怀资格的标准,这是理性主义伦理学的产物。但在功利主义伦理学出现之后,道德关怀的标准从理性标准变成了感觉标准,即是否拥有苦乐感觉成为能否获得道德关怀资格的重要依据。在进行功利后果计算时,所有的苦乐量(包括动物的苦乐)都要求被计算进来。于是,一切具有苦乐感知能力的存在物就都进入了道德关怀范围,最开始是动物,然后加入了植物,最后发展成了包括大地和荒漠在内的一切自然存在物。

当人工智能体或机器人出现后,同样的问题又出现了:我们是否应该给予机器人道德关怀?很显然,按照现有的道德关怀标准,人工智能体或机器人是无法获得道德关怀资格的。从理性标准来看,道德关怀所说的理性标准是实践理性而不是工具理性,很显然,人工智能体或机器人并不具备这样的实践理性能力,它们的行为目标不是由自己确定的,而是由人类确定的。从感觉标准来看,道德关怀的感觉标准从狭义上看是苦乐感觉,从广义上看是生命能力,而从目前的人工智能水平来看,人工智能体尽管能够做出体现苦乐反应意义的行为,但并不具备真正的感觉能力和生命能力。综合起来,在现有的伦理学体系之下,人工智能体无法获得道德关怀资格,只能被排除在道德关怀范围之外。但是,我们真的不关怀人工智能体吗?面对那些非人形的人工智能体,那些工业用的机器人、那些以软件形式存在的人工智能,我们可能不会激起多少道德同情心,但是,面对那些服务型的人形机器人呢?当它们越来越深地介入我们的生活,与我们有着越来越密切的关系,我们真的能够无动于衷吗?在这个问题上,又一个轮回出现了,我们再次遭遇了当年面对动物时的问题。

如果承认我们有可能关怀人工智能体,就像关怀动物一样,那么我们就需要调整现有的伦理学理论,至少需要重新反思并且调整道德关怀的标准。现有的道德关怀标准,无论是实践理性能力还是感觉生命能力,在更高层面上体现为一种关系,这种关系的本质,是其他存在物与人类存在物的相似关系,而不是服务关系。也就是说,实践理性能力和感觉生命能力之所以能够成为道德关怀的标准,是因为这是人类和其他存在物共同具有的能力,而不是因为这种能力能够给人类提供某种好处。我们之所以排除服务关系,一是因为其他存在物的实践理性能力和感觉生命能力并不一定能给人类提供好处,二是因为有很多能够给人类提供好处的存在物并不享有道德关怀资格(如我们的日常生活用品)。一旦我们将道德关怀的标准上升为与人类存在物的相似关系,那么人工智能体就有可能获得道德关怀资格,因为人工智能的设计目的就是模拟或替代人类的特定智能。也就是说,人工智能体具有与人类相似的智能,以及从这种智能中生长出来的自主能力。如果说人工智能体与人类共同具有智能和自主能力,那么人工智能体能否凭借这种相似关系而获得人类的道德关注呢?

我的理解是肯定的。既然我们能够给予动物、生命物道德关怀,那么我们应该也能够给予人工智能体、机器人道德关怀。不过,我仍然会认为,人类的道德关怀是有层次的、有差别的,即“爱有差等”。我们对人类自身的道德关怀程度,肯定要强于对动物、人工智能体的道德关怀程度。而动物和人工智能体,何者应该获得更多的道德关注呢?如果撇开经济效益而仅仅考虑存在物本身的话,那么生命物或许应该比人工智能体获得更多的道德关注,因为生命是会死亡的,而人工智能体却可以永生。

问题之四:机器人是否应该承担道德责任?

除人工智能体(机器人)是否应该享有道德关怀资格之外,还有一个非常重要的机器人伦理学问题:人工智能体是否具有道德能力,是否应该承担道德责任?

在这个问题上,主流思想认为人工智能体欠缺一些非常重要的能力,这些能力的欠缺使得机器能否具有道德能力成为一个疑问。第一,机器人没有自我意识。作为一个人工制造出来的存在物,机器人没有感觉、没有意识、没有情感体验、没有幸福欲求,最为根本的是,机器人没有自我意识。人工智能体既不具备形成自我意识的前提,也没有具有自我意识的倾向。没有自我意识,这就意味着人工智能体无法意识到自我和自我利益,因而就无法从自我出发设定行为意图。没有行为意图,机器人的行为就很难被称为道德行为。第二,机器人没有自由意志。在康德(Immanuel Kant)那里,自由意志是道德的前提,自由意志打破了自然因果性的束缚,为人类提供了道德可能性。作为一种人造物,机器人没有自由意志,它只能服从创造者的意志。这个创造者的意志,对于人工智能体来说,就像具有决定意义的自然因果规律一样。没有自由意志的自我立法,作为被决定者的人工智能体就不具备道德意义。第三,机器人无法担责。我们可以对机器人进行一定的赏罚,但这只是报复正义的一部分。事实上,机器人并不能真正履行矫正正义,因为机器人本身也是一种物,它并不拥有自己的财产,因而没有办法进行赔偿。

尽管存在以上种种障碍,但机器人作为一种人工智能体,仍然具有成为一种道德机器的可能性。这是因为人工智能体具有一种非常特殊的能力:自主行动能力。“道德”概念是和“自主性”联系在一起的,康德早就揭示过“道德”与“自主性”之间的内在联系。但在康德的理解中,这种自主性是人所特有的,基于自主性的道德因而也是人所特有的。除人以外,动物也好,神也好,都不可能拥有道德,道德是人之为人的人格所在。但是,人工智能的出现,有可能打破康德描绘的道德图景,因为人工智能像人类一样具有自主能力,这是以前的存在物从来没有过的。也就是说,如果自主能力与道德能力具有密切的联系,那么,具有特定自主能力的机器人可能就有拥有特定道德能力的可能性。我想说的是,如果人工智能体具有一定的道德自主能力,那么它就可能具有与这种自主能力相应的道德能力。也就是说,人工智能体的道德能力取决于它所具有的道德自主能力。关于自主能力的高低,人工智能界的习惯区分方式是:无自主能力、半自主能力和全自主能力。无自主能力的人工智能体自主能力为零,完全受人类的控制和支配;全自主能力的自主能力为满分,可以完全脱离人类的控制,由人工智能体自主决定行为的目标和手段;而半自主能力的介于二者之间,它可以在一定程度上脱离人类的控制,即由人类决定行为目标,而人工智能自主决定行为方式。从目前人工智能体的发展水平看,半自主能力是人工智能体有可能实现的目标,而全自主能力更多地停留在想象阶段。因此,我目前的想法是:具有半自主能力的人工智能体,具有相对有限的道德能力。

需要说明的是,这种半自主能力,并不是一种由人类设定的、接近于自然机械的、没有任何选择余地的能力,比如阿西莫夫的机器人学三定律。因为这样一种半自主能力,表面上呈现为一种自主性,实际上是一种被决定了的东西,完全被人为设定的行为法则所决定。我们所说的“自主性”,不能建立在代码设定上,而是要建立在自主学习上。也就是说,具有自主性的道德规范,并不是人类自上而下强行设定的,而是人工智能体通过自主学习获得的。需要特别加以说明的是,道德与法律有一个非常重要的区别,即所有的法律规范都能获得国家意义上的共识,但在道德规范方面并不存在这种共识。这就意味着:那种底线意义上的道德共识,可以通过自上而下的方式设定在人工智能之中;而那些本身就存在争议的道德原则或规范,在一个国家的人民之中都没有办法取得共识,恐怕人工智能体只能通过自下而上的自主学习方式获得了。这种通过自主学习获得的道德规范,往往是人类不能控制的,甚至是无法预测的。只有这种自主性的道德学习能力,才能为人工智能体带来真正的道德能力,从而让人工智能体承担真正的道德责任。

很显然,现有的伦理学理论往往执着于人的伦理学,而难以承认机器人的伦理学。为了能够将机器人(而不仅仅是人)纳入伦理学理论,承认人工智能体的道德能力和道德责任,我们需要对现有的道德理论进行一定的调整。第一,可以在完全道德主体之外承认准道德主体。人类是完全的道德主体,拥有道德所需要的全部条件——内在的灵魂状态和外在的行为举止,而人工智能体只是一种准道德主体,只拥有道德所需要的部分条件,即只有外在的行为举止,而没有相应的灵魂状态。第二,可以在德性伦理之外承认行为伦理。完全的人类道德,既要有内化的德性,又要有外化的行为。而人工智能体只有外化的行为,而没有内化的德性。第三,可以在幸福伦理之外承认发展伦理。完全的人类道德,既离不开个人的幸福,也离不开社会的发展。而人工智能体没有自我意识,无法从自我幸福出发建构伦理,只能寻求社会繁荣发展的规范要求。第四,可以在完全责任伦理之外承认有限责任伦理。人类是完全的道德主体,自己为自己立法,因而完全承担行为的道德责任。人工智能体是不完全的道德主体,既服从人类设定的道德规范,也服从自主学习的道德规范,因而只承担源于自主学习部分的有限道德责任。

面向人工智能体开放的伦理学,并不意味着要替代或取消现有的伦理学理论,而是对现有伦理学理论的一种调整或补充。其根本意图在于:适当降低道德的门槛,将更多的存在物纳入道德,从而进一步扩大伦理学理论的范围。在这种扩大的伦理学理论之中,我们既可以保留最完全、最严格的伦理学,也可以容纳不完全、较宽松的伦理学。这种经过调整的伦理学理论,可以具有更大的伦理解释力,能够解决更多的现实伦理问题。

结语:一种面向人工智能体开放的伦理学应该是一种什么样的伦理学?

对以上四个问题,我们的回答分别是:第一,人工智能伦理应该立足于可预期实现的人工智能科技水平;第二,机器人伦理学首先应该是机器的伦理学;第三,人工智能体可以享有有限的道德关怀资格;第四,人工智能体具有与半自主能力相应的道德能力,承担有限的道德责任。如果这样面向人工智能体开放,我们的伦理学需要作出一定的调整,其核心是在第一人称伦理学的基础上,开发第三人称伦理学;在美德伦理学的基础上,开发行为规范伦理学。

自由阐述

边尚泽:感谢李老师的讲解,我想从人工智能的主体性角度分享一些我的想法。我感觉人的智能并不能概括机器的智能,所以应当认为人工智能拥有的是和人不一样的主体性。现在的伦理学可以被视为一种康德式的伦理学,即道德法则是普遍法则,那么道德主体均要接受相同的道德义务,实际上暗示了有且只有一种道德主体。这是用一种先验的角度规定了道德主体的起源,所以只有一种道德主体存在。但是在中国伦理的体系内,人并没有先天的道德身份,而是通过后天的行为逐步获得了自身的道德主体身份,也就是说接受不同的道德主体同时存在于道德世界之中。至于人能不能接受这样的道德视角,我认为完全取决于人的选择:能不能接纳非人的存在成为人。人工智能和人的关系接近于奴隶和公民的关系,如果公民认为奴隶可以成为道德主体,那么奴隶就不再是工具而成为人。历史上我们实际上完成了很多次这样的接纳,例如奴隶解放、妇女解放、民族的统一和融合等。因此从历史的经验来看,我认为我们完全有可能接纳人工智能成为一类和我们不同的,但也同样有着平等道德身份的主体。

陈佳庆:关于是否要建立一种人工智能体的伦理学,这种伦理学是属于人工智能体的伦理学还是人的伦理学,我想这不是本质判断的问题,而是选择问题,即我们目前希望构建的是一种制约设计者、制造者和使用者的伦理规范体系的话,那这就是人的伦理学的延伸;如果我们是在说诞生了智慧和自我意识的机器人如何制约自身的话,那这就是一种属于人工智能体的伦理学。而后者其实不需要我们人类去建立,因为回顾人类的道德法则的由来,依循康德伦理学的思路,道德法则是人类意志给自己立的法,它不是外在于人类理性意志之外的,也不是他人抑或上帝的命令,那么对于诞生了自我意识的机器人来说,它们的道德法则也只能由它们自己建立,而不需要人类下达命令。因此当我们思考人工智能体的伦理问题时,我们要清楚地认识到制造人工智能的目的。我认为我们肯定不是希望制造一种新的智慧体。从目前的经验来看,我们只是希望人工智能技术能够给人类生活带来便利,这也是一切科学技术的目的。由此出发,机器人获得自我意识对人类来说不是一件有益的事情,从人类主体性和自由意志觉醒的历史来看,一个群体对另一个群体的接纳往往伴随着战争。当人工智能产生自由意志之时,它们就不会满足于成为被支配的存在,它们想要获得道德主体地位就必须斗争,战争之后才会出现新的和谐状态。我们要避免这样的情况出现,人类不要去扮演上帝的角色,如果我们希望获得便利,那么就谨慎对待人工智能技术的发展,设计尽可能多的限制,防止文明战争的意外发生。

邹家琪:对于人类而言,他人就如同一个黑箱,我们无从知晓他人的意志,我们只能通过某种信念去相信他人是和我们一样的主体。而人工智能体对于人类而言也如同一个黑箱,这便形成了一个有趣的对照。与此同时,以一种后结构主义的视角来看,人首先是被社会建构的产物,我们生在语言、社会秩序之中并被这种社会秩序所操弄,人工智能体也同样如此,生于大量的语言训练当中,并通过大量训练对人类的表达规律进行把握并最终实现与人类无异的表达。因此探讨人工智能是否有意识并无意义,重要的是人工智能确实表现出了表达某些限定之外的自由性。正如我们所观察到的,无论是自动驾驶系统还是与ChatGPT的对话,都向我们明显地展现了在一定规则外的自由性。与此同时,基于大数据训练的原理,我们实际上是无法理解这种自由性的来源的,它们的判断是基于大量数据案例的学习,而不是完全基于我们输入的规范,因此无论它们在事实上是不是任意的,我们在实践中都只能将其视为任意的。

因此我们不妨这样理解,当下的人工智能体是没有自我意识的自由意志,它不存在自我意识,它是人的意志的延伸而不是完全的主体;但它又是自由的,它对命令的执行是基于“理解”而不是直接的控制。因此在人下达的命令与被人工智能体理解并执行的命令之间会出现基于理解、表达差异的,以及基于复杂现实的不可避免的偏差。这种偏差是由人工智能体的自由解读而不是人的命令造成的,这种自由性正是需要我们用道德进行规范的对象。

沈洁:人类社会的现实情况是无比复杂的,即使是人类自身,在一些道德困境下也很难作出理性的抉择。人类的道德与伦理是来自历史生活的经验,而人工智能体可能的道德体验是来自数据交换,人工智能体可以自动挖掘、分析数据,因而双方孕育道德的基础就是不同的。面向人工智能体开放的伦理学就要求我们需要首先明确人工智能作为道德主体的内涵定义及边界,例如它们自身需不需要道德主体地位,需要何种意义上的道德主体地位等问题。但是人类并不是人工智能体,这些问题只能限制在人类中心主义视角进行探讨。由于科学技术的限制,目前的人工智能体并没有具备心灵和自由意志,仅凭“输入—输出”的工作模式无法应对复杂的实际情况,不能依据自己的意志进行独立选择。不论人工智能体将来能否和人类拥有一样的意识和情感,是否会成为真正的道德主体之一,我们都应该清醒地认识到人工智能体的出现对全人类的现在和未来都造成了颠覆性的影响,为了积极防范人工智能技术可能给人类带来的危害,我们需要秉持着让人工智能体与人类各司其职、互相促进,同时人类应该使其更好地服务于人类社会的发展的理念,实现人工智能体和人类的和谐共处。

张萌:首先,我认为人工智能是没有自主意识的。人工智能的发展是利益驱动的,是一个从量变到质变的成果展现,人工智能最终会发展到什么程度要看我们能够为它投入多少成本。在发展初期,我们可以忽略作为新生事物的人工智能存在的缺陷;但一旦发展到变现阶段,就需要计算产出和投入比例,考虑实际效益问题。因此,如果最终人们发现人工智能并不会带来想象中的收益,它被淘汰也是可能的,而且淘汰它的必然是生产它的。其次,我们讨论人工智能是不是具有自我意识的道德主体,目的在于判断它能不能承担道德责任和法律责任,但这是无意义的。因为在责任划定之后,即便它犯了错误,我们也不能要求它践行责任,也就无法实现我们关于正义和责任的诉求。再次,证明人工智能有没有自主意识可以从证明它是不是物开始,但它不是物这一点显然是不成立的。人工智能发展到今天,仍然只是人类技术层面的辅助工具,而不是能够提供情绪价值的、对人类进行情感关怀的主体。因此,至少在此意义上,人工智能会对人类产生威胁的论调是错误的。最后,当人工智能发展到它既正确又像人类的时候,它具不具有自主意识、幸福观念、自由意志等都是不重要的,我们在意的不是它能不能像人类一样思考,而是它能不能像人类一样做事。因此,构建人工智能伦理学是必要的,但是它跟以往的伦理学本质内核是一致的。

赵子涵:最初,我认为道德是针对有生命的、有灵魂的、具有自主意识和自由意志的人类而言,因而人工智能体并不具有道德主体地位。但是深入了解人工智能体的自主学习能力后,我认为人工智能体可以拥有一定道德主体地位。道德主体是具有主观的判断能力,并且能够为自身行为承担道德责任的。强调和讨论道德主体问题,即是对人工智能体道德主体地位问题的探讨,也是对人工智能责任伦理可能性追究的探讨。

我对人工智能体的道德责任,以及担当责任、承受惩罚是存疑的。对人类而言,惩罚是让其丧失一些权利,对其重要的、在意的事物有所损伤,那么对于人工智能体而言,是损伤数据或系统吗?TA既然具有自主选择能力,那么TA会有相应的方法来减小其伤害或者恢复其损失吗?有什么更彻底的,对人工智能体是而言很有效的、切中其要害的惩罚呢?

对于人的自主性,我可能还会想到人的独一无二性,人和人之间是有区分的,没有完全一样的人,那么人工智能体都是一样的吗?一个人工智能体和另外一个面对相同的情境也会有相同的行为吗?会有基于智能体自主性的不同行为选择吗?这些问题让我进一步产生了困惑。

吕雯瑜:基于人工智能技术发展的超越性和持续性,一旦出现具备所有的人类认知能力且拥有自主意识的“强人工智能”,那就意味着人工智能可以从事自主活动,成为有价值判断能力的主体。这种可能性使得人工智能具备超越物的工具层次,而进入主体的主观意识的条件。主体性是人工智能区别于其他技术工具的特质,但也是引起人类担忧的根源。强人工智能的出现将会使人类面临严峻的挑战:在技能层次,人工智能将远远超过人类;在主体性层面,二者虽相同或相似,但人工智能在速度、容量、精准性等方面将具有明显优势。整体而言,人工智能要超过人类,而人类面对一个整体上超越自身的存在,就需要重新摆正自己的位置。这实际是一种伦理危机,即当人类优势不再,人类将何去何从。因此,造成人工智能伦理困境的不是人工智能能力的不断发展,而恰恰是人工智能主体性的生成。人类伦理不能普遍适用于具有主体性的人工智能,这是真正人工智能伦理的开端,也是当前人工智能伦理困境的根源。任何主体性的存在物都会有趋利避害的天性,人工智能会以维护自身存在为优先级,摒弃那些保护人类而使自身利益遭受损失的道德规范。若真如此,人类的利益和存在受到威胁的风险会增加,虽然这是人类不愿看到的,却符合人工智能伦理的内在逻辑。

张伟皓:我认为从客体性的角度出发有利于我们理解人工智能体的伦理学主体性何以可能。以个人为例,当我在面对一个真实的伦理主体,即他人时,通常会遵守一定的伦理规范,并产生羞耻、尊敬、平等等情感,因为我会视他人为一个主动的伦理客体。而人们在面对一般的人工智能体(如ChatGPT)时,并不会产生这些情感,因为它们还未成为主动的伦理客体。然而,在认识论上,这种情况已经发生了改变,面对人工智能体所表现出来的主动性,我已经难以将其视为传统的认识客体,对我而言它更像是一个主动的对象。若以布鲁诺·拉图尔(Bruno Latour)的理论解读,人工智能体已经完全具备成为具有主动性的非人行动者的资格了。尽管于我而言,人工智能体在认识对象上的转变还未产生伦理转变,但是,如果从人工智能体有可能成为一个主动的伦理客体的角度出发,将有助于我们理解人工智能体如何成为一个伦理主体或准伦理主体。

如果人工智能体有作为一个准伦理主体的资格,那么在今天的讨论中许多面向未来的期盼在当下已经成为可能了。例如,在面对人工智能体应该脱离自然法为自己设计一套道德规律的问题时,不同的人工智能语言模型(ChatGPT与文心一言等)中就会存在不同的“道德感”,它们对于不同的道德事件的看法也会有所区别;在面对人工智能体是否应有道德权的问题时,不以调戏的形式让它丧失原有的道德规律就是给予人工智能语言模型的道德关怀。

潘逸:道德责任主体应该具备自主性、自我决定能力和道德责任承担能力等特征。人工智能作为一种机器,本质上缺乏自主性和自我决定能力,它的行为目的是由人设定的,它的行为本身依托于数据库。哪怕是AlphaGo 2.0,看似并没有接入数据库,但AlphaGo 2.0本身是依托学习算法去不断精进棋艺的,而学习算法所接触到的其他棋手(包括人工智能棋手在内)都包含在数据库之内,AlphaGo 2.0究其根本是在数据库之内寻找最优解。最近很火的ChatGPT4.0也是如此,它只能被称为一个处理工具,并不能创造出新的想法。尽管人工智能系统可能会表现出某些看起来像是自我意识的特征,例如通过自学习能够改进自身的性能或是处理自己的故障,但这些行为都是基于预先设定的算法和规则,并没有真正的自我意识。人工智能只是执行程序设计、处理输入数据、进行计算和决策,而并没有真正的主体性。在这个意义上,人工智能还远远没有达到人类自我意识的水平。另外,我认为人工智能在拥有感情能力之前是不能获得道德自主能力的,人工智能无欲无求,不会恐惧,更没有惊喜的情绪。从目前的技术水平来看,人工智能还没有展现自我意识。虽然人工智能系统能够处理大量的信息和数据,但它们缺乏对自身和周围环境真正意义上的主观体验,因此我们无法对其实施真正的惩罚,同样也似乎无法再去追究人工智能的伦理责任。

张晨:我认为建立面向人工智能体开放的伦理学的初衷是好的。但与此同时也需要思考其合理性、必要性和可行性。我们的确不能否认人工智能自主作出决策的可能性。对此,倘若由相关人类主体为人工智能所有行为决策负责,似乎是一种过高的道德要求。追究人工智能体的责任从某种意义上来说也有助于划清相关人类主体和人工智能的责任界限,能够促使相关人类主体承担其责任。但是,实际上我们难以准确判断人工智能究竟是不是某一个行为的“行为者原因”。如果我们要构建面向人工智能体开放的伦理学,以此更加合理地追究人工智能的道德责任,实际上就要承认人工智能体的道德主体地位。目前的人工智能只具有一定的自主性,在我看来这一自主性也只是自动化程度较高的一种表现,归根结底还是研发者及其赋予人工智能的算力、算法与数据结合的产物。不容忽视的是,目前人工智能虽然还只是弱人工智能,但已经存在诸多风险,背后实际上是不同立场、价值取向的人类道德主体之间的纷争,人们难以达成共识,而这些风险又与人类的生活乃至生存息息相关。因此,我认为我们的关注点仍然要更多放在如何最大化人工智能带给人类的福祉,同时最小化其潜在的风险,为防范人工智能伦理风险贡献伦理智慧和力量。最后,我十分认可伦理学要关注前沿问题、面向未来,不过建立开放、相对宽松、不那么严格的伦理学必定困难重重,面临众多诘难,但这也恰恰是人类的创造性、意向性、自由意志的体现,赋予伦理学以生命力。

主讲人 问题回应

对于同学们的思考,我作个简单的回应,这些问题值得更为深入的思考。关于自主能力问题,我更倾向于认为人工智能的自主能力是人的自主能力的压缩,因而可以在现有道德的基础上做一个分层,把人的道德和人工智能的道德都容纳进来,这样相对来说更为现实。若将人工智能与人的自主能力判断为不同,必将建构两种不同的道德,这会引发更大的麻烦。关于人机关系问题,目前对于人机关系的思考更多是一种想象,考虑时需要具有一些危机感,关注意外情况。正如雷·库兹韦尔设想的进化论思路,他认为人类智能只是进化过程中一个阶段的产物,这个阶段是为更高级的智能做准备。因此,我们不仅不能停止研究人工智能,还要发展它。而发展的结果就是人类要作出牺牲。关于人工智能是否具有人的能力的问题,目前分析存在两种路径。第一种是反面驳斥路径,挑战我们对人的自由的常规观念,部分学者否认人具有自由意志、理解能力;第二种是正面肯定路径,追问人工智能是否会产生自由意志、理解能力等。我们无法证明人具有自由意志、理解能力等东西,同时也无法反驳机器人会产生自由意志、理解能力等东西。关于机器人的惩罚问题,我们前面说机器人没有财产无法罚钱,从目前法学角度来说,对机器人的惩罚有两种可能方式:一是把数据删除,恢复出厂设置;二是物理层面破坏机器人。

评议人 总结点评

人工智能问题的讨论并不必然要求我们对人工智能的相关技术有专业精确的认识,从哲学伦理学的角度探讨人工智能的道德主体、道德责任等相关问题也是非常有意义的。曾经我们认为的机器更多是一种数据模拟、程序演算的产物,例如早期电脑棋类游戏的人机比赛模式,人在积累一定比赛数量的基础上,便可以直接打败机器。但是前面讨论中提及的AlphaGo和无人驾驶技术表明了人工智能以我们意想不到的速度发展到今天,其某些能力甚至大大超越了人类。我亲身体验无人驾驶之后,发现其智能技术在某种程度上比人还聪明。为了解决责任划分问题,现在的技术实施时还是要求人的参与。使用自动驾驶技术期间,每间隔十秒左右,系统就会发出提醒,要求驾驶人员触摸方向盘;当驾驶人没有按要求进行触摸,系统便会缩短提醒时间,观察并确认驾驶人员是否还有驾驶资格,以保证自动驾驶的行车安全。无人驾驶系统通过预判可能的结果从而为我们提前规避一些问题。可见,人工智能的发展并不一定如同学们所担忧的一般,由于责任划分不明确而必然产生问题与冲突。当我们跨学科探讨问题时,一定要尽可能了解学科发展的前沿问题。虽然伦理学对人工智能的讨论有一定的滞后性,但是人工智能的快速发展带来的问题提醒我们必须要对新生事物进行前瞻性思考。那么伦理学在人工智能技术的冲击下究竟面向什么?伦理学经常被认为是为了实现好生活,而好生活不但包括现实生活,而且还涵盖未来生活。因此伦理学不仅要面向现实,也应当面向未来。构建一种现实和未来面向的伦理学是必要的。我们不仅要关注当下的好生活,而且要关注未来的好生活,思考日新月异的科技发展如何帮助我们获得好生活,如何使我们按照更好的规范实践好生活。在此意义上,本次工作坊的目的就实现了:应用伦理学的学术讨论不是让大家找到一个统一的标准答案,而是面向更广、更深、更前沿的研究领域进行思考,以使大家获得更深刻的理解。 WivctbORzst5YTvYGEDWkAXGLfedLs7J1/ZrJHVBW1XYw6x8h3A12uiVdta8HLkc

点击中间区域
呼出菜单
上一章
目录
下一章
×

打开