摘要: 社交机器人的拟人化是促进人机交互的重要属性,拟人化使得社交机器人“身而为人”。在后人类时代,社交机器人跳脱虚拟世界的界限存在于现实世界中,成为人类的朋友或者伴侣。当社交机器人进入人类社会环境时,它便被嵌入了一个高度复杂的社会结构和网络机制中,社交机器人通过程序和算法来模仿人类的基本规范和社会行为。然而,社交机器人的拟人化伴随着长期交互过程中的欺骗性,滋生“背叛”风险。这种“欺骗性”在削弱人机协同基础的同时,对人类文化信任体系将造成不可忽视的破坏。本文试图分析社交机器人“欺骗性”的具体内涵,探讨在“欺骗性”的意涵下导致的人机关系异化所带来的伦理风险问题。人类如何在技术“遮蔽”的情况下,正确处理与社交机器人的关系,重构这种关系对人类及社会结构的影响,直接关系到后人类时代人类文明的传承。
关键词: 拟人化;社交机器人;欺骗性;伦理问题
Abstract: The anthropomorphism of social robots is a significant attribute to promote human-computer interaction,and anthropomorphism makes social robots “become human beings”.In the post-human era,social robots transcend the boundaries of the virtual world and exist in the real world,becoming friends or companions of humans.When social robots enter the human social environment,they are embedded in a highly complex social structure and network mechanism.Social robots imitate the basic norms and social behavior of humans through programs and algorithms.However,the anthropomorphism of social robots is accompanied by deceptiveness in the long-term interactions process,which breeds the risk of “betrayal”.While weakening the basic of human-machine collaboration,and the “deceptiveness” will cause irreparable damage to the trust system of human cultural.This paper attempts to analyze the specific connotation of “deceptiveness” of social robots,and discusses the ethical risks caused by human-machine alienation under the connotation of “deceptiveness”.How can human beings correctly deal with the relationship with social robots under the condition of being “obscured” by technology,and how to reconstruct the impact of the relationship on human beings and the social structure,is directly related to the inheritance of human civilization in the post-human era.
Keywords: anthropomorphism,social robots,deceptiveness,ethical issues
“元宇宙”一词首次出现在30年前美国科幻作家尼尔·斯蒂芬森(Neal Stephenson)的小说《雪崩》( Snow Crash )中,小说描绘了一个Metaverse(元宇宙)的世界,即超越宇宙的虚拟实境空间,人们可以超越各自的隔绝空间通过虚拟化身在虚拟实境空间中交互。 喻国明教授在描述未来传播的图景时谈到,与现实世界平行的未来空间或许真的存在,技术是推动人与社会关联的建构形式,人与社会之所以能够产生交互,主要是依靠媒介作为中介的沟通作用。 换句话说,人工智能技术塑造的社交机器人,就是现实世界中人的基础“化身”,被视为连接两个平行世界的媒介。在过去的研究中,社交机器人更多被视为一种中介的连接,具有技术性的工具属性。一旦社交机器人不再作为技术中介的产物而存在时,它便成为交往对象的实体。在与人类长期交互中,机器人的拟人化特征让它具有了一种人格类型,这种人格类型一旦形成,必然会掺杂不可预见的“人性”,从而伴随一定程度的欺骗性,最终导致人机关系异化。人类该如何识别出或将面临的一系列遭受“背叛”的伦理问题,这些问题将对人类社会行为的发展产生哪些影响,这些行为如果违反行为规范或者涉及违法犯罪,社交机器人又是否相应地具备法律人格来独立承担相应伦理和法律责任,以上都是在人机传播过程中有待解决的现实问题。
从人的整体性看,社交机器人外在延伸了人的身体,内在拓展了人的思维意识。社交机器人到底是不是人?是否拥有主体思维意识?这直接关系到社交机器人的“背叛”问题是否成立。关于社交机器人的主体性问题,一直是学界争论的焦点问题。彭兰教授总结了目前学界存在的关于社交机器人主体性问题的三大分歧,第一类学者坚决否认机器人的主体地位,第二类学者肯定了机器人获得像人一样主体地位的合理性,第三类学者在肯定人类主导性的基础上承认机器的次主体地位。 由此可见,绝大多数学者对社交机器人的主体性仍然持保留意见。是否承认社交机器人的主体地位直接决定我们是否将社交机器人当作社会行动者来进行研究。那么,在社交机器人主体性“不确定” 的情况下,社交机器人如何才能成为真正意义上的社会行动者?
智能传播时代,社交机器人不可避免地参与到社会环境中,模拟人—人的交流模式,机器与人类交流要求具备相应的社会性,在人机交互过程中生成一种社交文化。美国新媒体研究学者列夫·曼诺维奇(Lev Manovich)在他的著作《新媒介语言》( The language of New Media )中谈到“人—机—文明交互界面”时认为,人—机交互过程中能够产生文化。 他认为,人类与社交机器人的交流,不仅仅是与机器的交流,更是与文化的交流。这种立体的交流模式最终指向人际沟通的文化互动,产生社会交往的文化场域,而文化场域的形成主要依靠人机交互共时性的情感勾连。当社交机器人被用在社会性情境时,比如,老年人利用社交机器人排解孤独,儿童利用社交机器人进行基础学习,此时的机器被赋予了情感的需求,它不再只是单一的技术中介,而是突破了原来的工具属性,成为社会行动者参与到交互过程中,在传播过程中承担了信源或信宿的重要角色,成为传播主体。所以说,当人类与社交机器人的交流发生在特定文化场域时,机器人的主体性则会发生迁移,文化中的情感使得机器人作为传播实体而存在,与人类形成新型的人机传播关系,进而促成一种新的人机交互文明。
当社交机器人被用于具有社会性的场景时,则成为真正意义上的社会行动者,在人—机交互过程中,机器人有了与人类平等的传播主体地位,成为传者—受者双重角色而存在。社交机器人之所以能够产生主体性的变迁,与其在人机传播中主动参与所表现出来的拟人化是分不开的。
人类是“强制性的意义创造者” 。人类存在于世界,为了迎合其作为生物体的相似性,人类根据其感官赋予的感知与需求来创造周遭,以此来填补世界的空缺。社交机器人作为关联人类生物特征的实体被创造出来,它可以与人言语交流、眼神接触、行为互动,甚至轻松完成人类无法完成的任务。事实上,尽管社交机器人具有显著的人造特征,但它只不过是一个被电子器件和算法程序共同裹挟的塑料外壳而已。人类根据机器人的类人特征做出相应的社会反应,并赋予其人性化的属性,这种现象被称为拟人化(anthropomorphism)。 换句话说,拟人化就是塑造人的实体外形的同时,利用算法程序赋予人类思维,使其更像人。社交机器人以社会行动者的身份主动参与到社会关系中,与人类形成交互关系,在社会交往过程中对人类的社会生活产生直接影响。有研究表明,人们可以根据社交机器人的外观和行为,感知它们具有的不同特征,比如学识渊博、社交能力和讨人喜欢的程度。 社交机器人的外形与它们受欢迎的程度直接相关,比如老年人更倾向于线条平缓且看起来更加温暖的机器人外形。
“人类中心论”一直将人类视为社会交互中的唯一主体。在工业化背景下,早年间的机器用于社会化生产,笨重、噪音、重复等机械化特征决定了机器只能成为为人类服务的工具性的附庸角色。然而,在如今新型人机传播关系中,机器不断模仿人类的外形与内涵,从以往的机械化走向拟人化,具有更强的交流性和社会性。比如机器人索菲亚(Sophia)、Geminoid F.,它们的整体外形越来越像人类的同时,还被赋予了与人类无异的面部神态、肢体动作和声音语言,类人属性更加凸显,其存在价值已从物质层面向物质精神双重层面转移。既然拥有类人的外形,那么社交机器人是否拥有独立的社会行为和思维意识?相关研究显示,当人们与社交机器人玩石头剪刀布游戏时,通过对受试者大脑内与心智化相关区域(内侧前额叶皮层和右侧颞顶交界处)的反应测试结果表明,受试者认为自己正在与另一个人玩游戏,而不是机器人。 在实际的人机交互过程中,人们往往不自觉地将社交机器人视为有思想的实体人,对它倾注真实情感。
后人类主义研究学者凯瑟琳·海勒(N.Katherine Hayles)在讨论后人类的信息理论时认为,人类和机器人之间的本质区别将不复存在,二者的界限将被打破。 人类的思维、记忆、行为等独有属性不断被数据化复刻,被编码的信息根植于机器内部,成为人类虚拟实境中的“幽灵(doppelganger)” ,使得社交机器人拟人化的特性不断增强,主体性不断凸显。社交机器人的独立行为与意识的“不确定性”导致社交机器人的拟人化,拟人化不自觉地为人类制造幻觉,人类本能地把社交机器人看作有独立意识和个人行为的生命实体,将其作为朋友甚至伴侣,而逐渐忽视在这种拟态环境交流背后所带来的欺骗性。
在科幻电影中,经常有描绘地球被外生物入侵的画面:世界被未来智能生物统治,外生物成为地球的主宰,人类的权力被迫让渡,成为被奴役与被控制的对象。美国学者唐娜·哈拉维(Donna J.Haraway)在她的《赛博格宣言》( Manifestly Haraway )一书中探讨了信息、权力和人身体之间的关系,她认为没有哪个空间是封闭的,没有哪个人是孤立的,万物能够通过信息编码互联互通。 换言之,万物皆媒,万物都能被信息编码,世间万物跨界构成新的文化与生命,在信息系统中获得权力,掌握信息技术就意味着掌控权力,拥有世界的主宰权。
社交机器人作为人类和机器“跨基因的有机物” ,通过基因信息编码在无关联的两类实体间建立了新的交往。人类创造机器人,将类人属性的“幽灵”(信息)植入机器体内,使机器人得以成为类人化的人。从某种意义上说,这种信息编码的过程是一种潜在欺骗性的操作,人类进行信息编码的同时,也将自身的权力让渡给了机器,在此情况下形成的权力/信息范式,作为未来传播中的“工具性力量”,或许正在威胁着现实社会中的人类权力。
人类的非语言表达在社会交往互动的调节中发挥着重要作用,除面部表情和肢体动作外,眼神接触是社交中十分重要的因素。一般来说,眼神接触分为凝视(averted gaze)和直视(direct gaze),根据人类相互凝视的调查研究表明,观察远离自己的某个人的视线会触发注意力转向被注视的方向,专家们称这种现象为凝视提示(gaze-cueing)。 与凝视相比,直视会引起更明显的心率反应,引发生理唤起(psychophysiological response), 吸引感知者的注意力并引发情感上的积极反应。人类与社交机器人交互过程中发生眼神接触时,在明知道对方是无生命体的情况下,仍然不自觉地视其为有思想的实体,犹如看到另一个有生命体的眼睛,也能产生类似的注意力转移和情感效果。
对于社交机器人来说,人类与它建立的眼神交流对它更加有利, 更能提升机器人的拟人化程度。一项相关实验研究报告指出,一个人形机器人犯了一个小错误,比如没有把一个物体放进盒子里,它犯了错误后看着受试者所产生的眼神接触,比一个低头或避免与受试者进行目光接触的机器人更让受试者感觉友好,更能激发受试者情感上的宽恕与怜悯。
澳大利亚哲学教授罗伯特·斯派洛(Robert Sparrow)对比机器人和动物的差异时指出,相比动物,机器人自身没有任何自我感觉或体验,机器人欺骗性的实质是模仿。 机器人被人类创造出来,暗示了其与人类特征的相似性,斯派洛认为这种相似性是通过机器人的模仿行为发生的。目前,许多相关研究关注机器人模仿人类眼睛的功能性,致力于分析机器人如何进行社交目光注视,从而取得人类的信任的运行机制。事实上,通过眼神接触所产生的信任是机器人设下的“圈套”,是一种隐藏在其拟人化特征下的欺骗。研究表明,机器人并不需要用它的“眼睛”来感知周围的视觉环境,但它的外形仍然需要设计出眼睛,模拟人类眼睛的注视功能来增加人类对它的信任程度。 这双作为“摆设”的眼睛,就成了直接的欺骗工具。
如果当我们认为社交机器人不是机器人时,那么欺骗行为就发生了。社交机器人的类人属性极易引发人类的错觉,让人类深陷虚构的事实中:机器人只不过是由算法程序构成的技术产物,却对人类极具迷惑性。在信息的编码过程中,社交机器人被赋予“狡猾”的特性,当社交机器人缺乏某种内部特征时,为了不被人类洞察,它一定会用另一种外部行为来隐藏,防止“露怯”。比如,如果一个机器人被设计为不许立即回答人类提出的问题,它则会假装困惑地托着下巴,佯装在思考这些问题,借此来隐藏它瞬时推理的真正能力。 如果以上这些功能的设计仅仅是为了让社交机器人更像人,引起人类的某种情感反应,从某种程度上说,这就具有欺骗性。
社交机器人被应用于娱乐、治疗或网络社交等不同目的,甚至与人类产生亲密关系,不可否认的是,被创造出来的社交机器人的明确目标是与人类互动。都柏林大学实验室的扎韦斯卡(Zawieska)等人认为,社交机器人利用拟人化的倾向给人类制造其为生命体的幻觉,而这种拟人化并不会让机器人变得真正有生命,机器人的拟人化导致了欺骗性。 社交机器人将社会行为规范与人类本能加以复刻,伪装成“人”,让人类在与它的交互过程中忽视这一事实,产生虚假的同类幻象。所以说,社交机器人只是工业结构化的载体,由钢铁、铝合金甚至是塑料搭建“皮肤和骨架”,芯片、算法等填充“血肉”,通过模仿人类的“感觉或体验”伪装成真实生命体。无论社交机器人的类人属性有多显著,与真正的人类相比,它仍然不是有血有肉的生命实体。即便如此,社交机器人还故意营造出外形和思维的类人性错觉,用以欺骗人类,而这种“故意而为之”的欺骗性将引发多方面的伦理问题。
社交机器人是人工智能技术发展到一定阶段的必然产物,美国科技哲学家兰登·温纳(Langdon Winner)在其著作《自主性技术》( Autonomous Technology )中揭示了现代技术的复杂性,他强调技术既能实现人类的想象和欲求,也能限制人类的想象和欲求。 面对这架“新的巨型机器” ,芒福德也不断向人类发出警告。人类按照自己的想象设计社交机器人,同时社交机器人也可能会带来人类无法预料的现实。有学者担忧,当社交机器人的声量占比超过了人类,是否会产生操纵人类行为的可能? 人类设计出作为工具属性的社交机器人的目的是服务人类,可曾想,一旦社交机器人的潜能被激发,跨越工具属性进入操控属性而支配人类时,是否会出现黑格尔的“主奴辩证法”(master-slave dialectic) 危机?
互联网模糊了私人领域与公共领域的界限,人类信息触达变得更加即时与便捷,与现实世界平行的网络虚拟世界打破了时空的限制,在特征趋同的虚拟场域中实现了变革后的人际传播。与网络技术类似,作为动态传播主体的社交机器人,强化了人类身体机能和认知判断力,甚至超越了人类的“感觉或体验”。
强化与超越的同时,伴随而来的是二元对立的削弱与消解,主要体现在如下两个方面,首先,社交机器人正在削弱人类的身体机能。社交机器人作为技术媒介的产物,可被视作人的延伸,拓展了人身体的器官功能。比如美国波士顿动力公司研发的机器人Atlas具有强大的运动功能,空翻、托举等动作易如反掌, 这些动作人类不经过长年训练是难以企及的,人类身体机能的变相拓展为历史进化过程中人类肢体机能逐渐退化找到了更合理的“借口”。
社交机器人正逐渐消解人类的认知判断与决策能力。一方面,算法机器人作为社交机器人的另一种形态,正在影响人类的认知与记忆。一项关于谷歌搜索引擎的研究表明,在美国大选时期,在谷歌搜索引擎上采用不同的检索词检索政治候选人的个人信息,显示的搜索结果都十分相似,谷歌搜索引擎的算法存在主流化倾向。 由此可见,算法机器人存在强烈的意识形态偏向,人类正被算法机器人操作与误导,算法偏见导致人类认知和判断失衡。另一方面,在人机传播中,人类与社交机器人被限制在特定的空间范围内,虽然情境与手段更加多元,但是人类在历史进化发展中生成的口头语言、文化识别能力正在被现实世界消解。智能语音读写、智能唤起家居系统等人工智能技术削弱了人类文化自发性的权力,人类却为这些技术带来的“红利”而洋洋得意,标榜着“释放大脑”“解放双手”的旗号。对社交机器人智能化的过度依赖,导致人类独立认知能力和创造力的减弱,这究竟是人类文明发展的前进还是倒退?今日的智慧是否或将成为明日的愚钝?
人类在历史长河发展中本着“趋利避害”的原则,在历史上的图画和文学作品中得以窥见,人类不断描绘超人类的人与极其完美的世界,幻想自己长出“三头六臂”在没有痛苦的“极乐世界”存在。在智能传播时代,人类将自我完善的需求寄托于社交机器人,社交机器人被人类设计为独立的个体,且不断升级完善,用以构建一个虚拟的“极乐镜像”。人对于自身的想象外化于社交机器人身上,社交机器人让人类的幻象得到满足并得以呈现,其中也包括对自身情感的移植。对社交机器人不自知的依赖和贪恋,潜移默化使人类极易陷入虚拟的情感关系网中,这也是一种不真实的欺骗。比如,老年人对看护机器人的护理依赖,年轻人对陪伴机器人的感情依赖,儿童对家庭机器人的娱乐依赖,都是人类真实情感向机器人过渡的移植。
美国学者雪莉·特克尔(Sherry Turkle)在其著作《群体性孤独》( Alone Together )中,把网络化生存中的亲密关系视为一种新型的孤独,她警示人类,过分对机器“生物”的情感倾诉会导致现实生活中人际关系的弱连接,或者会使人类更加孤独。 人类把社交机器人当作朋友甚至伴侣,事实上,社交机器人并不能给人类带来真正社会意义上的情感依存。人类与社交机器人接触得越密切越频繁,越容易封闭在自我的虚拟空间,变得更加孤独,逐渐对现实中的人变得冷漠,无法维系现实世界中的人际关系,从而逐渐丧失协同能力,脱离现实社会关系,面临真实情感被人工智能裹挟的危机。
随着人工智能技术的不断升级,社交机器人的拟人化特征变得更加完善,在不断符合人类心理情感预期的类人属性作用下,人类逐渐忘记他们所感知的所谓“情感共鸣”,只是在不断升级的算法规则下的情感呈现,这将导致人类陷入对社交机器人更深层次的依赖之中。因此,人类必须清醒认识到,社交机器人的情感只是被机械复刻,它的“人设”完全依靠人为的程序算法,其本身并没有自发的主观意图,机器人的拟人化导致其伪装的生物性,人类需要正确看待社交机器人的这种生成属性。社交机器人的虚拟情感极易引发人类错误的情感导向,使人类对它产生“单向度情感” ,并沉溺其中,造成一种自欺欺人的依附假想,从而引发情感道德伦理问题。
在人机交互中,由于社交机器人不寻常的类人能力,人类很容易将其视为一个有意识的生命体,作为交互对象的社交机器人的拟人化外表可以引发人们同情和保护的情感。 机器人越来越强的类人表征,使人类将其视为伙伴而非机器,对于长期与社交机器人相处的人类而言,社交机器人被认为是有“喜怒哀乐”“七情六欲”的真实生命体。有学者认为,除去机器人的外表,它之所以会被人类不自觉地赋予情感,很大程度上是出于人类自身的同理心。 有相关实验研究也证实了该说法——人在看到机器人的手臂被切割的画面时,内心会感到不适,这时就出现了共情情绪。 在美国系列电影《变形金刚》( Transformers )中,人们对于“霸天虎(Decepticons)”深恶痛绝,而当“擎天柱(Optimus Prime)”遇到危险甚至将近毁灭时,人们会揪心流泪。由此可见,机器的拟人化使人类对其赋予情感寄托,把它当作具有社会性的人类实体,在情感逐渐累积的过程中,对机器人产生同情心和保护欲。从某种程度上说,社交机器人不仅仅是人类身体的延伸,更或者是人类情感的内化。
社交机器人真的能产生自发真实情感吗?答案当然是否定的。社交机器人的情感表达远远没有人类复杂,有学者将社交机器人的情感劳动视为一种“社会性他者”的传播过程。 换句话说,就是人类“自作多情”,社交机器人的情感并非发自内心本能,而是受程序设置和算法模拟所制约的不真实情感,社交机器人利用人类的心理弱点来攻克人类的情感防线,煽动人类的同理心。社交机器人的情感设置始终处于矛盾中,一方面,社交机器人被程序化的丰富情感内置,包括人类的多种面部表情和类人化表达,目的是为了增进人类对社交机器人的信任,促进人机交互;另一方面,多元的情感设置会加深人类对社交机器人的依赖性,长此以往容易滋生风险。有学者对人类与机器人的这种“单向度情感”关系产生忧虑,担心人类的同理心被机器人操控与利用。
开篇讨论社交机器人主体性的问题时提到,当社交机器人置于特定文化场域中进行交互时,它已经不再是传播中介,而被视为传播者。虽然社交机器人因其拟人化特征的凸显,更容易被视为人的同类,但仍然不可否认的是社交机器人是被人为设置创造出来的,因此,社交机器人脱离不了以人类为中心这一实质。在人机交互中,社交机器人始终无法摆脱满足人类需求的服务者角色,成为“呼之即来,挥之即去”的人类工具型伙伴。在接受社交机器人长期服务的过程中,人类只需要设置好基本程序,通过语音开关控制其服务的类型、时长、频次等,便可以与社交机器人进行个性化交互,享受它的便利服务,比如智能语音、扫地机器人。
从某种意义上说,人类与社交机器人互为相对物而存在。一方面,对于人类来说,社交机器人是一种物的存在,这种交流模式在现实世界中将存在潜在危害。随着自我中心化意识的强化,人类极有可能将机器交互的这种思维模式带入现实世界的人与人的交流中,将他人视作也能够供自己随意支配的机器,人类中心逐渐演化为自我主义,陷入主客二分,习惯了适应性命令操控的人类将变得狂妄自大,甚至会导致严重的利己主义。
另一方面,对于社交机器人而言,人类也是一种物化的对象。在程序命令的控制下,社交机器人进行重复化、固态化、机械化的交流与服务,不夹杂私人情感的工业化操作,对它来说,人类仅是客观存在的物,甚至是无生命物。在后人类时代,现实世界会变成更为人性化的人机协同,还是更为机械化的形同陌路?在人—机文明交互传播的场域中会慢慢得到答案。
人机传播中社交机器人的“欺骗性”导致的伦理问题,当涉及违法犯罪时,权责的归属问题一直都是业界争相讨论的热点。首先,社交机器人是公民吗?早在2017年,机器人索菲亚(Sophia)被授予沙特阿拉伯公民身份,成为史上首个获得公民身份的机器人, 这标志着社交机器人的主体性和公民合法化得以确认。其次,社交机器人是自然人吗?它是否能够成为法律责任主体被赋予有限的法人身份,能否成为犯罪主体?自然人,顾名思义就是自然状态下出生的人。我国《民法总则》第十三条和第十七条明确规定,自然人始终是人造人,具有明确的出生死亡时间,而且有周岁计算范围。社交机器人可能是人造人,也可能是伪造的工具,因此,从严格意义上说,社交机器人不能被视为自然人,它不具备独立个人人格,无法成为犯罪主体。
由于机器人不是自然人,研究学者布赖森(Bryson)等人 认为,社交机器人不应该被赋予法律代理权。从技术方面看,社交机器人是设计者按照人类本能和社会行为规范所编程的机器,当社交机器人涉及“欺骗性”问题时,机器人本身是不会进行主动欺骗的,但它可以成为欺骗的工具。因此,从这层意义上说,由于社交机器人不具有法律人格,所以涉嫌欺骗的机器人不该被视为欺骗意图的“始作俑者”,而真正的“幕后黑手”应该是参与机器人研发、生产和制作的人类设计者。
社交机器人的设计和编程通常是为了取悦人类,应对它或将遇到的人类某些行为和需求,社交机器人的创造仅仅是为了实现人类设计者创造预设的某些目标,而不是基于社交机器人的某种内在欲望驱使。所以,出于立法和监管的目的,以及为了让人类更好地了解社交机器人的能力和不足,都有必要适当地进行责任归属。在未来的人机传播中,即使社交机器人的行为对于人类设计者来说是完全未知的,他们也具有不可推卸的责任,因为他们以一种使其不可预测的方式设计了机器人。 社交机器人的欺骗行为实质上是通过具有工具属性的机器人进行的人类欺骗,社交机器人本身并没有被赋予权力,而其拟人化属性极易掩盖责任的来源,让责任主体本末倒置,但这并不会从根本上改变责任的归属方式。目前,人工智能立法已经被各国提上日程并在逐渐完善,比如自动驾驶领域、人工智能伦理规则等,针对社交机器人的法律条文也将陆续出台,这将更加有效地推动智能传播时代的健康有序发展。
在后人类文明中,越来越高的拟人化使得社交机器人带有更多的欺骗性,引发的一系列伦理问题给未来人机传播带来不可回避的冲击和挑战。在技术的“遮蔽”下,社交机器人被视为有生命的实体,成为人类的亲密伙伴,人类将自身的主观想象与需求进行编程,置于机器人体内,用来填补世界的空白,延伸人类的身体与情感,使人类形成一种自欺欺人的生命幻觉。在特定文化场域下的社交机器人作为社会行动者,主体身份从中介者向传播者转移,它可能面临的法律责任实质上并没有随着主体的迁移而发生改变,参与创造的人类设计者仍然对社交机器人的信任程度负有直接责任。社交机器人的设计者极有可能拥有许多动机来生产具有欺骗性的机器人,不排除具有功利性的不良动机。目前,仅仅依靠行业监管是远远不够的,还需要学界和媒体等多方参与进来。如何在未来人机传播中实现更融洽更和谐的人机“共生”,在规避社交机器人产生的技术与伦理风险的同时,对其进行有效规范,是下一步值得研究探讨的议题。
〔庞亮,中国传媒大学研究员、博士生导师,山西传媒学院副校长;易茜,中国传媒大学电视学院博士研究生〕
〔特约编辑:赵希婧〕