购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

第一章
人工智能时代的新问题

何以为人:人工智能与基因编辑的未来

2018年11月26日,南方科技大学副教授贺建奎在一次会议上宣布,一对基因编辑双胞胎于11月在中国出生,这对双胞胎的一个基因经过修改,意在使她们出生后即能天然抵抗艾滋病毒感染,如果成功,她们将成为世界首例免疫艾滋病的基因编辑婴儿。贺建奎的“成果”引发全球科学界的普遍谴责,多位世界基因研究先驱指出其研究牵涉的医学道德伦理问题,中国医疗与科研监管部门也马上对其立案调查。这是有史以来全球第一次被修改过基因的人类个体出生,被科学界普遍认为是不道德的,是对人类尊严和科学精神的践踏。

从技术上说,贺建奎使用的CRISPR基因编辑成为人们关注的焦点,由此引发了关于操纵人类种系的伦理道德的重大辩论。社会极为关注的是:在将CRISPR研究安全地转化为治疗方法之前,科学家需要更好的方法来避免技术的潜在破坏性目标效应。CRISPR的问题在于:利用CRISPR-Cas9编辑工具切割双链DNA后,DNA会自行修复,但有时会在此过程中引入突变。有的科学家认为这些错误取决于几个因素,包括靶向序列和指导RNA(gRNA),但它们似乎也遵循可重复的模式。2018年,Wellcome Sanger研究所的研究人员表示,他们已经使用机器学习技术开发了一种工具,可以预测CRISPR可能引入的细胞突变。他们相信该技术可以提高CRISPR研究的效率,并简化将其转化为安全有效的治疗方法的过程。该研究发表在2018年11月27日Nature Biotechnology杂志上。该研究小组合成了一个包含41 630对不同gRNA和靶DNA序列的文库。他们使用不同的CRISPR-Cas9试剂在一系列遗传方案中研究它们,以分析DNA的切割和修复方式。总而言之,研究人员生成了超过10亿个突变结果的数据,并将其输入机器学习工具。其结果是产生了一个名为FORECasT的计划(Cas9目标修复事件的优势结果),它可以预测修复的结果,无论是单碱基插入还是遗传物质的小缺失。可以看到,人工智能技术的加入使得基因编辑技术更加有效和安全了。

可以看到,基因编辑技术彻底打破了传统医疗的限制,如果应用不当,将以一种无法控制的态势彻底颠覆人类社会现有格局,甚至可能会成为人类毁灭的源头,这也是贺建奎事件引起全世界如此大的关注的原因。我们需要谨慎对待基因编辑技术的发展与应用;但不可否认的是,相比于基因编辑技术的强大影响力,传统的医疗手段其实对人的帮助非常有限。

从本质来看,虽然传统医疗技术还在不断发展,但是“传统医疗仅仅支持生命的自我修复”这一本质无法改变。美国医生萨斯(Thomas Szasz)说:“在宗教强盛而科学无力的从前,人们误将神的力量当作医疗;在科学强大而宗教弱势的今天,人们又误将医疗当成神力。”事实上,医生们都知道但秘而不宣的“真相”是:真正治好病的是病人自己,所有的医疗行为都只是起到了支持的作用。换言之,生命的自我修复能力才是关键,医疗的支持就是给自我修复赢得时间、创造条件,等待自我修复最终发挥作用并战胜疾病。

而如今的基因编辑技术则改变了传统医疗的行为逻辑,直接探索改进人类存在方式的手段。对试管中的人类胚胎进行基因操控,不仅可能预防遗传性疾病,还可能改变人类的身高、智力等其他特质。在这样的技术浪潮下,未来极有可能出现“超级优生学”:人类会通过基因操控、优质基因筛选、克隆和传统方式进行交叉繁殖,彻底地改变我们对医疗的理解,也会直接改变人类社会的未来。除此之外,通过脑机接口等方式增强人类感觉敏锐度、拓展人类运动控制的范围也是一种改变人类的方式。

通过这样的“人类增强”方式改变医疗的本质,在伦理上受到了很大的反对,原因就在于很多学者认为这样的做法使得人类就像工艺品一样缺乏“自然性”,有损于人类的尊严。不过这个理由似乎越来越受到挑战,尤其是当人类面临无法预知的灾难而现代医疗手段又束手无策时,大家往往会想到求助于这样的技术解决方案。这里的矛盾之处在于,面对各类事件,我们有选择地主张人类尊严。然而医疗缺陷、疾病和提升基因能力本质上是一回事,只是人类在伦理和情感上很难将其对等看待。换句话说,人工智能与基因编辑技术的结合挑战了“何以为人”的根本性伦理问题。

我们可以看到,从经济学和社会学视角来看,“人类增强”面临着很大的挑战,主要是因为这项技术可能会服务于那些经济能力更强的人群和家庭,从而导致社会不平等的永久性,也就是“自由优生学”的扩张。那些占据大量资源的富人可以通过编辑基因来改造自己的后代,使得后代在智力、外貌、身高,甚至寿命方面取得对普通人压倒性的优势,继而垄断所有的资源,一个由富豪组成的“基因贵族”阶层由此形成。而此时普通人与“基因贵族”相比没有任何优势,将被淘汰到社会底层,甚至有可能沦为奴隶或灭绝,使得阶层固化越来越严重。

极端情形下,人为判断基因的优劣,可能导致像纳粹那样对他们不认可的种族实行灭绝。正如英国作家阿道司·赫胥黎在1932年出版的长篇小说《美丽新世界》中所描写的那样:取消自然胎生,婴儿由实验室孵化出来,直接就被预定了命运、设置了条件。这些婴儿在出生之前,就已被划分为阿尔法(α)、贝塔(β)、伽马(γ)、德尔塔(δ)、厄普西隆(ε)5种“种姓”或社会阶层。一切条件设置的目标都是让人们喜欢他们无法逃避的社会命运。5种“种姓”分别培养。其中,阿尔法和贝塔是领导和控制各个阶层的高级人物;伽马是普通阶层,相当于平民;德尔塔和厄普西隆是智力低下、只能做普通的体力劳动的最低贱的人。如是,不仅长期形成的社会伦理关系发生了颠覆,整个社会公平也无从谈起,终将导致人类社会的分裂。

除此之外,我们目前可以看到的是,从技术层面和人类自身驱动力来说,这些“人类增强”技术会将我们带到“后人类时代”。“后人类主义”这个术语进入当代社会科学的时间是20世纪90年代中期,但是它的源头则至少可以上溯至20世纪60年代。哲学家福柯在《词与物》中也提到:“人是近期的发明,并且正接近其终点……人将被抹去,如同大海边沙地上的一张脸。”这句话总括为他对“人之死”的宣言。在人类的一切古老神话中,人与神之间的区别就在于:人是有寿命的,而神是不朽的,当人突破自身的生物学限制并获得永生的时候,人类也就变成了神。

后人类主义将经过技术改造的新人类称为后人类(posthuman),并从两种研究路径对其进行反思:一是基于科学技术开发和利用所做的总结与展望,期待新技术推动人类走向完美;二是立足于反思和批判的立场,对后人类及其时代提出质疑。虽然这两种路径有一个前后相继的大致次序,但它们都将关注的焦点放在科技高度发展情境下“人”的边界、“人”的形态的变化及由这种变化带来的多重维度的思考上。

在这个意义上,后人类主义可以看作对人文主义的解构,从身体和物种层面消解人类在自然界中的特殊性。后人类有3种进化模式:一是借助基因工程或无性繁殖(如克隆技术);二是通过技术种植或人工种植;三是利用虚拟技术制造虚拟主体、改造现实主体,将虚拟世界和现实世界、虚拟人和现实人合二为一。它们突出地表现于一种人机结合样态——赛博格中。

著名哲学家尼克·波斯特洛姆在《来自乌托邦的信》一文中极力宣扬了后人类时代的收益,并总结了以下3个后人类状态的特点。

第一,大多数人可以利用类似脑机接口等技术完全控制自己的感官体验,模拟的生活和现实的生活将没有任何区分。

第二,大多数人将不再有心理上的痛苦,抑郁、恐惧和自我厌恶等情绪将消失。这里带来的问题是我们无法了解这些痛苦的体验是否跟个人的成就感和自尊心之间存在天然的联系,以及我们是否能够接受“人造的”幸福感带来的收益。

第三,大多数人将拥有远长于自然年龄的生命。长寿时代不只是老龄化、延迟退休和劳动力短缺,带来的新问题是使得冗长乏味和不负责任成为一种普遍现象。

《来自乌托邦的信》描绘的是后人类欢乐的一面和令人振奋的场景:让某些旧的束缚荡然无存,进而重新思考人类的意义,并且是以崭新的方式。但从辩证角度来看,人类的这种“进化”需要从内部进行转变,从而获得一种新的文化形态,否则个人便会成为时代的废弃之物。特别是当人类日益技术化之后,带来的是对“技术可以取代人类”以及“技术无法取代人类”的争论,前者导致了离身性的后人类主义,后者导致了具身性的后人类主义。

离身性的后人类主义强调,身体仅仅是生命的次要附加物,生命最重要的载体不是身体本身,而是信息化编码信息。这种观点强调心灵可以摆脱身体的束缚,而虚拟的身体也可以认为是心灵创造的实质,游走在信息中的实质又可以反过来对心灵与虚拟身体产生影响,并且高科技的虚拟身体不会与物质身体产生相互作用。

而具身性的后人类主义将虚拟的身体看作人类的一种新形态,它是对边界的一种跨越。必须说明,这种观点并非否认身体的存在,更深层的是对另一种“身体”意义的包裹。即技术哲学家唐·伊德提出的第三类身体(考虑技术因素,以技术构建的身体),承认身体在生命认知过程中发挥的关键作用,认定具身是主体身份的必要条件。

在了解了科技哲学家们关于后人类的观点后,我们回到现实案例。过去几年在资本力量的推动下,一些商业医院而非公立医院不断尝试基因编辑技术,类似贺建奎这样的学者会冒着很大的伦理风险做基因实验,其本质是基因实验背后的资本与权力的博弈。一方面,生物基因知识就是资本,而知识的资本化带来了权力,在海外很多医院通过生产盈利,并以专利的形式支付给大学的费用。换言之,生命体的生命基因编码都转化为收入,人类自身慢慢失去了对自身基因控制的主导权,即资本推动了生产的知识系统,推动了人类中心位置的偏离,进而导致了伦理和价值观的错位。另一方面,科技伦理系统正在产生,原来的自然和人的对立系统将逐渐演化为一种由世俗文化与启蒙主义主导的技术伦理系统。

著名科学家斯蒂芬·霍金在《对大问题的简明回答》一书中表达过此类担忧:“法律能禁止人类编辑基因,但人类无法抵挡诱惑。”如何摆脱资本的束缚,推动公民社会的建构,成为社会亟待解决的难题。人们对技术有着非常大的期望,正如1971年诺贝尔物理学奖获得者丹尼斯·加博尔所说的那样:“所有在技术上能够被实现的,无论要为之付出怎样的道德成本,都值得被实现。”而在技术和市场的交叉作用下,人们开始朝着这个方向越走越远。

我们可以看到很多国家和商业机构开始建立各种伦理委员会来审查科技成果的可接受性,以使得产品实施符合伦理学要求,但是其根本困难在于“市场的本质就在于通过创新突破一切桎梏”,伦理的先进性始终滞后于科技的先进性。人类正在成为造物者,凭借未来实验科学的进步从自然界获取力量,但是没有为这种力量设定限制。美国未来学家雷·库兹韦尔在《人类2.0:改变的圣经》中讨论了生物技术、机器人技术和人工智能融合后产生的“技术奇点”,通过对效率和技术跃迁行为的探讨来表达一种侵略性的未来个人主义思想。

最终我们回到对人的存在的思考上,法国哲学家米歇尔·福柯在20世纪70年代提出,我们理解的人文学科不是由人文主义的普世主张构成的,而是由一套清晰的关于“人”的假设构建的,这种假设受历史和语境局限。人是由生命、劳动力和语言等结构构建的,是一个“经验主义——超验主义的双重结构”,并处在永恒的发展中。

事实上,我们在这样一个技术高速发展的时代,也要重新对这个问题进行探讨,考虑技术、社会、伦理、经济之间的关系,注重经济效益之外的社会价值和伦理价值。这种价值对于商业本身也有决定性的影响,这一切也是我们正在面临的真实的商业世界:科技和资本改变了世界,而接下来伦理将改变商业和资本的走向。

将基因编辑技术从“治疗”扩展到“预防”,就模糊了基因编辑的边界,而“预防”和“改善”则只有一步之遥,如果一个家庭想要使自己的后代具备某些特质(高颜值、好身体、高智商)等,就带来了巨大的危机。如果说“贺建奎们”开启了一段“历史”,而这段“历史”的危险就在于基因编辑很有可能会带来人类文明的终结,包括破坏人类基因库的多样性、塑造永恒的不平等等很多问题,而这也是人类文明正在面临的选择和挑战。“何以为人”的问题不仅在重新定义我们的技术文明的发展历史,也在重新定义整个“人类纪”的历史,不同的选择会导致人类进入完全不同的进化路径和文明进程之中,这是我们这一代人的重大历史使命,我们需要以一种特别审慎的态度去对待这一问题,以避免造成巨大的风险和不可预知的未来。

人机共生:近未来的挑战与问题

在过去数年的人工智能发展过程中,正向和反向的问题都关联到同一个命题:人机共生。

我们可以看到整个社会面对人工智能的两类看法:一类看法是,人工智能给社会发展带来新的技术红利,不同的行业因此得到了赋能,通过人工智能技术的发展终将重塑人类社会和人类未来的可能性,我们正在成为半有机物半机械化的赛博格人;另一类看法是,人工智能技术带来了巨大的伦理风险,会冲击社会的基本秩序和伦理底线,使得相关责任人陷入伦理困境,从长远来看,人类甚至可能会被人工智能全面超越和反噬,技术人将取代人类。

事实上,人工智能的核心哲学思想就是假设智能系统是在约束的资源条件下运作的,而主流的深度学习方法论则与此相悖。本章就是基于这个认知来讨论人工智能伦理与技术哲学之间的真实困境。

关于人工智能伦理的研究经历了3个阶段。

第一个阶段主要研究人工智能伦理必要性的问题。相关的研究主要发起在美国,由于美国在人工智能技术上保持的领先性,以Google公司为代表的企业很早就遇到了诸如人工智能军事化等伦理问题,引发了产业界和学术界的重视。

第二个阶段主要研究人工智能伦理准则。这个阶段欧盟和中国都积极参与,例如2019年4月欧盟委员会发布了人工智能伦理准则。这些原则包括:确保人的能动性和监督性,保证技术稳健性和安全性,加强隐私和数据管理,保证透明度,维持人工智能系统使用的多样性,非歧视性和公平性,增加社会福祉,以及加强问责制。迄今为止有数十个研究机构或者组织提出了各自的人工智能伦理准则和建议,大体上这些原则具备一定的普适性和内在的一致性,在伦理的树立层面达成了一定的共识。

第三个阶段是目前我们所处的阶段,主要对人工智能伦理体系进行研究,也就是人工智能伦理准则的具体内涵和应用措施的研究。通过“伦理使命——伦理准则——实施细则”的体系来解决两个在原则层面无法解决的问题:一个问题是“人工智能伦理的自我执行性问题”,即原则如何通过相互配合的运作机制落实;另一个问题是“人工智能伦理的风险控制问题”,即通过前瞻性的部署以降低其应用风险。简言之,人工智能伦理体系规划阶段就是人工智能伦理从虚到实的过程,只有这样才能规范地推动人工智能技术的发展,不断改进和完善其技术的演化路径。

从技术视角来看,人工智能伦理体系应该如何与人工智能技术的动态演化相适应?在回答这个问题之前,我们需要了解人工智能的技术本质。人工智能技术拥有不同范式,包括逻辑智能(命题逻辑和一阶谓词逻辑)、概率智能(贝叶斯定理和贝叶斯网络)、计算智能(遗传算法和进化计算)、神经智能(机器学习和深度学习)、量子智能(量子计算和量子机器学习)。

总体来说,人工智能可以看作机器通过建立在大数据基础上的逻辑推理与感知学习与真实世界互动。换言之,人工智能逻辑算法能够执行的底层架构是海量的数据,人工智能公司拥有的数据资源越多,在竞争格局中的优势越明显。《人工智能时代》作者、斯坦福大学人工智能与伦理学教授杰瑞·卡普兰认为:“一个非常好的人工智能公司往往依靠大量数据,而且强大的公司会越来越强,他们能将数据的累积、迭代和自动标注形成一个良性循环。”机器从特定的大量数据中总结规律,归纳出某些特定的知识,然后将这种知识应用到现实场景中解决实际问题,这个过程即计算机的逻辑推理。

人工智能从1956年建立概念至今,最初是逻辑学派占主导地位,主要是因为逻辑推理和启发式搜索在智能模拟中避开了大脑思维规律中深层次的复杂问题,在定理证明、问题求解、模式识别等关键领域取得了重大突破。早期科学家普遍认为,人工智能与传统计算机程序的本质差别在于它能够进行逻辑推理。这种思维抛开了大脑的微观结构和智能的进化过程,单纯利用程序或逻辑学在对问题求解的过程中模拟人类的思维逻辑,所以也被分类为弱人工智能。

回顾近现代知识论中有重要影响的哲学家笛卡儿的理论,真正的智能将体现为一种通用问题求解能力而不是特定问题求解能力的一个事后综合。这种通用能力的根本特征就在于它具有面对不同问题语境而不断改变自身的可塑性、极强的学习能力和更新能力。

笔者认为这种通用问题求解能力是机器感知的必要不充分条件,只有当机器不单纯针对某个具体问题展现过人的水平,而是在各类通用问题上都能通过构建自我逻辑系统与学习系统与世界反馈,才能从意识上实现机器“觉醒”。与之相对应,康德在《纯粹理性批判》中提出了整合经验论和唯理论的心智理论。他将心智的知觉活动划分为两个板块:其一是感性能力,其任务是拣选出那些感官信息的原始输入;其二是知性能力,其任务是致力于把这些输入材料整理成一个融贯的、富有意义的世界经验。康德将主要精力投向了知性能力,给出了一个关于高阶认知的精细模型,并通过该模型将知性能力区分为12个范畴。

当机器拥有知性能力时,便获得了感知世界并与之交互的能力,我们也可以称之为自主意识。自主意识可以让机器在没有预先设定程序的情况下通过自我感知与学习来处理复杂系统。美国心理学家和计算机科学家约瑟夫·利克莱德提出了“认知计算”概念——可以让计算机系统性地思考和提出问题的解决办法,并且实现人与计算机合作进行决策和控制复杂的情形,而这个过程不依赖于预先设定的程序。

从科幻电影中我们也可以逐步生成对机器感知的主观印象:从1927年的德国电影《大都会》、1968年的《2001:太空漫游》到几年前的《超能陆战队》《她》《机械姬》,观众们普遍认为强人工智能带来的会是一个有意识、有人形、智慧与人类相当甚至超过人类的机器人。

当前,人工智能技术还未成熟,换言之,我们依然置身于弱人工智能时代,但人工智能应用在现实生活中的伦理问题已经很严峻。随着自动驾驶汽车日益普及,特别是一些无人驾驶汽车交通事故的发生,伦理学中著名的“电车难题”成为保证无人驾驶安全性甚至人工智能伦理必须思考的问题。

麻省理工学院参考“电车难题”启动了一个名为道德机器的在线测试项目,收集整理公众的道德决策数据。来自233个国家和地区的数百万用户共计4000万个道德决策的数据反映出一些全球性偏好:更倾向于拯救人类而不是动物,拯救多数人而牺牲少数人,优先拯救儿童。但基于地理和文化等因素的异质性,在部分问题选择上,不同国家和地区的人们依然具有不同倾向程度的差异。2018年,德国为自动驾驶汽车制定了首个伦理规则。该规则提到,相比于对动物或财产造成的伤害,系统必须最优先考虑人类安全;如果事故不可避免,禁止任何基于年龄、性别、种族、身体特征或其他区别的歧视;对于道德上模糊的事件,人类必须重新获得控制权。这种通过人类预先设定道德算法在机器身上植入能够控制机器选择与行为的设计方式属于自上而下式的。

从解决方案来说,设计者(人类)必须先在伦理理论方面达成社会一致性,分析在计算机系统中执行该理论所必需的信息和总体程序要求,然后才能设计并执行伦理理论的子系统。尽管这种自上而下的设计方式可以建立在“无知之幕”的基础上以保证相对公平,但预先设定的算法往往在具体问题上产生自相矛盾的困境。

相比之下,自下而上是一种全新的思路:让机器通过日常规则的迭代衍生出自己的道德标准。具备感知学习能力的机器可以汇总外部信息,在不同情境下形成系统行为模式。同时,设计者可以通过建立一个奖励系统,鼓励机器采取某些行为。这样一种反馈机制能够促使机器及时发展出自己的伦理准则,类似于人类在童年时期形成道德品质的学习经验,使得人工智能够真正成为人工道德主体,建立自身行为的正当性。

为了探究机器是否能够成为道德主体,我们不得不思考人与机器的关系。人工智能的技术突破了自启蒙运动以来人和非人实体之间的界限。随着人工智能的发展,人、技术与世界的关系结构发生了改变,人和技术也表现出融合关系,例如后现象学技术哲学家维贝克提出的赛博格关系和复合关系。当机器的主体地位独立于人类时,其是否能够成为更为人道的责任主体呢?

以智能化无人机为例。2018年6月,美国国防部宣布成立联合人工智能中心以来,美国不断加快人工智能军事化应用的步伐。2020年初,美军袭击杀害伊朗高级将领卡西姆·苏莱曼尼,让中东局势骤然紧张。媒体报道称,美军在这次行动中使用了“收割者”无人机。伴随人工智能技术在军事应用领域的深化,以“收割者”为代表的无人机已具备了智能化特征,由此也引发了对战争责任主体的新争议,即相对于传统战争中人类作为唯一的责任主体,高度智能化的无人机能否更好地承担战争责任,进而将未来战争引向更为人道的方向?

美国乔治亚理工学院的罗纳德·C﹒阿金指出,在确保交战正义性上,较之有人作战平台,智能化机器人具有以下6个优势:无须考虑自身安全;具备超人的战场观察能力;不受主观情绪左右;不受习惯模式影响;具有更快的信息处理速度;可以独立、客观地监测战场道德行为。

基于以上优势,他认为,在执行人道原则方面,智能化无人作战平台会比人类表现得更好。然而,限于目前无人机自治系统存在不稳定性和风险性,包括控制系统故障、电子信号干扰、黑客网络攻击以及其他战场上可能发生的意外情况,都会影响其执行符合人道主义规约的决策,甚至造成战场杀人机器的失控。另外,无人机导致的责任分配困境还体现在如何应对“责任转嫁”的问题中,利用人机的高度一体化,军方和政府可以把人为的责任转嫁给无人机,以逃避战争罪责。

无人作战的出现,必将导致一些传统的战争伦理发生深刻变化,这需要引起高度重视。目前,一些国家已经提出给智能化程度越来越高的军用无人系统制定国际法和伦理准则,以约束其战场行为。2013年5月27日,联合国人权理事会例行会议也指出,将机器人从远程遥控发展至自动判断敌情、杀死敌人,可能误伤准备投降的士兵。这提醒我们既要利用战争伦理维护自己的利益,又要改变战争伦理,为无人系统使用提供合法保障,或者发展符合战争伦理规范的无人系统。例如,对无人系统进行规范,要求其能够自动识别、瞄准敌人使用的武器,使其失效或遭到摧毁,解除对己方构成的威胁,却不必杀死相关人员,以减轻人们对潜在的“机器人杀手”的种种担忧。

机器拥有“心智”是人类的追求,也让人类对自身安全产生担忧,这反映的是一种对人工智能自主进化的不确定性导致的恐惧。霍金说:“将人工智能用作工具包可以增强我们现在的智能,在科学和社会的每个领域开拓进步。但是,它也会带来危险……我担心的是,人工智能自己会‘起飞’并不断加速重新设计自己;人类受到缓慢的生物演化的限制,无法竞争以至于被超越。在未来,人工智能可以发展自身的意志,那是一种与我们相冲突的意志。”

从技术路径来说,未来学家担心的就在于超级人工智能具备了智能的演化和自我复制性,从而在思想上超越人类,也就是达到技术奇点。要理解人工智能是否能够达到这个所谓的技术奇点,需要清楚智能的本质是否具备上文提到的感知能力所要求的基本要素。

让我们再回到深度学习技术的现实发展过程中来,这一轮人工智能技术的发展是以深度学习为基础的。虽然深度学习会在短期内使人类劳动力得到表面上的解放,但是会在长期内钝化社会机制,阻碍人类的治理发展得以充分实现。换言之,人类对深度学习依赖越多,就越难从这样的风险中解放出来。

深度学习带来的技术伦理风险有3方面:第一,深度学习方法使得我们要按照其本身的需求对人类不同领域的知识进行分类,这会使得人类对社会行业分类的权力和能力下降;第二,大数据技术与深度学习的结合,会对人类自身的隐私安全和信息伦理造成巨大的威胁;第三,深度学习本质上是一种归纳、演绎的系统逻辑,对于“黑天鹅事件”类的风险的应对能力有限,会削弱整个人类社会对偶然风险的应对能力。一言以蔽之,笔者认为深度学习的人工智能并不能带领人类走向更美好的未来,通用人工智能与人类资源的结合才有可能使得人类社会兼具效率和弹性,我们所期待的人工智能时代的革命尚未成功。

回到技术哲学的本源来看,通过知识论和哲学学理的逻辑推导出技术发展的未来,并将认知科学、心智研究和语言建模等学术领域的知识放入其中进行讨论,才有可能摆脱对人工智能发展无意义的乌托邦论或者危机论的争辩,回归到现实主义的路径,建构真正有利于人工智能未来发展的伦理和技术路线。

人工智能的到来让我们开始思考人类进化的路径。如果不谈科幻电影中人类灭亡的极端情况,人类存在两种近未来的演化方向:一种是产生新的物种,一个新的人类种族可以在地球或者其他行星上进化形成,也就是通过定向进化的方式产生新物种(事实上基因编辑技术也是这种进化路径的技术实践);另一种是人机共生,就是机器与人脑相结合创造新的共生物种,人类越来越接近赛博格,这也是我们可以预见的关于人机结合的重要发展方向,是我们必须面临的近未来中要回答的问题。

数据伦理:新石油时代的政治经济学

机器学习和大数据正在推动全球范围的科技和商业权力的转移。可以看到,2001年市值最高的公司都是通用、埃克森美孚之类的能源类企业,而到了2020年都是和大数据紧密关联的公司。这也难怪人们都说现在数据就是石油,数据就是货币。

第四次工业革命是以大数据为核心的,随之产生的物联网、人工智能、区块链等所有的技术变革都要依靠大数据的驱动才能实现。随着大数据的发展,大数据中蕴含的潜在价值不断得到开发。

作为数据经济时代的“石油”,具备大数据能力的国家相继实施大数据发展战略,推动生产和信息交流方式的变革,希望通过数据价值提升经济增长的质量。不过,不可忽视的是,在大数据价值得到不断开发和验证的过程中,大数据中的伦理问题也引发了非常大的关注,如数据垄断问题、数据隐私问题以及数据信息安全问题。如何规范和促进数据使用已成为发展人工智能的重要课题。

事实上,信息价值的开发依赖于大规模的原始数据的收集,现在互联网、移动通信、电商、社交平台和政府部门等都在收集海量数据。然而,哪些个人数据是允许收集的,哪些是不允许收集的,以及如何避免数据被滥用,在具体的实践操作中确实很难把握。本节将从经济学角度出发,通过讨论数据伦理的制度性构建以及数据伦理的哲学问题为读者建立一种思考框架。

数据信息的共享正处在一个不断趋于平衡的阶段。在大数据环境下,信息共享和融通是大数据信息价值开发的前提。没有信息共享,就会出现所谓“信息孤岛”的现象,信息的价值无法充分开发;与此同时,信息共享的滥用会使得数据被无序开发,从而引发相应的数据伦理争议。

先来看数据垄断与隐私保护相关的问题。以著名的“Facebook剑桥分析事件”为例,Facebook公司被爆出利益集团利用社交媒体平台数据操纵美国大选。人们在感到愤怒的同时,也意识到大数据对社会的塑造力量被低估了。Meta公司的数据库中存储着大量网民的信息,社交媒体巨头正在通过垄断潜移默化地影响人们的决策。人类生存于一个虚拟的、数字化的空间,在这个空间里,人们应用数字技术从事信息传播、交流、学习、工作等活动,每个个体的言行举止在不经意间就会留下“痕迹”,成为可以被记录与分析的对象。在大数据时代,被量化的“痕迹”并不是孤立的存在,它们之间有着千丝万缕的联系。数据垄断者可以通过相关性耦合产生一套新的权力关系,进而对不断被数据化的社会带来深刻影响。

从经济学视角来看,市场经营者基于自身的数据优势,做出妨碍市场竞争和影响社会福利的行为,可以被认定为数据垄断。具体表现分为以下3种情况:

第一,对数据资源的排他性独占。经营者通过多种手段阻碍竞争对手获取数据资源,从而强化自身的市场主导地位。尽管数据的非排他性、高流动性和数据主体的多归属性会弱化数据资源的集中程度,但经营者可能采取措施限定交易相关人。例如直接与用户或第三方签订排他性条款,从而达到阻碍竞争者获得数据的目的。Google公司曾要求第三方网站与其签订搜索广告的排他性协议,以防止竞争对手获取相关数据资源。

第二,数据搭售行为。没有正当理由搭售商品,或者在交易时附加其他不合理的交易条件,属于滥用市场支配地位的行为(《中华人民共和国反垄断法》)。在数据相关市场上居于支配地位的经营者可能会基于数据优势地位通过搭售行为来增强在其他市场上的竞争优势。例如,基于自身数据优势,将数据与数据分析服务捆绑出售,以此增强在数据服务市场上的竞争优势,这种行为在某些情况下能提高效率,但也可能排挤竞争对手、减少竞争,并被认为是滥用市场支配地位。

第三,根据用户画像实行差别定价。经营者与用户之间存在明显的信息不对称,拥有数据资源的主体通过大数据分析手段为用户精准定位,在为用户提供个性化便利的同时,也为差别定价提供了条件。在大数据环境下,垄断者能够准确识别每个消费者愿意支付的最高价格,就可以实施完全价格歧视。在以较低价格向一部分消费者出售商品的同时,又不会影响向其他用户索取高价格,从而满足所有的市场需求。这也是为什么我们常常发现同一时间、同一地点、同一产品服务在两台不同的手机上显示不同的价格的原因。

从本质来看,Meta案例让人们认识到的是信息共享的双重性问题,即信息共享的自由边界和信息孤岛的价值拓展的矛盾。这个矛盾几乎是数据价值的内生性问题:Meta公司为所有的用户提供了几乎无限制的信息共享,但是同时也带来了隐私侵权和数据垄断等问题。

从数字经济学的逻辑来说,大数据的隐私和垄断问题就是信息共享时代科技伦理的约束机制问题,其背后的基本逻辑是信息共享的边界和信息价值的公平分配问题。我们应该思考如何建立一种数据伦理的约束机制,在确保大数据信息价值被挖掘的同时也能避免相应的风险。

接下来依据制度和伦理的关系讨论数据保护的规则制定问题。2017年6月,Google公司因在搜索结果中推广自己而屏蔽竞争对手的购物比较网站,违反了《欧盟运行条约》第102条关于滥用市场垄断地位的规定,被欧盟委员会处以巨额罚款。在这个案例中,相关机构创造性地提出了“被遗忘权”的概念,用来表示数字经济时代人们有权要求服务提供者删除遗留在互联网上的数据痕迹等个人信息。

从隐私保护的角度来说,数据保护法律架构包括3方面:任何人都拥有个人数据与数据处理的基本权利和自由,个人数据的控制者必须承担个人信息的法律义务和责任,国家必须建立专门的资料保护机构。事实上,在欧洲法院对西班牙Google分公司和Google公司诉西班牙数据保护局一案的判决中,不仅实现了以上3个目标,同时对《欧盟数据保护指令》中保护个人数据隐私的条款采取扩张解释的创新提出了相关意见。2018年,欧盟推出的《一般数据保护条例》(简称GDPR)很显然也受到了相关案例的影响,推动了人们关注数据空间作为公共领域中的信息共享自由以及伦理限度的问题。

面对数据伦理相关的挑战,各国政府制定了很多与隐私和数据安全相关的法规。欧盟在2002年推出《隐私与电子通信指令》。美国通过宪法第四修正案和宪法第十四修正案的相关判例来保护隐私权,还在2012年推出《网络化世界中的消费者数据隐私权》,在2016年推出《宽带和其他电信服务中的用户隐私保护规则》等制度。除此而外,很多国际合作组织,如欧洲数据保护组织联合会(CEDPO)、隐私权专家国际协会(IAPP)等,也在进行相关制度建设。

这里值得一提的是日本公正交易委员会在2017年6月颁布的《数据与竞争政策调研报告》,该报告就数据及其使用环境与状态的变化、手机与使用数据对竞争产生的影响的评估方法以及数据收集与使用行为等多个问题进行了梳理和介绍,关注了很多数据制度的前沿问题(如竞争法框架中的隐私考量、数据原料封锁等)。该报告突出了数据的收集与使用的相关视角,将数据划分为个人数据、工业数据与公共数据,特别是后面两类数据的研究是非常前沿和细致的。

在个人数据方面,该报告提出数据与信息的概念是趋同的(这也是数据伦理和信息伦理的交叉视角),主要讨论的是社交网络市场上的相关行为。而在工业数据方面,该报告强调了数据囤积的概念,指出垄断企业或者寡头可能通过限制数据访问或者数据收集渠道实现数据囤积。在公共数据方面,该报告着重于如何实现政府机构和公共数据的最大化价值应用。通过这样的方式,《数据与竞争政策调研报告》分析了数据交易市场界定的必要性,也为数据相关并购和审查提供了重要的视角。

尽管上述指令或者条例在一定程度上可以为数据伦理保驾护航,但从制度经济学的角度来说,数据监管的危机依然存在。原因之一在于基于芝加哥学派理论基础上的现代反垄断法主要聚焦于3类行为:单纯的横向固定价格和划分市场垄断协议、企图双边垄断和垄断的横向合并、有限的排他性行为。正是受此影响,监管机构容易忽视了跨行业合并中对数据竞争的维护,大量数据驱动型并购也并未纳入经营者集中审查。这充分彰显了在现代反垄断法思维定式下应对多边市场数据垄断问题的危机。

并且,对平台滥用市场支配地位行为的反垄断调查属于事后审查,具有滞后性和被动性。要促进数据产业长期健康发展,监管机构不应简单地以打破企业“数据垄断”为由,要求企业做出经济赔偿或者提供超出必要范围的数据。因此,除了加强对平台跨行业并购整合数据行为的事前审查之外,优化数据的分享机制也是促进大数据发展的关键之举。

笔者参加过国家知识产权总署关于知识产权和数据垄断的研究课题和汇报,深知关于这方面的问题国内外都在作不同的尝试,并非已经形成成熟的治理模式,而分类数据以及数据行为是研究数据伦理问题的核心,需要深入思考数据与必要设施理论以及竞争损害理论之间的内在联系。

最后我们从哲学视角理解大数据带来的变革,看看数据伦理所代表的数据价值观与传统的哲学系统之间的关联和区别。

第一,数据的本质带来了新的关于“数”的价值体系。古希腊哲学家毕达哥拉斯提出了“数是万物的本原”的思想,将数据提高到本体论高度。随着大数据时代的来临,数据从作为事物及其关系的表征走向了主体地位,即数据被赋予了世界本体的意义,成为一个独立的客观数据世界。可以看到,数据在用来记录日常生活、描述自然科学世界之后,终究会被用于刻画人类精神世界,这是数据观的第三次革命。大数据理论认为,世界的一切关系皆可用数据来表征,一切活动都会留下数据足迹,万物皆可被数据化,世界就是一个数据化的世界,世界的本质就是数据。因此,哲学史上的物质、精神的关系变成了物质、精神和数据的关系。过去只有物质世界才能用数据描述,实现定量分析的目标;而现在,大数据给人类精神、社会行为等主观世界带来了描述工具,从而能够实现人文社会科学的定量研究。总之,大数据通过“量化一切”实现世界的数据化,这将彻底改变人类认知和理解世界的方式,带来全新的大数据世界观。但人类的精神世界能完全被数据化吗?精神世界的数据化是否会降低人的主体地位?这也是我们在大数据时代必须回答的哲学问题。毕达哥拉斯关于数是否是世界本原的讨论在计算主义哲学复兴之后又有了新的意义,也在数据作为基本生产资源之后成为我们重新思考世界的契机。

第二,大数据思维与系统思考的哲学。数据带来了思维方式的革命,它对传统的“机械还原论”进行了深入批判,提出了整体、多样、关联、动态、开放、平等的新思维,这些新思维通过智能终端、物联网、云存储、云计算等技术手段将思维理念变为物理现实。大数据思维是一种数据化的整体思维,实现了思维方式的变革。具体来说,大数据通过数据化的整体论,实现了还原论与整体论的融贯;通过承认复杂的多样性突出了科学知识的语境性和地方性;通过强调事物的相关性凸显事实的存在性比因果性更重要。此外,大数据通过事物的数据化,实现了定性、定量的综合集成,使人文社会科学等曾经难以数据化的领域像自然科学那样走向了定量研究。就像望远镜让我们能够观测遥远的太空一样,数据挖掘这种新工具让我们实现了用数据化手段测度人类行为和人类社会,再次改变了人类探索世界的方法。但变革背后的问题亦不容回避:可以解释过去、预测未来的大数据是否会将人类推向大数据万能论?在过去数百年间,演绎与归纳都是基于经验和理性的方法论,而数据的价值则通过算法等方式推动人工智能等领域的产业实践和洞察,关于智能本质的讨论也是基于这样的方法论,如何理解它的真正价值是理解数据未来和复杂性经济系统的关键。

第三,数据建构出来的认识论问题。近现代科学最重要的特征是寻求事物的因果性。无论是唯理论还是经验论,事实上都在寻找事物之间的因果关系,区别只在于寻求因果关系的方式不同。大数据最重要的特征是重视现象间的相关关系,并试图通过变量之间的依随变化寻找它们的相关性,从而不再一开始就把关注点放在内在的因果性上,这是对因果性的真正超越。科学知识从何而来?传统哲学认为,它要么来源于经验观察,要么来源于所谓的正确理论,大数据则通过数据挖掘“让数据发声”,提出了全新的“科学始于数据”这一知识生产新模式。由此,数据成了科学认识的基础,而云计算等数据挖掘手段将传统的经验归纳法发展为大数据归纳法,为科学发现提供了认知新途径。大数据给传统的科学认识论提出了新问题,也带来了新挑战。一方面,大数据用相关性补充了传统认识论对因果性的偏执,用数据挖掘补充了科学知识的生产手段,用数据规律补充了单一的因果规律,实现了唯理论和经验论的数据化统一,形成了全新的大数据认识论;另一方面,由相关性构成的数据关系能否上升为必然规律,又该如何去检验,需要研究者进一步思考。认识论问题究其本质就是我们理解世界的视角,在这个视角上数据正在重塑我们的思考逻辑,并推导出越来越多的思维方式。

传统经济模式将土地、自然资源、人口、资本等作为生产要素,其大多为实体资源。而数字经济中的关键信息和价值元素则普遍以数据资源生产、存储、流通与应用,这样的虚拟资源形式不仅拓展了要素资源的应用广度与深度,与实体经济中的传统生产要素相结合,形成人工智能、机器人、区块链、数字金融等新经济范式,为实体经济的传统产品和服务在质量、效率和效益方面深层次赋能,从而实现实体经济的效益倍增。与此同时,随着数字经济在国民经济运行中的占比越来越高以及对实体经济的赋能不断加深,数字经济赖以维系的生产要素——数据已成为国家基础性战略资源。海量且高质的数据作为工业社会的宝贵资源,为包括人工智能在内的自动化决策工具提供基于过往经验的判断决策依据。掌握了数据,拥有对数据要素的产权,就意味着拥有了回溯经验与洞察未来的权力。

数据资源成为当前数字经济发展最重要的生产要素,但这些数据来自真实社会中每一个参与生产活动的个体,在各种技术与力量的渗透之下,一些伦理问题被暴露无遗,主要有以下几方面。

第一,信息安全问题。数据产业链环环相扣、错综复杂,数据分析的采集终端、处理节点、存储介质与传输路径不确定、风险高。

鉴于数据产业链环环相扣、错综复杂,且基础训练数据作为人工智能的生产要素贯穿整条产业链,数据分析的采集终端、处理节点、存储介质与传输路径不确定、风险高,用户缺乏对上述环节的控制、监督和知情。同时,行业也缺乏统一标准和行为规范来限制相关企业在以上4个环节的权责分配和行为合规,这一部分隐私数据的使用边界与安全保护完全取决于服务提供商自身的安全技术素养、道德规范与行业自律。一旦在某一流程出现信息安全风险,如病毒、木马、网络攻击,导致信息空间、信息载体、信息资源受到内外各种形式的威胁与侵害,用户对自己的隐私数据就可能完全失去控制。

第二,人身权益问题。数据的滥用造成隐私透支,人格尊严更易被贬损。

以人工智能领域最为常见的生物识别为例,面对处置用户生物识别信息的问题,以苹果公司为代表的企业宣称自己仅将用户的指纹、人脸数据存储在终端设备本地,并采用物理加密的方式确保这些数据的整个调用过程完全脱敏和本地化存储。但更多的厂商则将人脸数据作为用户画像的一部分在线上随意流转传输,常见的网络传输与加密协议显然无法与人脸数据的安全级别与敏感程度相匹配,人脸识别应用的数据存储与传输流程均有可能被劫持,存在严重安全风险;加之当前数据爬虫、网络入侵、数据泄露等已经成为互联网中的常态,收集人脸数据的供应商完全有可能主动或被迫未经用户授权或超出用户协议许可的范围对用户的人脸数据进行采集、使用、流转等非法操作。例如,一旦人脸特征信息被不法分子拦截或者从被攻破的本地加密存储中复制出来并运用在目标用户所使用的安全验证服务上,攻破用户自己使用的人脸识别服务并获得用户本人才具有的敏感权限(如金融交易、人脸门禁、手机解锁与计算机敏感数据访问等)可谓轻而易举;将人脸数据与深度合成技术结合,被不法分子用于伪造具有人格诋毁性质的多媒体内容,或者捏造虚假音视频片段恶意侮辱、诽谤、贬损、丑化他人,势必会对受害者造成极大的人格侮辱与内心创伤并带来非常恶劣的社会影响,甚至被用于干预国家政治或执行军事行动。用户对人脸识别服务的依赖越深,隐私泄露事件对用户的影响也越显著,人脸识别的专属性与唯一性也导致受害者后期难以挽回与消除由人脸数据泄露或非法篡改利用而造成的损失与不良影响。

第三,商业道德问题。人工智能产品可能诱导用户主动透支个人数据,人类失去对隐私与敏感数据边界的控制。

除了被用于人工智能底层算法模型训练的数据和为支持个性化产品服务而采集的数据容易遭遇泄露、篡改等高风险情形以外,还有一种挑战隐私伦理的可能情况是强人工智能产品突破其设计伦理底线,通过一系列激励机制诱导用户提供原本对学习过程没有帮助或高度敏感的隐私数据并对其进行商业化利用。随着人工智能与消费者之间的关系日趋紧密,一些过于依赖人工智能产品的消费者,可能会在企业主观恶意或客观操控的情况下,由于受到诱导或胁迫而泄露与自己相关的敏感数据,企业采集了这些敏感数据后将其用于其他非公开活动。如何保证人工智能产品在规范框架下与人建立合理交互与数据使用边界,不做出侵犯用户隐私信息、突破其职能界限的事情?面对人工智能技术的飞速发展,这一问题值得我们正视。

第四,“知情同意”原则在无处不在的传感器与潜在数据开发价值下失去作用。

首先,公共场合或个人终端装配的大量传感器全方位侦测与人相关的数据,并将其用于多种复杂场景,数据规模非常之大。例如,人脸作为人在社交活动中最直观的身份认证,难以通过有效手段得以保护,这就导致用户在公共场合面临在未经自己允许甚至不知情的情况下被非侵入性识别技术监控并抓取数据的风险,例如IBM公司在被获取数据的自然人毫不知情的情况下从Flickr网站抓取了近100万张照片用于训练人脸识别算法,这无疑是对用户隐私的侵害。其次,数据本身的潜在价值往往是在数据被再利用之后才能被发现,数据采集方往往无法提前告知用户这些数据被用于何种行为,知情同意成了空文。最后,在开始收集数据之前要求个人知情与同意,在处理公共事件时也并不合理。例如,新冠肺炎疫情爆发后,约翰斯·霍普金斯大学搭建的全球病例规模数据可视化看版统计了全球所有国家的新冠肺炎确诊人数,若想请求全球几亿人的同意也是不可行的。

第五,知识产权问题。大数据加剧了知识产权和网络自由共享之间的矛盾。

知识产权作为一种无形资产,既具有对于知识产权的专有权与垄断性,又具有一定时间与地域特性,这就使得知识产权的专有权与垄断性往往在一定时间与地域条件下才能生效。合理且有一定约束的自由共享有利于知识产权的价值转化,但网络大数据的诞生无疑正在挑战这一原则的平衡。首先,网络大数据使得知识产权更容易被侵犯、盗用、复制与传播。其次,现代网络技术对于知识产权与标准的控制也妨碍大数据的发展,大数据的发展加剧了知识产权自由共享和限制使用的矛盾。

我们希望社会成员能够平等按需获取数据资源,并根据生产活动中的贡献得到相应的财富分配。但现实中,囿于数据驱动的生产力和生产关系之间的矛盾,个人用户与平台企业在数据资源分配和应用上往往相互对立,同时企业之间也存在数据垄断等矛盾,具体来说,可以解构为以下4方面:

“数据归谁所有?”——数据的产权归属问题一直是行业内争论的焦点。尤其是那些去除个人身份属性的数据交易行为,由个人产生的数据被企业所收集并脱敏存储或被政府部门收集的情况下,其所属权究竟归属于个人还是企业/政府,各方莫衷一是。一种观点从数据创造价值的特征角度认为非结构化数据在个人手中不产生任何价值,因此数据产权应配置给创造数据价值的平台企业;另一种观点则追溯数据创造价值的逻辑,认为虽然个人数据并无多少直接使用价值,但作为企业、行业、政府甚至国家数据的逻辑起点,每一个用户所贡献的个体数据汇聚成能够为平台企业创造巨大价值的数据集,也应当从数字化红利中分得相应的报酬,这样才能使得数字经济呈现平衡发展的态势。

“数据由谁在用?”——作为当前数字经济时代数据大规模使用的两个主体,政府通过公共服务网站、数字政务平台与“一网通办”等系统采集大量数据,企业则借助向用户提供服务来收集用户信息,并通过数据分析得出不同维度下的趋势与规律特性,从而改进、优化其服务精准度与用户体验。正因为如此,数据在以上应用过程中体现的存储与传输的便捷性、非竞用性和低成本复制性也使得针对数据的产权保护成为难题,即便数据产权清晰也无法完全规避其被非法主体占用、窃取、滥用;加上随着技术的下沉与人们逐渐认识到数据的价值特征,诸如网络爬虫、撞库攻击等数据窃取技术发展迅速,无论是公众隐私还是政府治理与国家安全都比以往任何时候更容易受到隐私侵犯与数据窃取、滥用等不正当使用的威胁,严重侵害数据所有者的产权,损伤数据稀缺性。

“数据用多少?”——作为数字经济中财富与价值的源泉,个人消费者产生的数据是平台企业利润与价值的基础来源,也是数字公共服务与政府实现数字治理的关键要素。但目前由于个人数据权属不清晰导致个人数据滥用或过度限用等极端情况,使公众的个体利益与平台或公共组织的利益形成二元对立的矛盾局面。个人数据滥用可能导致平台或公共组织对个人隐私信息的垄断,会带来以下3个层面的不利影响:首先,隐私泄露、数据窃取导致个人用户的隐私权遭到侵害,继而导致个人用户作为创造数字经济价值的源头无法参与数字化红利的分享;其次,潜在的算法歧视与大数据“杀熟”等差别定价机制使得不同个体无法公平享有公共社会资源,继而进一步拉大数字鸿沟;最后,消费者的人格权在整个过程中被无限稀释,各类平台毫无节制地取得用户授权并收集个人信息,实际上是在争夺人格定义与尊重的话语权,个人用户从主动地使用服务逐渐变成为服务方被动地贡献数据,人格被异化成一个个数据集。而个人数据的过度限用则无疑阻碍数字经济对实体经济的赋能,继而影响数字化转型与数字化红利的释放,大幅度提高股权成本与执行门槛,以至于超过数字经济的收益,从而扼杀创新并影响企业融资、就业岗位、工业产值等核心国民经济运行因素的稳定。

“数据收益归谁?”——利用数据优化产品服务所带来的可观经济利益在数据的生产者(个人)与收集者、加工者(企业、政府)多方之间的分配问题牵动着众多主体的利益。尽管当前司法判决更倾向于将数据收益分配给二次开发利用数据的收集者、创造者与实际控制者——企业,但在一些公共服务尤其是政务数据场景下,作为应用者的政府与作为生产者的个人在没有司法判决的支持下是否能拥有获得合法收益的权利?出现这种情况主要有以下3个原因:首先是数据流通环节缺乏公认可行且可靠的确权技术方案,导致不同环节的交易主体无法被有效界定,收益也无从归属;其次是不完善的数据产权保护体系导致数据产权交易行为缺乏安全保障,数据收益存在风险漏洞;最后是在进行庞大且实时传输的数据交易时,数据所有权和使用权的分离在个人隐私保护、商业机密脱敏的要求下很难以低成本、高效率的方式实现。这些都是数据产权治理领域需要在理论和立法上进行阐述与探索的关键命题。

进一步阐述数据产权命题,需要从以下3方面来解构:首先,从个人权利角度来说,相关各方需要在依法依规的制度框架下采集、存储、使用数据,有效保护个人信息安全;其次,从国家战略角度来说,数据主权问题已成为事关国家总体安全的重要问题,一个国家对本国所产生的数据需要具有完全管理和利用的自主权,在不受他国侵害的安全保障下,积极参与全球数据治理;最后,从科技创新主体的角度来说,无论是针对个人隐私保护还是国家安全的考量,都需要为企业科技创新留出足够的空间,以合理的尺度权衡个人、企业、国家三方对数据这一生产要素的需求,避免因噎废食。这就需要公共政策机构在处理与数据要素配置相关的立法和治理问题时,针对数据确权、数据内容敏感性审查、数据利用方式评定等方面制订足够细化的法律法规和操作细则,充分释放数据生产力。

从实践出发,我们可以进一步总结归纳数据产权的治理困境。首先,从立法上,无论是针对国内数据循环还是跨境数据流通都缺乏数据产权的具体制度,数据产权的保护态度并没有从立法层面得以彰显;其次,在司法实践上,面对数据资产保护与数据权属争议等案例,相关机构大多采取回避、保守的态度,例如相关多数判决会援引《反不正当竞争法》第二条的有限一般条款,这种“兜底”或“包容”的模糊态度使得相关判决无法在处理数据产权保护的司法案件中发挥效能;最后,在监管层面,由于缺乏统一且有效的司法理论与实践探索,监管机构在保护数据产权、确保数据交易与流通合规过程中往往要求多方授权与合规审查,这无疑会影响数据产权的流通形式、效率,继而进一步削弱数据所形成的生产力。

以上就是基于数据伦理、制度假设和哲学视角对大数据相关的科技伦理问题的讨论。不论是大数据、人工智能还是基因编辑技术,本质上都是数智时代的颠覆性技术,都具备“一个硬币的两个面”。在关注科技伦理问题时,我们不仅要看到技术优势的一面,而且要通过经济学和哲学等其他视角审视它的另一面,这样才有可能理解其在现实中的应用范式和对社会运转的基本逻辑的影响。

因此,我们后续讨论人工智能伦理问题的基础也在于理解人工智能的技术本质、经济学视角以及哲学视角,通过这些跨学科的研究开拓我们关于未来的认知。唯有如此,我们才能在进入“数智化风险社会”之后,延续我们塑造现代性的正向价值的累积,将更多、更好的科技应用于人类文明的开拓和发展。同时,控制技术伦理带来的诸多风险,将现代性带来的人类与自然的冲突、人类自身种族的延续以及人类精神层面的孤独与漂泊等问题控制在一个可以接受的范围内,这也是数字经济时代所面临的重要且本质的问题。 7tqzbqFgUdeeYOdyWOXYpwrTvIqDRHsanFLlFR8qEw6G/Qw654vG8rmEeXwoEjSO

点击中间区域
呼出菜单
上一章
目录
下一章
×