人类已经步入数字化、网络化和智能化等信息化技术催生的数字化生活时代,探索数字(虚拟)空间的治理规则成为不可回避的问题。甚至有学者认为,应对虚拟世界的法律调整可谓一场有史以来的法律大变革或法律革命。 当下,借助普遍应用的信息技术,线下大众通过平台提供的技术和商业服务底层架构,在虚拟空间择入择出展开活动形成数据,而平台利用算法处理数据,成为推动虚拟空间创新的引擎。其中,作为虚拟空间核心驱动力的算法本身即构成了虚拟空间的规则基础,而提供基础服务的平台利用算法汇集、分配资源,在很大程度上决定着虚拟空间的活动规则。但算法和平台如同数据一样,也是虚拟空间法律治理的对象。因此,数据、算法、平台构成了讨论虚拟空间治理规则的核心要素,也构成了探索人工智能法治的主线。
本辑译丛已经是“独角兽法学精品·人工智能”译丛的第三辑了,2018年推出的第一辑包含《机器人是人吗?》(美国律师约翰·弗兰克·韦弗著,刘海安、徐铁英、向秦译)、《人工智能与法律的对话》(美国学者瑞恩·卡洛、迈克尔·弗鲁姆金和加拿大学者伊恩·克尔编,陈吉栋、董惠敏、杭颖颖译)和《谁为机器人的行为负责?》(意大利学者乌戈·帕加罗著,王黎黎、张卉林译)三部译著。2019年第二辑的三部译著分别是美国学者柯林斯和斯科弗教授的《机器人的话语权》(王黎黎、王琳琳译)、以色列学者哈列维教授的《审判机器人》(陈萍译)以及英国学者赫里安教授的《批判区块链》(王延川、郭明龙译)。鉴于前两辑译丛所取得的广泛认可和各界朋友的鼓励,2020年我们再一次精选了三本有代表性的著作推介给国内的读者,即《驯服算法:数字歧视与算法规制》(凯伦·杨、马丁·洛奇编)、《数据的边界:隐私与个人数据保护》(玛农·奥斯特芬博士著)和《人工智能与法律的对话2》(托马斯·威施迈耶、蒂莫·拉德马赫编)。自此本译丛已经出了三辑九部译著。
《驯服算法》一书由林少伟、唐林垚博士翻译,本书认为:算法规制的目标无他:其一,警惕本来应当是中立的智能应用,被用来掩饰未取得“多数人同意”的少数人集权;其二,建立利益相关者对话和商谈的场域,避免法律沦为“技术寡头”的帮凶。《驯服算法》一书从凯伦·杨“跳出‘数据道德’或‘AI道德’窠臼”以寻求“数据驱动机器时代正义、民主和自由”的主张开始,以李·拜格雷夫“将数据保护法的价值观贯彻进信息系统架构之中”的倡导结束,中间穿插着马丁·洛奇等学者对“风险导向监管路径”的反思与改进;这背后是“自然人正义观”与“算法正义观”从排斥到融合、“个人数据保护”与“技术公共利益”从对立到统一的艰苦历程。本书英文版虽出版于新冠肺炎疫情暴发之前,但作者们从不同角度对算法规制的路径探寻,无不包含着以“个人健康”促进“社会健康”的现实隐喻,以及人本主义“责有攸归”的道德哲学,对我国国家治理体系和治理能力现代化以及疫情常态化下慎终如始“科学防治、精准施策”的稳步推进有着深刻的启发和借鉴意义。
由曹博博士翻译的《数据的边界》一书提出,大数据引发的问题集中在个人隐私和数据保护领域,但大数据应用和算法决策对个人生活的影响同样涉及个人自治、非歧视以及言论自由等基本权利。作者从实践例证出发,建立了大数据的三阶段流程(获取阶段—分析阶段—应用阶段),检讨了《欧洲人权公约》和《欧盟基本权利宪章》中有关隐私和数据保护在大数据环境中的适用性和局限性,同时引介了欧洲人权法院和欧盟法院在判例法中对相关概念的进一步阐释与拓展,对《通用数据保护条例》的全面分析则呈现了欧盟数据保护法的最新进展以及在大数据环境下的缺陷与规范困境,在比较了修改数据保护法、借鉴其他部门法以及专门立法等不同解决方案各自的利弊之后,最终提出应对大数据问题必须整合不同解决方案的建议。本书作者力图打破部门法的门户之见,提倡在对抗大数据带来的负面影响时,不应固守隐私和数据保护法的既有范式,只有从更宏观的视角出发,采纳综合性方法,才能为个人权利和自由提供大数据时代所需的保护。本书对于深入理解大数据带来的现实问题、全面了解欧盟隐私和数据保护法律框架的价值基础和规范结构、客观评价其潜力与局限性具有重要参考意义,为应对大数据的法律方案提供了新的选择。
《人工智能与法律的对话2》由韩旭至、李辉、金枫梁、王黎黎、徐涛、余涛等几位学有专攻的学者翻译。本书深入阐释了人工智能对法律制定、法律应用所带来的众多挑战,并在此基础上提出了相应的解决方案。本书第一部分探讨了规制人工智能的相关基础理论问题,并得出如下结论:在数据保护上,立法者有义务规范国家对数据的处理,规范人工智能的使用,从而尽可能保护基本权利。在个人自决上,应通过直接或间接的法律手段回应自动决策系统的巨大风险。在透明度上,建议借鉴相关不透明决策系统的规制经验。在反歧视上,需要从因果关系证明、弱势群体概念等内容出发,对法律进行部分调整。在法律人格上,当智能体承担类似“老练仆人”的功能时,就可以视为法律主体。本书第二部分从人工智能的具体应用领域出发,在具体场景中探讨人工智能的规制,并探讨了以下问题:在社交媒体中,越来越多地使用人工智能工具所产生的法律问题。在法律科技中,重新构建法治并将其嫁接到技术之上的问题。在行政决定中,建立与机器学习算法相适应的内在规则问题。在智慧执法中,可问责性、非歧视以及法律执行问题。在金融市场中,人工智能技术的应用前景及其难题。在公共治理中,确定人工智能系统准则的问题。在税收程序中,从风险管理系统的角度研究完全自动化税收程序的问题。在医疗保健中,作为医疗器械的学习机器在监管中的角色、使用人工智能医疗系统时的医患关系及责任问题。在竞争法中,人工智能会产生的默契合谋、滥用市场支配地位以及卡特尔化的系统性倾向等问题。
人工智能的发展离不开数据、算法和算力三项要素。三者之中,数据是质料基础,算力是计算支撑,而算法是核心驱动。从技术角度讲,算法是一种计算机软件技术规则,是为完成某项任务在设计软件时所嵌入的数字化流程或者规则,通过路径、机制的设定,运算出相应的结果。通过代码实现的算法本身即是技术规则。虚拟空间任何数据的处理、主体身份的识别、认证及评分的进行乃至平台构建均通过算法设计实现,遵循着算法的逻辑和规则,在此意义上,算法几乎是虚拟世界的法律化显示。
种种迹象表明算法具有“颠覆性潜力”,因此引来了对于算法规制的讨论。本辑译丛中《驯服算法》一书即聚焦算法规制的合法性和合法化这一核心议题展开了有益的讨论,根据这些研究成果,算法规制指向以算法决策为手段的规制治理体系,其中最令人担忧的问题是数字巨头运行算法规制的方式,即“免费增值”或“免费服务”模式,在这种模式下,个人虽可以“免费”使用数字服务,但代价却是向服务商提供个人数据和向广告商提供“浏览记录”。由于后两者可以凭借数据“挑出”甚至“识别”具体个人,这导致了社会普遍存在忧惧心理,因此确保“算法的可靠性”构成了算法规制的基本目的。
进一步的问题是:算法的法律本质是什么?目前学界观点不一,存在言论说、商业秘密说等观点。 言论说从宪法层面上进行讨论,但不能解决算法究竟是谁的言论这一问题,即算法究竟是设计者、生产者还是人工智能体本身的言论?商业秘密说的问题是:究竟通过哪个视角讨论商业秘密,又凭借何种路径来施加保护,是通过反不正当竞争法,还是知识产权法?说到底,上述两种观点主要还是在弱人工智能的意义上来讨论,到了强人工智能时代算法的法律本质可能是人的意识能力。届时,算法之于人工智能,犹如意志自由之于自然人。毋庸讳言,对于算法法律本质的学术研究目前还有很多可探讨之处。
但算法规制带来的风险和威胁不容小觑。一方面,算法的运作过程在技术上仍被视为一个黑箱;另一方面,虽然算法凭借输入、运算进而输出表面上看似客观的结果,但对数据进行动态分析预测,算法的属性主要还取决于自然人的属性,人类价值嵌入算法,导致算法输出结果带有偏见,可能阻碍另一些正当价值的实现。在世界范围内,数据保护法作为应对算法风险的主要手段,其重要性不言而喻,但现实是除了欧盟近期改革的数据保护法,对于数据治理仍缺乏足够多的定论。基于对这些问题的正视,算法法律本质的争论并未妨碍社会各界在法律应当监管算法这一问题上达成一致。
问题在于,法律如何介入算法的规制。若从内部规制的角度观察,法律似乎不能亦不应调整算法,就像法律不能调整自然人的内在意思一样。但这并不是说法律不介入算法甚至放任算法决策侵害数据主体的权益。算法作为技术规则的客观性也为法律介入奠定了客观基础,这种客观性构成了规制算法最强有力的依据。
其一,对于算法的规制可以提前到算法设计的阶段。在算法设计当中融入绿色、伦理、守法、自由、尊严、关爱等“善”的因素,使算法符合善的要求。本质上,价值嵌入改变从外部进行技术评估的传统路线,转而从内部进行价值赋予。 此时,“共同善”作为规制算法的哲学基础就进入我们的视野。在网络空间重提“共同善”促使法律对算法等技术的规制不得不转变立场,即由通常的事后责任调整到事前的合法性考察。 这一路径若欲奏效,必然要求算法的设计者本身守法为善,这当然需要探索设置不限于法律的机制或机构进行落实。本辑译丛中《人工智能与法律的对话2》一书考察了众多机构在处理数字伦理、人工智能相关问题上的有益尝试,例如,欧盟委员会已经建立了“人工智能高级专家组”。德国联邦政府成立了数据伦理委员会,并赋予其解决某些核心问题的任务,2019年10月该委员会已发布了相关意见。德国联邦议会成立了关于人工智能的调查委员会,该委员会也计划处理相关道德问题。值得注意的是,谷歌和德国电信等企业也已设立了道德指引或相关原则。
其二,对于算法的规制需要清洁的数据作为质料。输入信息的质量反过来影响算法运算的结果,对算法的规制必然也要求喂养算法的数据本身是清洁、纯净、无污染的。数据质量及其利用是否合规的问题往往转化为,法律如何监管算法使其稳健且在一定程度上可解释。妥善解决这一问题的核心是将算法置于其所处的复杂技术系统和商业形态中予以观察,这需要立法者放弃传统习惯上的强行干预方式,转而采取技术主义路线,把法律规制转换成与之对应的法律技术化规制。在根本上,需要立法者平衡企业的商业秘密和大众的数据权利进行制度设计。以算法自动化决策为例,法律可以对算法运用者课以一定的解释义务。在立法例上,欧盟《通用数据保护条例》中的第13—15条规定即是此类规定。我国《信息安全技术个人信息安全规范》第7条第10—11款也规定数据主体有权对“仅依据信息系统的自动决策而做出显著影响个人信息主体权益的决定”提出申诉,数据控制者应于30天内或法定期限内给予“答复及合理解释”。
算法作用的发挥离不开作为人工智能质料的数据。可以说,没有数据的算法是空洞的,没有算法的数据是盲目的。这一表达构成了对于数据与算法关系的基本描述,但显然并非两者关系的全部。
数据是算法的质料,算法促进了数据价值的发现。数据虽然是人工智能最重要的资源,但孤立的不进行关联的数据没有任何价值或价值极其微小。人工智能的发展史和人工智能的主流观点表明,只有通过海量数据才能训练算法,生成更高级的人工智能。具体来说,经算法收集、加工、处理后形成的数据集合价值倍增,尤其是被称为大数据的衍生数据集合本身即以价值密度高为特征。由此,方可形成数据价值链。有学者将这一价值链概括为“原始数据(个人信息+其他数据)→算法(处理)→(大)数据(衍生数据)”。此外,域外相关算法规制的经验亦表明,算法规制将使数据利用边界得以明晰。 当然这需要了解大数据的技术原理和基本构造,对此问题相信读者可以在本辑译丛中《数据的边界》一书中获得满意的答案。
那么,作为人工智能质料的数据又是什么,这是困扰着数据权利研究乃至整体人工智能法律问题研究的主要难题。 本质上,数据既是为特定目的而被改变了形式的信息,也是信息得以形成的基础。因此在信息学或计算机科学的意义上,信息和数据可以且应当予以区分。实际上,法律对人格权利、知识产权中内含的个人信息保护也早已存在,在此意义上,这一轮人工智能发展所带来的只是个人信息传播形式的变化。如何界定变化了传统形式的数据及其与信息、隐私等概念的关系,是各界普遍关切、热议不息但仍未达成一致见解的问题。
法学对于数据信息的界定和区分受到了信息学、符号学和知识管理学的影响。在信息学意义上,以0和1的二进制单元表示的数据是表示信息并用于处理目的的符号,数据要再现为信息,需要经过抽象化的过程。一个例证是,根据国际标准化组织(ISO)界定,数据是以适合通信、解释或处理的形式表现的可复译的信息;信息是在特定上下文中具有特定含义的关于特定对象(例如事实、事件、事物、过程或想法,包括概念)的知识。此外,知识管理领域的创建也值得关注,此领域存在着数据、信息、知识和智慧的四分法,数据是对客观事物感知形成的原始记录,对数据进行加工处理、建立联系就形成了信息,对数据和信息的应用提炼出知识,而智慧是在知识基础上的创新性、前瞻性发展,从数据到智慧反映出从低级到高级的认识阶段。
2020年5月28日通过的《中华人民共和国民法典》对数据(第127条)、个人信息(第111条和第1034条)和隐私权(第1032条)均进行了规定,这些规定为上述权利的保护提供了基础规范,也为辨别三者关系提供了基本线索。法学意义上信息和数据的关系可以从个人与数据控制者两个层面考察。
从个人层面来看,欧盟《通用数据保护条例》所规定之“个人数据”(personal data)、德国《联邦数据保护法》所规定之“个人数据”(personenbezogene Daten)以及美国的许多联邦法律和州法律所使用的个人数据(personal data)以及被广泛接受的个人可识别信息(personally identifiable information,PII)表明,两大法系均是把法律本质上的个人信息作为权利客体,无论采用个人信息或个人数据的称谓,其含义基本相同。我国立法司法实践(以“新浪微博诉脉脉案”为例)也普遍采用了个人信息的概念。从法学规范意义的角度来看,在个人层面,数据就是信息,作为法学权利客体的始终只有一个,个人信息与个人数据没有区分的必要性。在国内外立法中,无论使用个人信息或个人数据的表述,其实质都是指个人信息,以0和1的二进制单元定义的数据并不具有法律意义。因此,为在法律意义上规范统一表达,建议最好统一使用个人信息(而非个人数据)概念。
从数据控制者的层面来看,无论其使用原始数据还是衍生数据,目的都是获取信息,甚至在数据侵权的情况下,第三方通过网络爬虫等方式抓取数据的目的也是获取信息。在大数据时代,真正具有市场价值的仍是信息,但与个人信息有所不同,数据控制者层面的信息往往是一种大数据集合,是对个人信息进行收集、脱敏、整理、加工后形成的海量数据,其与个人信息主体的直接关联往往已经切断,完全成为外在于人的存在物,甚至负载着加工者、整理者的劳动、智慧。如果数据没有经过脱敏处理,尚能识别出信息主体,在法律上仍需适用隐私、个人信息的保护规则处理。只有经过脱敏处理,无法识别或不能直接识别出信息主体的数据,才是真正在法律意义上讨论的数据。由此可见,尽管数据控制者(多为企业)拥有的海量数据在本质上多为他人信息,但为了与个人信息(即信息主体所拥有的自身信息)相区别,应称之为数据或企业数据。
我国法律中数据的应有之义可从以下角度理解:第一,数据的权利主体主要是对个人信息进行收集、整理、加工等处理的法人(企业)、非法人组织和个人;第二,数据的客体属性本质上仍是信息,通常是批量信息的汇集,这种信息经过脱敏技术处理,切断了与信息主体的关联;第三,数据的法律属性表现为纯粹的财产属性,其转让、利用的自由程度最高。隐私、信息和数据三者作为法律关系客体的特征主要表现为:隐私属于严格意义上的人格利益且不包含任何财产属性,信息主要亦应归属于法律上的人格利益但其中包含着一定的财产属性,数据则仅有财产属性,而无人格属性。
如果进行历时性观察,信息从古到今都存在,其被历代先民以不同方式加以利用。但是由于彼时信息生成、保存和传输水平的限制,在很长时期信息的重要性未能彰显。鉴于数字化、网络化和智能化的助推,我们今天所谈的数字社会的隐私、数据与个人信息也在不断发展变化。
在区分了三者之后,我们需要辨明人工智能最终所使用的数据是什么属性。在价值取向上,这类数据最好经过脱敏,即不能凭借该数据识别特定主体。否则这类数据就仍是个人信息。《中华人民共和国民法典》第111条明确规定非经依法取得(包括但不限于数据主体明确同意)不可使用。这一规定的规范意旨是,个人信息是一种人格利益,该权益性质及其维护自然人主体之尊严的制度度目,决定了其不能被直接使用与转让等。为了解决信息利用与人格利益保护的潜在冲突,应通过“公开化权” [1] “商品化权”先将个人信息中的财产属性转化为财产利益, 能够转让的只能是财产利益。
数据的法律本质是信息,但该信息已经过处理不与相关主体相关联,是已经财产化了的信息。经过处理的数据才是干净的数据,“干净”的一个基本要求是不能包含隐私,惟其如此,人工智能体、数字社会才会更健康。人工智能想要得到快速的发展,数字社会想要更健康完善,人工智能所依据的也是算法所整合的数据必须是完整的、全面的、清洁的。为了实现上述追求,数据应该是开放、共享的,而不应被限制一隅,切割成零落散乱的孤岛。当然,在数字虚拟社会中人类维持数字化生存隐私安全时刻遭受的挑战和威胁,数据能否有效地开放、共享,在根本上取决于对数据进行全面严格的保护。此外,我们经常将大数据等同于个人数据处理,这是需要纠正的。《数据的边界》一书提出了“流程论”的新颖观点,指出这一问题的复杂性。“大数据由许多不同的行为和效果组成”,法律适用于这些行为的方式并不相同,它们不能被当然归并到“大数据”和隐私与数据保护法的既有范畴之中,也并非所有负面影响都可以用隐私和数据保护来描述。
互联网依然是虚拟空间的基础。在《代码2.0:网络空间中的法律》一书中,莱斯格提出虚拟空间的规制问题,指出法律、社群规范、市场和架构都提供着虚拟空间的规则,发挥着规制作用。其中,技术架构本身日益成为虚拟空间中占主导性的权力类型。 架构本来是世界的存在形式或世界在某些特定方面的存在形式。在虚拟空间中代码类似于架构,发挥着规制行为的作用,并不依赖个人或者组织。
如果由虚拟空间的架构观察,平台越来越成为推动虚拟空间和虚拟经济背后的力量。平台表现形态多样,举凡客户端软件、浏览器、搜索引擎抑或网站等皆是平台。平台聚合了资源、数据、算法和基础服务,为虚拟空间的生产和服务提供技术和商业服务底层架构。如此平台即可汇集众人之力产生大量交易和相关数据,通过智能算法进行分析,使生产/交易更加自动化和高效。因此,平台基础服务是推动创新的引擎,也是影响互联网治理规则和监管的重要要素。 我们有理由相信随着智能互联网的进一步发展,平台将越来越复杂,并成为虚拟空间的“基础设施”。因此,在发挥平台技术规则和约束作用的同时,也要进一步对其进行规制,以最大化发挥其作为基础设施的正外部性,抑制其负外部性。 [2]
现阶段,人工智能所需的数据大量来自平台。在一定意义上,数据成为平台经济的生产资料。平台积累相关用户的数据信息并对其进行评价,在本质上控制了数据的生产机制。由此衍生的问题是,如何设定这些数据的利用规则,这构成了规制平台的首要内容,也在根本上奠定了虚拟空间法律规制的基础。一般来说,同意是数据利用最重要的合法性前提。不仅在理论上,而且在大数据实践中,同意通常是控制者处理数据的基础。 同意已经成为线上合法处理数据的主要依据。我国司法实践在“新浪微博诉脉脉案”中确立了“三重授权原则”,这一原则要求数据获取企业在获取数据持有企业的用户数据时,需满足用户对数据持有企业、用户对数据获取企业,以及数据持有企业对数据获取企业的“三重授权”,缺一不可。我们姑且不讨论该规则忽视具体数据类型而要求企业间获取数据普遍遵循的不当, 令人担忧的是,“三重授权原则”试图通过层层同意严格保护信息主体的利益,但如此设置数据利用规则既不能满足促进信息流转利用的效率要求,也不能在信息主体拒绝信息利用后提供底线保护。比如,用户不授权平台使用头像,将被拒绝使用相关产品。以至于“不同意即拒绝”成为基本趋势,“技术拒绝”的终极结局是本来应向信息主体平等敞开的虚拟空间的大门被彻底关闭了。这种规则的设定既不符合真正的虚拟社会的应用常态,也不符合网络化的数据利用思维。不过,设计妥适同意规则的当务之急是解决数据利用的利益分配问题。说到底,让信息主体无偿奉献人工智能、数字社会的发展的质料——数据——无偿支持平台及其支持下的虚拟经济的发展,并无正当性依据。因此,同意规则的前提是妥善解决利益分配问题。我们显然没有篇幅讨论这一问题的细节,仅在此提示其意义和可能路径,比如可以通过数字税或者数据基金实现利益的平衡分配。若可解决利益分配,便可适度缓释个人信息知情同意规则的功能压力,从而设计出符合数字社会中有利于数据利用的同意方式,但无论如何都不能突破保护隐私的底线。
数字社会的本质即规则之治。数字社会的架构,无论是横向的场景分布或纵向的分层维度,从平台搭建、数据利用、算法设计等整个数字社会的运行都需要依靠科技规则与契约规则予以保障。
第一是技术规则。技术规则的基本内涵是,整个数字社会的存在是通过信息生发。可以说,技术规则是整个数字虚拟社会的存在前提。代码被称为“塑造网络空间的法律”,是计算机网络分层规则层的关键,可以说正是代码编程以及算法塑造了虚拟空间。数字社会的跨域连接特征要求虚拟空间规则制定及其规制上的国际合作。数据与人工智能的矛盾来自信息共享的实际需求,这种共享不仅是国家内部的,更是全球性的。依托数字化而实现的人、物、智能设备相互之间的连接和贯通构成了数字社会的普遍链接。在虚拟空间中,任何一个具体的人、物或电脑、智能设备、服务器等,都作为数字化网络上的“连接点”而存在。 个人信息或者数据具有可复制性和可跨国境性(国际性),因此单纯依靠线下空间的单个国家或地区政府难以控制数据的流通。在终极意义上,一旦切断与国际间的数据关联,一国内部的数据发展也必将“消亡”。而现实是,基于国家安全和国际竞争的考虑,多数国家把数据作为一种重要的生产要素,制定了自己的长臂管辖规则。长远来看,必然需要通过国际公约来解决这个问题。如果数字社会规则建立起来了,它不仅有助于我们线下社会中一国法治的实现,也有利于全球范围内国际规则的建设。本辑译丛中《人工智能与法律的对话2》一书在更广泛的意义上论及了这一问题,本书指出,由于地域的分割是使用人工智能的典型情形,国内的举措,包括一国的法律规则,往往不足以解决相关问题。因此,也需要跨国和全球有效的工具。这些工具最好能以相应的跨国和国际协定为基础,至少应是旨在采取法律的形式。这包括跨国治理中新的理念、协议和机构。
第二是契约规则。网络行为活动持续展开,人们彼此之间可以进行更为深入的交往互动。如网上购物签订合同时需要对数据信息使用进行同意等,这就是一种契约规则的体现。《驯服算法》一书在分析企业对机器学习模型时也指出了合同约定的重要性,“企业希望在合同中明确规定机器学习模型的使用范围,并特别禁止将训练数据以可重新识别的方式使用。这些担忧再次强调了在没有足够的透明度和可解释性的情况下使用机器学习的危险,因为人工智能技术的潜在偏见或隐私侵害可能无法通过简单地分析结果予以确定,这从侧面凸显了在合同中加入审计条款的重要性”。作为革新万维网络架构的区块链也倚重合约机制。在区块链上自治组织(DAO)的构建、管理乃至交易的进行都需要不同合约机制来完成。总之,虚拟空间并未削弱当事人意思自治的范围,反而将其加强。
随着虚拟空间对于线下物理空间影响的扩大,数字社会的法治将会对线下社会的法治发挥越来越大的影响和提升作用。这多少让人惊奇,物理空间中法律在很大程度上望“虚(拟空间)”却步,而虚拟空间的规则却越来越深入地影响现实社会的法律系统,并要求现实社会中的法律与之协调和匹配。 我们可以以平台为视角说明虚拟空间的规则如何影响现实社会的规则。
首先,虚拟空间不断强化对线下主体身份的认知和再生产。在虚拟空间中,通过账户进行认证和识别,原本用户可以隐藏的各类社会身份、私人信息变得难以控制,其社会身份不仅被识别,而且不断再生产出来。平台通过累积的数据分析识别各种身份,就可以获得更多收益,实现生产和治理的目标。身份的识别和再生产无疑直接影响了线下主体的自身认知和行为选择。
其次,技术进步创造空间混同的环境,大大改变了现实社会的财产权利位序。原有物理和虚拟空间切割下具体财产权利的稳定性价值大大降低,所有权的作用大大下降,短期使用巨幅增加,共享经济快速发展,也是这种影响的具体表现。 [3]
再次,物理空间的数字化的加速,原来不是商品的东西,在虚拟空间中调节匹配也可以通过纳入生产流程而产生经济价值。这种流动性的增强势必打破原来物理世界中的规范,迫使权力主体(包括政府)接受一个统一的虚拟空间规范。
最后,可能也是最直接的影响,是对于法律本身的影响。在技术意义上,代码成为规制行为和塑造治理秩序的一个重要的新型途径,促使在相关领域出现从“代码即法律”到“法律即代码”的转向。
在万物互联时代,物理世界和虚拟空间之间的界线变得愈加模糊。虚拟空间的规则体系与现实世界的法律体系相互调适、相互对峙以及相互吸收和相互容纳,这无疑是一个多种形态法律的创建与变革的时代。如果法治能在数字社会当中实现,即只要进入数字社会,便要遵循统一的虚拟社会规则,那也将有助于线下主体塑造法治精神。也就是说,如果人们自觉遵守了虚拟空间中的规则,培养了规则意识,亦将促进线下传统社会规则(包括法律)的良好遵守并提升规则实效,且该规则实效不仅体现在一国范围内,而是展现在整个国际范围内。在此意义上,规则之治,或者法治应该是规范人类生活或活动的客观反映,无论是数字社会,还是线下传统社会。所以说,数字社会需要良好的法治与文明,善法不仅仅是虚拟世界的希望,更为现实世界带来希望。
彭诚信
上海交通大学凯原法学院
2020年6月30日
[1] Jennifer Rothman, The Right of Publicity: Privacy Reimagined for a Public World ,Harvard University Press 2018.
[2] Brett M. Frischmann, Infrastructure: The Social Value of Shared Resources ,Oxford University Press 2012.
[3] Shelly Kreiczer-Levy, Destabilized Property: Property Law in the Sharing Economy ,Cambridge University Press 2019.