购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

人工智能治理主体的责任体系构建

汪亚菲 张春莉 [1]

摘要 人工智能社会共治理念与主体责任体系构建是人工智能立法的重要内容。我国应当探索建立以政府监管部门为主、可融入第三方的社会共治模式下的规制方法,待监管成熟后辅之以规范化的第三方监管,进而建立起政府对企业监管、第三方对政府监管的整体算法监管模式。在人工智能政府主导治理模式中,重点是明确政府、企业及公众的职责、义务以及相应的权利。政府应积极回应人工智能的发展要求,制定人工智能促进法,赋予监管委员会相应的权力,加强对人工智能算法的监管,建立算法备案制度。企业的义务则包括对其使用的算法数据质量进行相关的必要说明,就算法的运算、决策过程予以必要解释,必要时还应当对算法的具体运行细则予以公开,向用户解释说明算法设计者及其所在机构的目标和意图。同时,人工智能立法应当设立公众知情权条款,为发挥公众在人工智能治理中的作用提供制度保障。

关键词 人工智能立法 社会共治 算法监管 主体责任 公众知情权

人工智能技术革命在创造了一个更为便捷和精确的社会的同时,也深刻地影响了人们的生活。人工智能技术正与政府、社会治理及企业运营结合在一起,成为重要的治理手段,而这也为法学研究带来了新的挑战。虽然人工智能技术应用大大提高了人类的工作效率,大幅度减少了企业决策的偏差,但是也带来了更为复杂、隐蔽的新型歧视,如企业“杀熟”“宰客”等不良行为,严重侵害了公众的合法权益。如何规制人工智能技术的运用与发展已成为当前法学研究的重要课题,其中,以什么样的治理理念来规制人工智能的发展亦关系到人工智能立法的框架体系、法律关系的主体体系以及行为体系和责任体系等。本文将以社会共治理念为指引,探讨人工智能法律责任体系的构建,以期为人工智能立法提供理论上的借鉴。

一、确立人工智能社会共治理念的必要性

人工智能治理是一个复杂的法学问题,而治理理念在一定程度上决定着治理效果,进而也影响着人工智能立法的发展。人工智能治理的核心是如何规制算法问题。面对人工智能技术应用过程中暴露出的越来越多的算法问题,既需要规制企业的行为,也需要公法的介入,而公法的介入也必然会带来社会治理成本的增加。随着社会治理成本的不断增加,国家行动策略也需要适时调整,需要通过组织化等方式在国家与私人之间建立交流平台,国家和私人都可以把自身诉求以及相应的监控与惩罚措施在该平台上进行交换或转化 [1] 。由此,规制人工智能技术的发展应贯彻社会共治理念,探索建立一个能够进行社会共治的、政府部门引领下的算法规制体系,更好地进行利益平衡,既促进人工智能的健康发展,也保障经济社会的有序发展。具体来说,以社会共治理念引领人工智能治理,主要基于以下两个方面的原因。

其一,以社会共治理念引领人工智能治理是由人工智能的复杂性决定的。如何规制人工智能技术的运用与发展是一个非常复杂的问题。有学者认为,大数据算法研究和运用的历史不长,实践中积累的经验也不多,还未发展出可以类型化的比较成熟的相关法律关系,因此,目前还不能制定出有关算法规制的完善的法律 [2] 。这种观点显然有失偏颇,并不符合当下社会快速发展的特征和解决社会矛盾的紧迫性。正是由于人工智能治理的复杂性,单纯地通过私法规制或者公法规制都很难实现人工智能领域的良好法律秩序。这是因为,一方面,人工智能算法歧视行为违背诚实信用原则,侵害公众的知情权、公平交易权和隐私权,需要私法规制。但这种侵害与其他私法意义上的侵害又不完全相同,受侵害的主体具有不确定性和普遍性,只通过私法,无法实现对公众权益的全面保护。另一方面,人工智能算法侵害公众权益的方式与手段具有极大的隐蔽性,存在算法黑箱等问题,没有公法的介入,很难保护受到侵害的公众权益。为了更好地保护公众的权益,有必要通过公私法合作,形成遏制人工智能算法歧视的长效机制。事实上,随着当前互联网企业的迅猛发展、大数据运用的盛行,算法引发的社会问题爆发式增长,此时,亟待尽快制定可以有效规制算法的法律法规。那么,这部法律法规应以何种理念为指导,就成为一个非常重要的问题。人工智能法的治理理念在一定程度上决定了该法的立法目的、立法宗旨与立法原则。只有在切实可行的理念指引下,才能制定出较为完善的法律制度,才能有效回应实践中人工智能发展亟待规制的迫切需求。

其二,以社会共治理念引领人工智能治理是公私法交融的趋势所决定的。从理论上看,任何一项权利的实现都需要国家的认可、立法的确认以及相应的救济机制。这一权利实现机制也决定了现代法学发展的趋向为公私法相互交融。为适应社会变迁的需要,私法亦开始更注重保护弱者,注重社会安全,而合同自由原则也在一定程度上受到新的挑战。出于公共安全的需要,公法亦开始有条件地介入自由契约。在人工智能时代,算法导致的侵权频繁发生。当我们思考算法规制时,在关注算法平台和用户受众方利益的同时,更要关注整个社会的公共利益,既要保证用户受众方与平台方达成合意,又要保证双方的意思自治,要将这两点结合起来,使合同自由原则与合同正义原则互相补充、彼此协力。国家不再是中立的旁观者,在其中必须扮演积极的角色,通过立法使得这两项原则相协调,并获得最大的实现 [3]

二、社会共治理念下人工智能治理模式的选择

如果说社会共治是人工智能治理的必然选择的话,那么,在社会共治理念下如何构建其治理路径也是一个必须给予回答的问题。在治理体系框架中,治理模式怎样构建?包括哪些治理主体?政府处于什么地位?怎样处理治理体系中各主体间的关系?只有清楚地回答上述问题,我们才有可能构建起完善的人工智能治理体系、责任体系及相应的制度体系。

关于人工智能治理,理论上有三种模式,即政府主导模式、第三方主导模式和企业自我规制模式。从世界范围来看,以德国为代表的第三方主导是当下主要的治理模式。有学者指出,为保证对算法的全方位监督,我国可以借鉴德国经验,建立值得信赖的算法伦理委员会等第三方独立组织,支持学术性组织、非营利机构或自媒体的适当介入,加强第三方监管的力量。德国目前已有技术专家和资深媒体人牵头成立的“监控算法”(Algorithm Watch)非营利组织,其宗旨是评估并监控影响公共生活的算法决策过程。具体的监管手段包括审核访问协议的严密性、商定数字管理的道德准则、任命专人监管信息、在线跟踪个人信息再次使用情况、允许用户不提供个人数据、为数据访问设置时间轴、未经同意不得将数据转卖给第三方等 [4] 。此外,美国也采用工作组织的形式对算法进行监管,纽约市议会最近通过的算法法案就要求成立一个由自动化决策系统专家和相应的公民组织代表组成的工作组,监督自动决策算法的公平和透明 [5] 。这种模式赋予第三方监管以一定的独立性,节约了监管成本,但这种模式也有其明显的弱点,即为了保证其独立性、公正性,尚需制定相应的配套制度。

笔者认为,现阶段我国还不宜采用第三方监管模式,应当探索建立以政府监管部门为主、可融入第三方的社会共治模式,待政府监管逐渐成熟后,再辅之以规范化的第三方监管,进而建立起政府对企业监管、第三方对政府监管的完整的算法监管模式。针对越来越多算法侵害用户利益和社会公共利益的情况,我国首先应加强政府对企业的监管。对于政府监管模式,实践中美国联邦贸易委员会(FTC)的消费者保护局就建立了新“技术调研办公室”,负责进行独立研究以及就相关问题提出建议,其中就包括对算法透明度的调研 [6] 。我国可借鉴美国的政府监管模式,政府在人工智能治理中发挥主导作用,加强对企业算法运用的监管,尽快制定人工智能产业发展标准,实现人工智能经济与社会发展的良性循环。

企业在整个人工智能治理模式中处于什么地位?作为一项重要的生产经营手段,或者说一项权利,企业运用人工智能技术提高效率无可厚非,在不触及社会公共利益的情况下,亦属于经营自主的范畴。企业运用人工智能的权利并不是治理模式所要讨论的重点,我们要关注的恰恰是企业在治理体系中的义务。正如前所述,企业在运用人工智能过程中,有可能侵犯不确定的社会主体的权利,而且侵害方式具有隐蔽性,甚至是在公众不知情的情况下。因此,企业运用人工智能技术必须以不侵犯市场其他主体、社会公共利益,以及不触碰法律法规与伦理为底线。在这一意义上,企业应当是人工智能治理的第一责任人,在治理体系中承担主体责任。这种主体责任既包括道德伦理(社会)责任,也包括法律责任。

众所周知,法律规范和道德伦理在人类发展的历史长河中有着共同的起源,对公平正义等价值有着相同的追求,在发展中两者相互转化甚至开始重新走向合流。企业的社会责任虽然最初产生于道德的需要,但这种道德责任并未到此为止。伦理的软约束离不开法律的强化,道德良知的自律和舆论约束的他律并不普适于所有市场主体,对企业的道德底线要求逐渐上升为广义的法律要求 [7] 。在社会法学思潮影响下,以社会价值为本位的社会立法大量涌现,企业的道义责任被纳入法律的调整范畴,法律的行为规范中辉映着社会伦理价值的光芒,法律与道德的合流获得了集中体现 [8] 。正如美国法理学家博登海默所言:“那些被视为是社会交往的基本而必要的道德正当原则,在所有社会中都被赋予了具有强大力量的强制性质,这些道德原则的约束力的增强,当然是通过将它们转化为法律规则而实现的。” [9] 利用算法的一些企业,为谋取不正当利益往往突破最低的道德底线,严重侵害公众利益,对社会的危害急剧增大。由此,迫切需要法律来规制这些行为,以保证企业履行其所应当承担的社会责任,遏制企业伦理道德的丧失。综上所述,让企业承担人工智能治理的主体责任,不仅是企业社会责任的要求,也是社会法学以社会本位为价值取向的要求。同时,企业是人工智能侵害特定个人权益或者不确定公共利益的主体,这也决定了企业应承担主体责任。

除政府与企业这两个主体外,公众、独立第三方(行业协会)、专家、媒体等也是整个治理模式中的主体。限于篇幅,这里只讨论最主要的政府、企业、公众这三类主体在治理模式中的地位。在人工智能法律关系中,政府与企业是监管与被监管的关系,属于行政法律关系;而公众处于消费者或者用户的地位,企业与公众属于民事法律关系。那么,公众作为消费者如何参与人工智能治理?这其中的核心逻辑应该是如何构建保护消费者权益的法律制度。但此时又不能简单地以公众作为消费者的权利为逻辑起点,还不应忽视公众知情权的法律制度构建。在笔者看来,公众参与人工智能治理应该围绕消费者的知情权而展开。在人工智能治理领域,只有把知情权的法律性质及其相应的义务主体揭示清楚,才能合乎逻辑地找到消费者在人工智能领域知情权实现的路径,从而达到保护公众权利的效果。

三、社会共治理念下人工智能治理主体的责任构想

政府、企业以及公众作为人工智能治理中的主要主体,明确它们相应的权力与职责、权利与义务,是人工智能治理体系的核心内容。

(一)政府职责的基本设想

对于人工智能治理模式的选择,笔者主张在社会共治理念下构建政府主导的监管模式。具体构想为:要明确人工智能行业主管部门的监管权限、职责以及监管方式。在人工智能治理主体上,赋予行业主管部门监管职能,由主管部门牵头组建人工智能审查委员会,审查企业人工智能算法的伦理性与合规性。委员会组成人员的选择应当多元化,以保障审查与监管的合理性、科学性。除政府部门外,委员会的组成还应包括行业协会,吸纳企业代表、算法设计方代表、人工智能专家学者、法学专家学者、用户方代表等,从而建立一个能代表多元化价值观念、伦理道德理念的群体,形成监管上的合力。在人工智能政府主导治理模式中,重点是要明确政府、企业以及公众的职责、义务和相应的权利。

从政府层面看,首先,要回应人工智能发展要求,尽快制定人工智能促进法,细化人工智能监管标准,针对不同的算法制定不同的分类标准,并且针对所有种类算法设立伦理标准、技术标准和责任标准等。其次,赋予监管委员会相应的权力,包括对算法的审批、对数据质量的认证、对实施细则的制定以及实行行政处罚。最后,加强对人工智能算法的监管,建立算法备案制度。在算法设计后、实施前,要由监管部门进行合规性审查,包括对数据、算法,尤其是算法对数据处理部分的合规性进行审查,如数据、算法是否侵犯隐私权等;同时,还要对已备案的算法进行不定期的事后抽查监管。在监管实践中探索、发展技术手段,不断提高监管效率,以争取达到对算法和数据存在的问题可以进行实时自动侦测、预警、通知警告等,发现算法出现变动时及时要求企业重新申报审批,发现存在其他可能造成侵权的问题时,通过行政处罚或者约谈整改的方式,促使企业行为合法合规。同时,主管部门应当在审查和监管过程中保护企业的算法模型等信息,从而保护算法和数据中的隐私、商业秘密等知识产权。

(二)企业责任的基本设想

从企业层面看,企业的义务是人工智能治理法律制度的重点内容,企业对人工智能的合规性承担着重要的主体责任。从企业的法律义务视角出发,有学者提出,构建算法公开透明机制需要贯彻算法要素透明、程序透明及背景透明的原则,但这种公开透明不应是法律与制度层面的规制,而是生产主体角度的一种内部规则设计,其不同于外部的行为与后果,即应该是一系列的内部透明机制 [4] 。显然,这一观点在人工智能治理的法律逻辑上发生了偏移,这些内部透明机制同样可以纳入法律体系中,同样需要被法律课以应当履行的行为义务和对应的行为后果,如法律责任的承担,如此才能达到规制的效果。笔者认为,应从企业的法律义务以及企业的自我规制义务两个层面展开。设计企业在人工智能治理中的法律义务的基本思路是:企业应当按照政府监管部门的要求,以能够被一般公众所了解、知晓的方式主动向公众公开算法的思路和基本结构,并保证运用能够被一般公众所理解的方式进行解释。同时,企业应当主动向政府监管部门公开其算法模型,并保证包括技术性和非技术性的完全公开,协助监管部门发现问题并解决问题。对于涉及公共利益的算法,企业应当向政府监管部门事先备案,在备案完成、审批通过后,应主动向公众公开算法的有关源代码。企业还应当阶段性地发布有关算法公开的报告,或者以分享交流的形式向公众定期公开有关算法信息。此外,企业还应当制定一系列的内部规则进行自我规制,实现人工智能运用的合规性。

现有的一些国外立法实践也可以为我们提供一些借鉴。目前一些国家的立法非常重视企业对人工智能算法的可解释性。例如,美国纽约市议会在2017年12月关于算法的立法和美国计算机协会公共政策委员会(USACM)发布的算法透明度及可责性文件中都特别提出了算法“应当可解释”的条款。英国议会下属的人工智能委员会最近发布的人工智能发展报告中也提到要实现可理解、可解释,避免在重大领域存在“算法黑箱”。欧盟2020年实施的GDPR亦规定用户可以要求对算法分析决策进行解释,强调了可解释性在算法设计中的重要性,并明确规定了高额罚金的法律后果。笔者认为,涉及社会公共利益的算法公开是规制人工智能发展以及合规性的基本价值取向,我们可以借鉴USACM算法透明度及可责性文件中的“数据来源公开原则” [10] 。也就是说,人工智能算法公开的企业义务具体包括:首先,企业应当对其算法分析的数据质量向社会进行解释说明,包括数据的采集范围、采集方法、数据规模、可信度、准确性、可能存在的偏见等。其次,企业应当向用户公开算法模型输入的变量及其特征,就算法的运算、决策过程予以必要解释;必要时还应当对算法的具体运行细则予以公开,为行业主管部门对算法的合法性审查提供事实依据,否则行政主管部门可以推定其算法不合规。最后,企业应当公开并坦诚告诉用户算法生产过程中是否有人工干预,以及实际运行中可能带有的偏见、易犯的错误;算法推荐涉及争议性、批判性内容时,应当向用户交代算法设计者及其所在机构的目标和意图 [4]

如前所述,由于人工智能的复杂性,即使法律对企业的义务设定得很完美,事实上也不可能完全实现人工智能法的价值与功能。因此,为了弥补法律上的不足,政府应当引导企业实现自我规制。从本质上说,社会共治模式融合了国家规制和社会自我规制,要求国家为社会私人主体实施自我规制提供规则和框架,并且进行相应的激励、指导和监督,通过社会私人主体的协助,确保社会公共任务的顺利完成。社会自我规制的实质是国家利用社会私人主体的自律性行为协助其完成公共任务,进而达到国家规制的目的 [11] 。因此,在人工智能治理中,在社会共治理念下,政府可通过制定一些行业自我规制标准,引导企业根据自身的实际状况,制定符合本企业实际的人工智能算法自我规制内部规则。企业应当按照政府监管部门的要求和标准,强化人工智能算法的内部监管责任,以健康的价值观对算法的逻辑进行反思,以弥补政府监管的不足,实现行业的自律。企业实现自我规制,一方面,应设置专门岗位,由专职人员负责与用户受众方进行沟通、解释算法的运作机理,在不影响用户体验的前提下,以通俗易懂、界面友好的方式公开算法信息;另一方面,应当确保算法设计人员构成的多元化,包括性别、种族和社会经济背景等,并确保他们能够遵守伦理行为准则。企业还应当在数据和算法中,添加违法违规内容识别、用户情绪理解等技术,将价值观的指导具体适用到同类或同种算法中。更重要的是,企业应当在数据处理过程中保护数据主体的个人信息权和隐私权,应当对智能算法执行的全过程进行监督,一旦执行过程中出现违法违规行为,企业应当及时予以补救和调整。此外,企业应当全程记录算法程序的运行、变动及相应的决策信息,包括自动化的算法决策信息,以确保可追责性。

(三)公众权利的基本设想

在人工智能社会共治理念下,公众作为一类重要的主体,一方面,应当享有作为消费者意义上的所有权利;另一方面,作为人工智能用户,也具有一般意义上消费者权利外的特殊权利。也就是说,当公众个人信息被不合法使用时,可以拥有随时将数据删除的权利和被遗忘的权利。所谓被遗忘权,是指公民在其个人数据信息不再有合法之需时,可以要求将数据删除或不再使用的权利。如当时使用其数据信息是基于该公民的同意,而此时他/她撤回了同意或存储期限已到,则可以要求删除或不再使用该数据信息。欧盟数据保护立法就规定了此项权利。同时,还应当赋予数据权利主体以数据可携权。数据可携权的核心理念是,个人能够将其个人数据和资料从一个信息服务者处无障碍地转移至另一个信息服务者处。然而,这些作为消费者的权利,如果没有法律制度加以保障,就会很难得以实现。

如前所述,公众作为消费者参与人工智能治理的核心逻辑是如何保护消费者的权益,而公众参与人工智能治理应该围绕消费者的知情权展开。现实中,公众知情权与人工智能治理间的关系是被忽视的问题,无论是理论界还是实务界,都没能充分认识“人工智能治理只有在阳光下运行,才能构建良性的人工智能法律秩序”这一命题的价值所在。如何设计科学的法律制度来保障人工智能治理在阳光下运行,对公众知情权的性质分析是一个基础问题。从一般意义上说,把握消费者知情权的法律性质必须回答两个层面的问题:一是消费者知情权究竟是一项主观公权利还是一项主观私权利?二是消费者知情权究竟是一项实体性权利还是一项程序性权利? [12] 在笔者看来,知情权是主观公权利与主观私权利的统一、实体性权利与程序性权利的统一。这也是公众在人工智能治理中实现公众知情权的路径。知情权作为一项主观公权利,其义务主体是政府,即公众具有可以请求政府公开其掌握的人工智能治理相关信息及相应的请求救济的权利。政府应当依据信息公开条例,针对涉及社会公共利益的算法予以公开,无论是何种主体的信息公开,公益优先和公开优先都应当是信息公开的制度价值,也是利益衡量的基本原则 [13] 。而知情权作为一项主观私权利,其义务主体是企业,企业应当按照法律的规定满足公众的知情权,这也是前文设计企业法律责任时,不厌其烦地论证企业要对其人工智能技术中算法、数据、程序等方面具有公开、解释等法律责任的原因所在。同时,作为实体性权利与程序性权利的统一,公众在人工智能治理中的知情权的实现,需要在制定人工智能相关法律规范时,不仅从实体上构建相应的规范体系,而且要从程序构建上满足其请求权的实现,例如,请求权的具体途径、当请求权不能得以实现时的救济途径等。只有这样,才能实现公众的知情权,发挥公众在人工智能治理中的价值与作用。

本文原载于《学习与探索》2020年第12期。

参考文献:

[1]唐清利.公权与私权共治的法律机制[J].中国社会科学,2016(11):111-128+207-208.

[2]於兴中.算法社会与人的秉性[J].中国法律评论,2018(02):57-65.

[3]韩世远.合同法总论[M].北京:法律出版社,2011.

[4]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(07):49-53.

[5]New York City Announces Task Force to Find Biases in Algorithms[EB/OL].[2020-01-01].https://venturebeat.com/2018/05/16/new-york-city-announcestask-force-to-find-biases-in-algorithms/.

[6]韩伟.算法合谋反垄断初探——OECD《算法与合谋》报告介评(下)[J].竞争政策研究,2017(06):68-77.

[7]蒋建湘.企业社会责任的法律化[J].中国法学,2010(05):123-132.

[8]周林彬,何朝丹.试论“超越法律”的企业社会责任[J].现代法学,2008(02):37-45.

[9]E.博登海默.法理学:法律哲学与法律方法[M].邓正来,译.北京:中国政法大学出版社,2017:391-393.

[10]Simson G,Jeanna M,Stuart S S,et al.Toward Algorithmic Transparency and Accountability[J].Communications of the ACM,2017,60(9):5.

[11]邓刚宏.食品生产经营者自我规制模式的构建[J].政治与法律,2019(03):101-110.

[12]邓刚宏.食品安全阳光下运行的法律逻辑及其保障机制——以消费者知情权为路径[J].南京社会科学,2017(03):106-112+120.

[13]王敬波.政府信息公开中的公共利益衡量[J].中国社会科学,2014(09):105124+205.

[1] 汪亚菲,南京大学法学院博士研究生。
张春莉,江苏省社会科学院研究员,中国法治现代化研究院研究员。 /JQlkNq/3pIXUQs/7RTo+1csxh5oIUqRCHgQ/r46xLDGt6tCtS8Oll8wauoHuvK1

点击中间区域
呼出菜单
上一章
目录
下一章
×