购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

五、重点观察之三:算法审计的规范路径

(一)问题简述

随着AI和机器学习(Machine Learning,ML)的快速发展,智能算法应运而生,其以前所未有的规模为社会生活带来了极大的便利。如今,无论是衣食住行,还是医疗、就业,甚至是司法审判领域,关于人的重要决定,已经越来越多地由算法做出。算法在不知不觉中影响了我们的生活。 然而,由于算法的不透明性和自主性,智能算法逐渐脱离了工具化的范畴,算法歧视、算法偏见不仅侵犯了个人权益,更影响了社会生活的基本秩序以及社会公共利益。这已经促使人们和社会反思算法技术,2021年9月,国家互联网信息办公室等九部委联合发布《关于加强互联网信息服务算法综合治理的指导意见》,要求要以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。

如何让算法在法治的轨道上健康运行,成为当下数字治理中的重要议题。近年来,算法审计作为一种算法评估与监督的方式逐渐进入大众视野。2022年12月《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》中首次提出了要有序培育安全审计的第三方服务机构。审计,原仅指一种独立性的经济监督活动,随着对于独立监督审查活动的需要的增长,其被广泛运用于其他各类领域,计算机审计(Information Technology audit)就是在20世纪70年代前后形成的新兴审计种类之一。早期的算法审计主要关注数据的收集和系统开发模型,重点考虑数据样本、系统的准确性与计算成本。在ML算法普及之后,数据和模型的交互关系较以往变得更复杂,算法审计相应从关注算法的性能、效率转为主要围绕偏见、可解释性和数据安全保护。 对信息系统开展审计,我国其实早已有之。我国有的大型金融机构会聘请专业机构定期对网络交易系统进行安全审计,这是对其自身风险管控的主动选择。而算法审计(Algorithm Auditing)作为计算机审计的分支之一,则是着眼于算法,对算法的技术和使用进行审查,以保证算法的合规性和可复审性。 算法审计旨在确保有关机器学习应用的运行环境和目的,并直接对其效用和公平性作出评价。

相较于其他算法治理的规制,算法审计具有一定的优势。首先,算法审计具有灵活性。作为一种阶段性评估监督模式,相较于算法备案制而言,算法审计具有时效性,定期的算法审计能够监测算法在运行过程中所产生的问题并及时对其进行督促。其次,算法审计的范围涵盖面广泛,算法审计不仅可以评估企业的治理战略,也可以审查算法的系统设计和算法机制,实现从伦理审查上到实操监管上的全覆盖。最后,算法审计有利于保障相较于算法公开与算法透明原则的要求,通过对算法审计报告进行公开满足了公众知情权的要求的同时兼顾了商业秘密的保护。

算法审计制度业已成为全球算法治理实践中的基础工具,对于算法风险的识别、评估、预防和管理具有重要意义。 目前,要求平台进行定期算法审计已经成为世界各国的通行做法。欧盟、美国、新加坡等国家都已构筑起算法审计相关的规则制度及实践模式。

我国虽已开始重视算法审计所发挥的监督治理作用,但对算法审计的中国模式的构建仍处在探索阶段。我国相继出台的《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务管理办法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等已构筑起我国算法审计的基础规则。

本部分将聚焦“自愿审计和强制审计的衔接”“政府审计类型的适用”“依托用户的算法审计路径”“算法审计的问责机理”“算法审计报告的公开程度”五大算法审计核心议题,同时介绍域外算法审计的立法情况。

(二)核心争议点

1.自愿审计和强制审计的衔接

根据审计的强制性,可将审计分为强制审计与自愿审计。所谓强制审计,是指企业在政府管制和法律法规的约束下,要求企业聘请审计第三方对其进行审计;而自愿审计是在没有政府管制和法律法规的约束下,公司出于自身利益的考虑自愿聘请审计主体进行审计。

算法的强制审计多由法律法规进行强制性规定,它代表着来自国家方面对算法的监管。有观点指出,监管部门推动算法审计至少可以有四方面作用。一是评估某些算法是否合法合规;二是评估算法是否符合经济社会运行规律,是否能避免“劣币驱逐良币”现象;三是评估算法供应商和买家的风控能力,通过算法审计来评估相应企业面临的道德和声誉风险,以及在出现风险时的补救能力;四是为平台企业的利益相关方增加算法方面的信息透明度,帮助他们在投资、与平台打交道等方面做出知情选择。

业前,我国法律法规中已规定互联网企业平台负有定期对算法进行强制安全审计的规定,如自2022年3月1日起施行的《互联网信息服务算法推荐管理规定》中第8条规定,算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型;自2023年1月10日起施行的《互联网信息服务深度合成管理规定》中第15条也对深度合成服务提供者和技术支持者提出了定期审核、评估、验证生成合成类算法机制机理的要求。至于算法强制审计由谁监管,如何进行强制审计,未进行强制审计的违反后果又为何,有待进一步规定。

健全算法安全机制,不仅需要加强法律规范制度的完善,更需要强化行业组织自律与企业主体责任。因算法技术的复杂性和专有性,外部审查机制无法深入训练数据集、模型参数等内部信息,仅可通过观察“输入—输出”变量的方式开展审计工作,无法全面评估、准确探查算法系统的风险点。 因此,企业开展自愿算法审计将成为算法治理中的关键一环。企业开展自愿审计不仅能帮助企业树立良好品牌形象,从而促进企业经济增长,还能在开展自愿审计过程中实现算法产品的优化与完善,维护社会公共利益。可以说,算法自愿审计将成为行业企业自我监管的必然趋势。

目前,全球互联网企业都在逐步开展算法审计工具研发以及第三方专业算法审计团队的筹备工作。在工具开发方面,多数超级互联网平台都推出了相应的算法审计系统。

2.政府审计类型的适用

政府审计是指由政府审计机构所实施的审计,它是一项独立、客观的保证和咨询活动,旨在增加价值和改善管理。它通过一套系统的、规范的方法评价和提高政府活动中的风险管理、控制及其治理过程的有效性,帮助实现政府目标。 在数字时代,大数据、人工智能等新兴数字技术的广泛应用推动经济社会的高效运行与改革创新,智能算法能够以更快的速度处理更多的数据,数字赋能政府治理能力,但同时也带来了一系列潜在风险和危机。

首先,由于算法的不透明性和不公开性,基于智能算法所作出的政府决策可能会损害公民的知情权。其次,算法本身或算法使用的数据集可能带有的某些偏见会导致政府作出歧视性决策。最后,随着数据的增加,算法所输出的结果具有不稳定性。综上,智能算法所参与的数字政府决策一定程度上会使政府权力滥用误用的风险增加,这也使社会产生了相应的监督需求。在数字时代,有必要定期对政府所使用的算法进行监督审查。

2021年1月,荷兰审计法院(NCA)发布了《理解算法》报告,在报告中,荷兰审计法院发现,荷兰政府目前用于做出影响公民和企业的决策的预测和规范算法相对简单。值得一提的是,在报告中荷兰审计法院尝试开发了针对政府算法的审计框架,该框架可以帮助有关审计部门以及私营企业评估它们的算法是否符合特定的质量标准,以及是否已正确识别和减轻随之而来的风险。为了开发该框架,荷兰审计法院还吸收了专家和其他审计框架的意见,其中包括欧盟的GDPR所提供的处理敏感个人数据的框架、治理和信息技术一般控制(IT general control,ITGC))框架等。最终,荷兰法院所开发的算法审计框架根据若干个指标来评估审查算法,包括治理和问责制、模型和数据、隐私、ITGC的质量,如访问权限和备份控制以及伦理部分。

2022年5月,荷兰审计法院发布《对算法进行审计》(An audit of Algorithms)报告,该报告运用上述算法审计框架对荷兰政府目前所使用的9种算法进行了全面的评估,其中包括司法安全部使用的犯罪预测系统(CAS),财政福利部门使用的帮助工作人员评估住房福利申请系统,以及社会保险银行(SVB)所使用的帮助工作人员评估国家养老金的申请的系统等。最终荷兰审计法院发现,这9种算法中只有3种满足所有基本要求,剩余的6种算法不符合要求,包括存在对算法性能和影响的控制不足、算法偏见、数据泄露和未经授权使用权等风险。

3.依托用户的算法审计路径

虽然在算法治理中,由企业与政府主导的正式审计能仰赖其技术以及数据收集的优势,排查出算法中的许多问题,但这种自上而下的审计仍存在其固有的盲点。算法的一些关键问题只有在系统部署后的日常使用中才会浮现出来。在算法系统运行的过程中,用户是与算法日常互动的重要角色。因此,除了自上而下的正式审计外,仍需要建立起自下而上的依托用户的审计路径。

实践证明,用户在与算法系统的日常交互中能够发现算法系统的有害行为,并促进算法系统的优化及完善。自下而上用户驱动型的审计方式是弥合学术界以及工业界的算法审计方法与在日常使用算法系统时出现的日常审计行为之间差距的第一步。 用户驱动型的算法审计可以为平台与政府提供算法在日常运行中更多不同视角的信息,使人们能够有意义地审计影响他们日常生活的算法系统。因此,下一步法律与互联网平台将如何指引与支持用户更积极有效地参与到算法审计的过程,真正实现算法治理中的多主体协同治理,是值得研究与探索的方向。

4.算法审计的问责机理

法学界的主流文献认为,算法透明可以使算法具有可问责性和可操控性。然而,随着数据要素逐渐深入社会生活各方面,出于对个人隐私数据以及知识产权的保护,算法绝对透明原则逐渐被证明,不可能也可能是不可取的。

一般来说,法律将建立“问责制”(accountability),以确保身居要职者正确履行职责,并对公众负责,以限制权力的无节制使用。各国立法者也针对算法产生的权力提出了算法问责(algorithmic accountability),以确保算法权力的正确使用。算法问责就是为算法制定基本标准,通过算法效果评估(algorithmic impact assessment)和算法审计(algorithmic audit)等程序对其进行监督,并据此决定规范被违反时采取何种行动。 因此,学界、立法者都在逐步尝试构建符合自身国情的算法问责制度。目前,我国主要的算法问责制度为算法备案制。2022年3月1日,随着《互联网信息服务算法推荐管理规定》的生效,我国“互联网信息服务算法备案系统”正式上线运行,标志着算法备案正式成为我国算法治理体系中的重要支柱。2022年4月8日,国家网信办牵头开展“清朗·2022年算法综合治理”专项行动,专项行动的主要任务之一就是“督促算法备案……督促企业尽快完成算法应用情况梳理,并及时开展算法备案信息填报工作”。

但是算法备案制作为一种事前登记制度,一方面难以预知算法在实际运用当中产生的效应,另一方面备案机关往往仅负有形式审查的义务,这使得备案制度的规制作用大打折扣。因此,算法审计在这些方面可弥补算法备案制度的缺陷,算法审计报告的公开更体现了算法需要对公众负责的态度。

算法治理的最终目标是建立“负责任”的数据和算法体系。 虽然算法问责可以在损害发生后追究平台主体的责任,但由于算法决策过程的黑箱性质以及行为主体和控制主体的不可见性,使得算法问责的实现困难重重。算法审计系统可以穿透“算法黑箱”,通过对数据、算法和应用过程的评估,为算法问责提供详细、可信的事实依据。因此,算法审计系统应与算法问责制度有机衔接,在规则设计层面建立精准对接机制,实现算法合规性评估和风险管理的顺利推进,达到损害问责和有效救济的目的。

5.算法审计报告的公开程度

数据要素已快速融入生产、分配、流通、消费和社会服务管理等各个环节,深刻改变着生产方式、生活方式和社会治理方式。算法作为处理数据的一种方式,已经成为企业具有竞争力的重要产品。因此,有学者提出,算法属于商业秘密的一种,“算法由编程者设计,进而给网站带来巨大的商业价值,因此其本质上是具有商业秘密属性的智力财产”。 在算法治理中,要求算法公开透明是最为直接的监督方式,但这种监管方式显然与算法作为一种商业秘密的定位相冲突。

因此,学界对于算法是否需要公开存在不同的见解,然而普遍得到承认的观点是算法应当得到有限度的公开。具有垄断地位的算法,或国家财政资金提供支持的、目的是提供普遍公共服务的算法,人们应有权要求其公开。因为具有垄断地位的算法限制了人们的选择权,对个人施加的影响巨大,人们应有知情权。 对于算法审计报告的公开程度,有学者提出可借鉴上市公司强制信息披露制度,对于重大的信息进行披露,以保障相关当事人和社会大众的知情权,避免恐慌,让社会大众保持一定程度的预测能力。

诚然,对于互联网企业平台所拥有的具有商业性质的算法而言,其算法审计报告公开的程度为何,又如何在算法治理中维持算法公开和保障知识产权之间的平衡,是值得进行探究的重要议题。

(三)域外立法

1.欧盟

欧盟GDPR第35条对数据保护影响评估制度(DPIA)进行了详细的规定,所谓数据保护影响评估制度是重要的风险管理工具之一,它是基于风险的保护路径(risk-based approach)评估数据处理活动的必要性和适当性的问责制工具。

除了在GDPR框架下的影响评估工具外,部分欧盟国家也对算法审计的制度进行了一定的探索。2020年11月24日,由挪威审计长办公室与芬兰、德国、荷兰和英国最高审计机构共同发布了《审计机器学习算法:公共审计师白皮书》 (Auditingmachine learning algorithms: A white paper for public auditors) ,该白皮书旨在帮助审计机关更多地了解审计人工智能和机器学习算法,帮助审计师更好地应对挑战。在白皮书中提及了审计师在算法审计的过程中应当关注的要点,例如,算法数据训练集中数据的质量,简化的、有偏见的数据可能会导致意外的错误结果,再如,在模型开发部分,透明、记录良好的模型开发有助于再现性。2021年1月26日,荷兰审计法院(NCA)发布了《理解算法》报告(Understanding algorithms),该报告为关于政府使用算法的机会和风险的探讨作出了一定的贡献。该报告说明了荷兰政府了解并控制其部门内算法的使用的程度,并提出了可用于评估具体风险的审计框架。

2.美国

2017年底,美国纽约市市政府组建了纽约市算法监管工作组。2018年,纽约市通过了《算法问责法》,创立自动化决策系统的影响评估制度。2019年4月10日,在参议员罗恩·怀登(Ron Wyden)提出了《2019年算法责任法案》 (Algorithmic Accountability Act of 2019) ,该法案要求使用、存储或共享个人信息的企业进行自动决策系统影响评估和数据保护影响评估。法案中指出,被联邦贸易委员会(the Federal Trade Commission,FTC)认定为高风险自动决策系统以及高风险信息系统在合理可能的情况下,与外部第三方(包括独立审计师和独立技术专家)协商,并自主选择公开审计评估结果。虽然该法案尚未通过成为法律,但也为算法审计框架的构建提供了一定的模型。2021年,推特机器学习伦理、透明度与责任小组的主管拉曼·乔杜里(Rumman Chowdhury)指出,只有10家到20家信誉良好的公司提供算法审查。不少公司也有自己的内部审计团队,在向公众发布算法之前对其进行审查。

3.英国

2021年5月21日,英国发布《在线安全法草案》 (Draft Online Safety Bill) ,该草案进一步明确了互联网平台的法定责任,将注意义务转向更清晰具体的法定责任清单。针对政府公共机构使用人工智能算法系统,该草案推出了统一的算法透明度标准,同时在第49条要求平台服务的提供者就其提供的每一项服务准备年度的透明度报告,并且报告中提供的信息必须完整、准确。

4.新加坡

2020年1月21日,新加坡个人数据保护委员会(Personal Data Protection Commission,PDPC)发布了第二版《模型人工智能治理框架》,该框架在附录部分对人工智能算法提出了审计要求,规定如果存在发现(Discover)模型中包含算法的实际操作的必要,则进行算法审计。该框架要求算法审计必须在对该组织具有管辖权的监管机构(作为取证调查的一部分)的要求下进行,或者由人工智能技术提供商执行,以确保算法的透明度。2022年5月25日,新加坡发布了人工智能治理评估框架和工具包——A.I. VERIFY,该工具包由信息通信媒体发展局(IMDA)和个人数据保护委员会(PDPC)开发,是全球第一个正式发布的人工智能检测框架和工具包。

5.加拿大

2019年4月1日,加拿大公布了《自动化决策指令》 (Directive on Automated Decision-Making) 。该指令旨在确保加拿大政府部门依赖智能算法所作出的决策是负责任并符合程序公平和正当程序要求的。该指令要求在生成任何自动决策系统之前完成算法影响评估(Algorithmic Impact Assessment,AIA),并且该指令自生效之日起每6个月计划一次自动审查过程,由加拿大财政部秘书处首席信息官(the Chief Information Officer of Canada)负责,为政府范围内的自动决策系统的使用提供指导。

6.澳大利亚

2019年7月26日,澳大利亚竞争与消费者委员会(ACCC)发布了《数字平台调查:最终报告》 (Digital Platforms Inquiry: Final Report) 。该报告中指出,算法和算法结果因缺乏审计所带来的不确定性和不可预测性会削弱人们对平台的信任。例如,在广告方面,澳大利亚国家广告商协会提及,“广告商要面对的一个至关重要的风险是测量和可看性方面缺乏透明度。虽然数字平台为广告商提供了更多的即时测量活动结果,但这些措施和结果没有得到独立的审计。由于使用的衡量标准不同,也没有机会在不同平台之间进行比较”。 报告还指出,为了回应这种由于算法不透明带来的信任流失,大型互联网平台纷纷开始寻求与第三方进行合作,由第三方进行独立审计,以重新获取广告商的信任。

此外,在发布报告同时,澳大利亚竞争与消费者委员会还宣布设立专门分支机构,其重点工作是对数字平台运营的市场进行调查、监控和执法。同时可以“主动监视”平台算法运行,赋予其要求披露算法详细信息的权限。

(四)评析

综上所述,算法有其独特优势。算法审计制度是算法治理当中不可或缺的重要监督机制,从实践层面来看,有许多国家早已构成算法评估和数据影响评估体系,但目前而言,多数国家还处于从算法评估向体系化的算法审计制度过渡的阶段。虽然各国都逐渐开始构建起算法审计的制度模型,但还处于初构阶段尚未形成系统成熟的体系。有关算法审计的许多关键问题都悬而未决,算法审计制度仍面临着“软化”与“泛化”风险。作为“有力规范和监督算法权力、防范数字风险、控制算法异化的制度工具”, 完善算法审计制度以加强算法监管,这既是顺应时代潮流之策,又是实现数字治理的必然之举。 cxVpopygDnhxADgt8fqccCZKVXq6GEmHlDhrHX6rFLxbY73PiyU1SWpKMMZPzfjO

点击中间区域
呼出菜单
上一章
目录
下一章
×