购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

2.5 算法歧视

算法 是信息技术,尤其是大数据、人工智能的基础。“算法就是一系列指令,告诉计算机该做什么。”“算法的核心就是按照设定程序运行以期获得理想结果的一套指令。”所有的算法都包括以下几个共同的基本特征:输入、输出、明确性、有限性、有效性。

算法因数学而起,但现代算法的应用范畴早已超出了数学计算的范围,已经与每个人的生活息息相关,因此,“我们生活在算法的时代”。随着人工智能时代的到来,算法越来越多地支配着我们的生活,也给现存的法律制度和法律秩序带来了冲击与挑战。

2.5.1 算法透明之争

“黑箱”是控制论中的概念。作为一种隐喻,它指的是那些不为人知的不能打开、不能从外部直接观察其内部状态的系统。人工智能所依赖的深度学习技术就是一个“黑箱”。深度学习是由计算机直接从事物原始特征出发,自动学习和生成高级的认知结果。在人工智能系统输入的数据和其输出的结果之间,存在着人们无法洞悉的“隐层”,这就是“ 算法黑箱 ”。对透明的追求会使人心理安定,“黑箱”则使人恐惧。如何规制算法“黑箱”,算法是否要透明、如何透明,是法律规制遇到的首要问题(见图2-5)。

面对算法黑箱,不少人主张、呼吁 算法透明 。其理由主要有以下几点:

(1)算法透明是消费者知情权的组成部分。

图2-5 算法

这种观点主张,因为算法的复杂性和专业性,人工智能具体应用领域中的信息不对称可能会更加严重,算法透明应是消费者知情权的组成部分。

(2)算法透明有助于缓解信息的不对称。这种观点主张,算法的信息不对称加重不只发生在消费者与算法设计者、使用者之间,更发生在人类和机器之间,而算法透明有助于缓解这种信息不对称。

(3)算法透明有助于防止人为不当干预。这种观点认为算法模型是公开的,在双方约定投资策略的前提下,执行策略由时间和事件函数共同触发,执行则由计算机程序自动完成,避免了人为不当干预的风险,它比人为干预更加公平、公开和公正。

(4)算法透明有助于防止利益冲突。这种观点认为由于算法的非公开性和复杂性,难以保证诸如投资建议的独立性和客观性。只有算法透明,才能防止这种利益冲突。

(5)算法透明有助于防范信息茧房。这种观点认为,算法可能形成信息茧房(将自己的生活桎梏于像蚕茧一般)。算法科学的外表容易误导使用者,强化使用者的偏见,从而导致错误决策。例如,算法技术为原本和大众疏离的复杂难懂的金融披上了简单易懂的面纱,金融的高风险性被成功掩盖,轻松化的人机交互界面掩盖了金融风险的残酷本质。

(6)算法透明有助于打破技术中立的外衣。事实上技术的背后是人,人类会将人性弱点和道德缺陷带进和嵌入算法之中,但它们却可能隐蔽于算法背后,从而更不易被发觉。

(7)算法透明有助于打破算法歧视。美国的汤姆·贝克和荷兰的G.本尼迪克特、C.德拉特认为:公众不能预设机器人没有人类所具有的不纯动机。因为算法存在歧视和黑箱现象,因此才需要算法的透明性或解释性机制。

(8)算法透明有助于打破“算法监狱”与“算法暴政”。在人工智能时代,商业企业和公权部门都采用人工智能算法做出自动化决策,算法存在的缺陷和偏见可能会使得大量的客户不能获得贷款、保险、承租房屋等服务,这如同被囚禁在“算法监狱”。然而,如果自动化决策的算法不透明、不接受人们的质询、不提供任何解释、不对客户或相对人进行救济,则客户或相对人就无从知晓自动化决策的原因,自动化决策就会缺少“改正”的机会,这种情况就属于“算法暴政”。算法透明则有助于打破“算法监狱”与“算法暴政”。

(9)算法透明是提供算法可归责性问题的解决工具和前提。有学者认为算法透明性和可解释性是解决算法可归责性的重要工具。明确算法决策的主体性、因果性或相关性,是确定和分配算法责任的前提。

(10)算法透明有助于提高人们的参与度,确保质疑精神。这种观点认为,如果你不了解某个决策的形成过程,就难以提出反对的理由。由于人们无法看清其中的规则和决定过程,人们就无法提出不同的意见,也不能参与决策的过程,只能接受最终的结果。为走出这一困境,算法透明是必要的。还有人认为,质疑精神是人类前进的工具,如果没有质疑,就没有社会进步。为了保证人类的质疑,算法必须公开—除非有更强的不公开的理由,例如保护国家安全或个人隐私。

图2-6 算法透明

(11)公开透明是确保人工智能研发、设计、应用不偏离正确轨道的关键(见图2-6)。这种观点认为,人工智能的发展一日千里,人工智能可能拥有超越人类的超级优势,甚至可能产生灾难性风险,因而应该坚持公开透明原则,将人工智能的研发、设计和应用置于监管机构、伦理委员会以及社会公众的监督之下,确保人工智能机器人处于可理解、可解释、可预测状态。

现实中反对算法透明的声音也不少,其主要理由如下:

(1)类比征信评分系统。征信评分系统不对外公开是国际惯例,其目的是防止“炒信”“刷信”,使评级结果失真。很多人工智能系统类似于信用评级系统。

(2)周边定律。周边定律是指法律无须要求律师提请我们注意身边具有法律意义的内容,而是将其直接植入我们的设备和周边环境之中,并由这些设备和环境付诸实施。主张该观点的人宣称,人类正在步入技术对人类的理解越来越深刻而人类却无须理解技术的时代。智能时代的设备、程序,就像我们的人体器官和中枢神经系统,我们对其知之甚少但却可以使用它们。同样,算法为自我管理、自我配置与自我优化而完成的自动计算活动,也无须用户的任何体力与智力投入。

(3)算法不透明有助于减少麻烦。如果披露了算法,则可能会引起社会舆论的哗然反应,从而干扰算法的设计,降低预测的准确性。大数据预测尽管准确的概率较高,但也不能做到百分之百。换言之,大数据预测也会不准,也会失误。如果将算法公之于众,人们对预测错误的赋值权重就有可能偏大,从而会阻碍技术的发展。

(4)防止算法趋同。算法披露之后,好的算法、收益率高的算法、行业领导者的算法可能会引起业界的效仿,从而出现“羊群效应”,加大风险。

(5)信息过载或难以理解。算法属于计算机语言,不属于日常语言,即使对外披露了,除专业人士之外的大多数客户仍难以理解。换言之,对外披露的信息对于大多数用户来讲可能属于无效信息。

(6)偏见存在于人类决策的方方面面,要求算法满足高于人类的标准是不合理的。算法透明性本身并不能解决固有的偏见问题。要求算法的透明性或者可解释性,将会减损已申请专利的软件的价值。要求算法的透明性还可能为动机不良者扰乱系统和利用算法驱动的平台提供了机会,它将使动机不良者更容易操纵算法。

(7)算法披露在现实中存在操作困难。例如,可能涉及多个算法,披露哪个或哪些算法?算法披露到什么程度?

折中派的观点认为,算法是一种商业秘密。“算法由编程者设计,进而给网站带来巨大的商业价值,因此其本质上是具有商业秘密属性的智力财产。”如果将自己的专有算法程序公之于众,则有可能泄露商业秘密,使自己丧失技术竞争优势。鉴于很多算法属于涉及商业利益的专有算法,受知识产权法保护,因此即使是强制要求算法透明,也只能是有限度的透明。

还有人认为,如何对待算法,这个问题并没有“一刀切”的答案。在某些情况下,增加透明度似乎是一个正确的做法,它有助于帮助公众了解决策是如何形成的,但是在涉及国家安全时,公开源代码的做法就不适用了,因为一旦公开了特定黑盒子的内部运行机制,某些人就可以绕开保密系统,使算法失效。

2.5.2 算法透明的实践

2017年,美国计算机学会公众政策委员会公布了6项算法治理指导原则。

第一个原则是 知情原则 ,即算法设计者、架构师、控制方以及其他利益相关者应该披露算法设计、执行、使用过程中可能存在的偏见以及可能对个人和社会造成的潜在危害。

第二个原则是 质询和申诉原则 ,即监管部门应该确保受到算法决策负面影响的个人或组织享有对算法进行质疑并申诉的权力。

第三个原则是 算法责任认定原则

第四个原则是 解释原则 ,即采用算法自动化决策的机构有义务解释算法运行原理以及算法具体决策结果。

第五个原则是 数据来源披露原则

第六个原则是 可审计原则

仔细审视这6项原则,其要求的算法透明的具体内容主要是算法的偏见与危害、算法运行原理以及算法具体决策结果,以及数据来源。

2017年年底,纽约州通过一项《算法问责法案》要求成立一个由自动化决策系统专家和相应的公民组织代表组成的工作组,专门监督自动化决策算法的公平和透明。之前,该法案有一个更彻底的版本,规定市政机构要公布所有用于“追踪服务”或“对人施加惩罚或维护治安”的算法的源代码,并让它们接受公众的“自我测试”。“这是一份精炼的、引人入胜的,而且是富有雄心的法案”,它提议每当市政机构打算使用自动化系统来配置警务、处罚或者服务时,该机构应将源代码—系统的内部运行方式—向公众开放。很快,人们发现这个版本的法案是一个很难成功的方案,他们希望不要进展得那么激进。因此,最终通过的法案删去了原始草案中的披露要求,而是设立了一个事实调查工作组来代替有关披露的提议,原始草案中的要求仅在最终版本里有一处间接提及—“在适当的情况下,技术信息应当向公众开放”。

在欧盟,《通用数据保护条例》(GDPR)在鉴于条款中规定:“在任何情况下,该等处理应该采取适当的保障,包括向数据主体提供具体信息,以及获得人为干预的权利,以表达数据主体的观点,在评估后获得决定解释权并质疑该决定。”据此,有人主张GDPR赋予人们算法解释权。但也有学者认为,这种看法很牵强,个人的可解释权并不成立。

我国《新一代人工智能发展规划》指出:“建立健全公开透明的人工智能监管体系。”它提出了人工智能监管体系的透明,而没有要求算法本身的透明。

2.5.3 算法透明的算法说明

人们呼吁算法透明,但透明的内容具体是算法的源代码,还是算法的简要说明?秉承“算法公开是例外,不公开是原则”的立场,即使是在算法需要公开的场合,也需要考察算法公开的具体内容是什么。

算法的披露应以保护用户权利为基点。算法的源代码、算法的具体编程公式(实际上也不存在这样的编程公式)是不能公开的。这主要是因为算法的源代码一方面非常复杂,且不断迭代升级,甚至不可追溯,无法予以披露;另一方面,公开源代码是专业术语,绝大部分客户看不懂,即使公开了也没有意义。

算法透明追求的是算法的简要说明(简称算法简介)。算法简介包括算法的假设和限制、逻辑、种类、功能、设计者、风险、重大变化等。算法简介的公开,也是需要有法律规定的,否则,不公开仍是基本原则。

2.5.4 算法透明的替代方法

算法透明的具体方法除了公开披露之外,还可以有其他替代方法。这些方法究竟是替代方法还是辅助方法,取决于立法者的决断。

(1)备案或注册。备案即要求义务人向监管机构或自律组织备案其算法或算法逻辑,算法或算法逻辑不向社会公开,但监管机构或自律组织应知悉。

算法很复杂,很难用公式或可见的形式表达出来。算法的种类很多,一个人工智能系统可能会涉及很多算法,且算法也在不断迭代、更新和打补丁,就像其他软件系统不断更新一样。因此,算法本身没有办法备案,更无法披露。可以备案和披露的是算法的逻辑与参数。除了算法逻辑的备案以外,还可以要求算法开发设计人员的注册。

(2)算法可解释权。一旦人工智能系统被用于做出影响人们生活的决策,人们就有必要了解人工智能是如何做出这些决策的。方法之一是提供解释说明,包括提供人工智能系统如何运行以及如何与数据进行交互的背景信息。但仅发布人工智能系统的算法很难实现有意义的透明,因为诸如深度神经网络之类的最新的人工智能技术通常是没有任何算法输出可以帮助人们了解系统所发现的细微模式的。基于此,一些机构正在开发建立有意义的、透明的最佳实践规范,包括以更易理解的方法、算法或模型来代替那些过于复杂且难以解释的方法。

2.5.5 算法公平的保障措施

算法公开、算法备案等规制工具都属于信息规制工具,它们是形式性的规制工具。除了信息规制工具之外,还有其他实质性规制工具。形式性规制工具追求的价值目标是形式公平,实质性规制工具追求的价值目标是实质公平。在消费者权益和投资者权益的保护过程中,除了保障形式公平之外,也要保障实质公平。因此,除了信息规制工具之外,还应有保障算法公平的其他实质性规制工具,这些工具主要包括三个方面,一是算法审查、评估与测试,二是算法治理,三是加强第三方算法监管力量。

(1)算法审查、评估与测试。在人工智能时代,算法主导着人们的生活。数据应用助推数据经济,但也有许多模型把人类的偏见、误解和偏爱编入了软件系统,而这些系统正日益在更大程度上操控着我们的生活。“只有该领域的数学家和计算机科学家才明白该模型是如何运作的。”人们对模型得出的结论毫无争议,从不上诉,即使结论是错误的或是有害的。凯西·奥尼尔将其称为“数学杀伤性武器”。

然而,数学家和计算机科学家应当接受社会的审查。算法是人类的工具,而不是人类的主人。数学家和计算机科学家是人类的一员,他们应与大众处于平等的地位,而不应凌驾于人类之上,他们不应是人类的统治者。即使是统治者,在现代社会也应接受法律的规范和治理、人民的监督和制约。总之,算法应该接受审查。

算法黑箱吸入数据,吐出结论,其公平性也应接受人类的审查。算法的开发者、设计者也有义务确保算法的公平性。

应该对人工智能系统进行测试。人工智能机器人目前尚未成为独立的民事主体,不能独立承担民事责任,但这并不妨碍对其颁发合格证书和营运证书。这正如汽车可以获得行驶证书和营运许可证书一样。

(2)算法治理。质疑精神是人类社会前进的基本动力,必须将算法置于人类的质疑和掌控之下。人工智能的开发者和运营者应有能力理解和控制人工智能系统,而不是单纯地一味依赖于第三方软件开发者。

人工智能系统还应建立强大的反馈机制,以便用户轻松报告遇到的性能问题。任何系统都需要不断迭代和优化,只有建立反馈机制,才能更好地不断改进该系统。

(3)加强第三方算法监管力量。为了保证对算法权力的全方位监督,应支持学术性组织和非营利机构的适当介入,加强第三方监管力量。目前在德国已经出现了由技术专家和资深媒体人挑头成立的名为“监控算法”的非营利组织,宗旨是评估并监控影响公共生活的算法决策过程。具体的监管手段包括审核访问协议的严密性、商定数字管理的道德准则、任命专人监管信息、在线跟踪个人信息再次使用的情况,允许用户不提供个人数据、为数据访问设置时间轴、未经同意不得将数据转卖给第三方等。为了让人工智能算法去除偏私,在设计算法时,对相关主题具有专业知识的人(例如,对信用评分人工智能系统具有消费者信用专业知识的人员)应该参与人工智能的设计过程和决策部署。当人工智能系统被用于做出与人相关的决定时,应让相关领域的专家参与设计和运行。 LuUUdWls8eQ3qwjaj93EA8J1aGam8JUPUeHrFz9dEfCFEGxVVKDbZ3WqbVD6Kd5T

点击中间区域
呼出菜单
上一章
目录
下一章
×