购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP


人工智能向善

[德]蒂莫·拉德马赫(Timo Rademacher) [德]托马斯·威施迈耶(Thomas Wischmeyer) 撰 韩旭至 译

目标与方法

通常被称为人工智能的机器学习技术正越来越多地成为政策和商业决策的基础,产生广泛的社会影响。与此同时,人工智能技术变得越来越复杂和难以理解,使得控制人工智能,以及判断是否按照现有法律使用人工智能变得更加困难。因此,就连科技狂热者也呼吁对人工智能实施更严格的规制。与此同时,监管部门也开始介入并通过相关法律,如欧盟《通用数据保护条例》(General Data Protection Regulation)第22条的不受仅基于完全自动决策制约的权利,2018年美国《加州消费者隐私保护法》(California Consumer Privacy Act)第140条第d款第6项和第s款的保护和限制商业及非商业的个人信息研究,2017年《德国反垄断法》(German Cartels Act)和《德国行政诉讼法》(German Administrative Procedure Act)的修正案。

1

尽管需要对人工智能采取行动的观点得到了广泛认同,但对于究竟可以或应该采取怎样的行动,以及规制可发挥多大的效用,人们却远没有清楚的认识。此外,关于规制人工智能的讨论有时只关注人工智能系统中特定的技术故障或错误使用造成的恶劣结果。基于深思熟虑的策略,努力平衡人工智能技术的机遇与风险的规制措施(参见本书霍夫曼-里姆的文章) 在很大程度上仍然缺失。

2

在此背景下,本书分析了人工智能给个人和社会带来的事实和法律上的挑战。本书的贡献在于提出规制建议,旨在不抑制技术的潜力,并可保留其可问责性、合法性和透明度。为了实现这一目标,本书作者遵循了一种可以被描述为“三重语境化”的方法:第一,基于规范的分析和主张,在塑造或限制人工智能设计和使用的法律和宪法体制之上进行思考和构建。第二,必须牢记,简而言之,人工智能技术是解决人类目前必须解决的现实问题的工具。如同官员、医生、司机等。因此,仅仅考察人工智能是“良好运作”还是“危险”并不足够。相反,有必要将新技术的特点与相应被其所取代或补充的人类活动进行个案比较。因此,真正的问题是,从相应的法律框架来看,人工智能实际上是比人类“做得更好”,还是“更危险”。第三,这本书及其作者的选择反映了,在发展人工智能规制的法律视角上,不仅需要跨学科的理解,而且需要采取一个明确的专业方法。这就预设了需要私法学者、公法学者、法理学者和经济法学者以共同协作的精神来研究这个问题。

3

规制人工智能的争论是全球性的。《通用数据保护条例》于2018年生效以来,欧盟法律的影响力与日俱增。尽管如此,由于美国在该领域的技术主导地位,相关学术讨论仍主要集中在美国层面。不管有意还是无意,学者们经常采取一种基于美国宪法行政传统的规范和概念框架,例如侧重于人工智能的“可问责性”。本书作者均有德国法或瑞士法背景,精通欧盟法,为该领域的全球话语引入了不同的法律传统。这一传统由数十年来相对严格和全面的数据保护立法形成,也相应多样化和丰富。因此,当涉及描述现有的人工智能法律和规制时,本书将主要以德国法和欧盟法为蓝本。而相关法律的参考只是用以说明人工智能给全球的规制者所带来的挑战。

4

人工智能

从技术的角度来看,人工智能在概念上并不特指某一项具体的技术。虽然,目前最受关注的是通过“机器学习”从数据中提取信息的技术,但人工智能研究实际上包含许多不同的子领域和方法论。 同时,机器学习也不是一个完全统一的概念,而是由各种各样的技术组成。 从传统的线性回归到支持向量机和决策树算法,再到各种类型的神经网络,都属于机器学习的范畴。 此外,大多数基于机器学习的系统是一套过程和技术体系,而不是一个界限清晰的实体,这使得确定人工智能的意义范围变得更加困难。 就其本身而言,人工智能作为一个研究领域起源于20世纪50年代中期,著名的达特茅斯夏季研究项目即常被提及。现在,相关学者主要关注那些能够“使用模拟人类智能的复杂方法来处理可能非常大的异构数据集,以实现自动化应用” 的技术。

5

在此背景下,一些学者主张放弃人工智能的概念,转而提出所有“算法控制、自动决策或决策支持系统”, 或者专注于基于机器学习的系统。 如今,包括决策制定或决策支持系统的社会影响、其可能存在的歧视性因素、系统的具体设计或其使用的算法在内的一些规制挑战诚然并不是主要的。本书的贡献即在于也考虑了“传统”计算机程序的规制影响(参见本书科伦克文章的第1段;本书威施迈耶文章的第11段)。而最有趣的挑战则出现在采用了先进的机器学习算法的地方。至少从外部观察者的角度来看,这些算法与人类决策过程具有重要的共通点。这引发了系统可能存在责任与罪责的重要问题(参见本书施默的文章)。与此同时,从受该种决策或决策支持系统影响的角度来看,不透明性的增加,新的产能,或仅仅是使用该系统所带来的社会不确定性因素,导致法律和规制面临各种新的挑战。

6

结构和内容

本书以沃尔夫冈·霍夫曼-里姆对该主题的宽泛介绍开篇。该介绍乍看似乎琐碎,但却是最具相关性和挑战性的:本着“只能对所能规制之事物进行规制”的理念,霍夫曼-里姆深入分析了为什么建立一个合法和有效的人工智能治理结构会对法律的规制能力和我们所知的制度架构形成挑战,并提出了规制创新路径的类型化以应对挑战。

7

接下来的章节将讨论人工智能规制的基础,并重点关注大多数人工智能系统的共同特征。探寻这些特征如何与数据驱动技术下的法律框架相联系,而相关法律框架又已经存在于国家和超国家的法律之中。在大多数人工智能技术所共享的特征中,本书作者认为:

8

首先,人工智能依赖于对大量个人数据的处理,“激活”了欧盟数据保护法,从而大大减少了人工智能技术的公共开发者、私营开发者以及用户的操作空间。尼古拉斯·马奇在其文章中提出,可通过对欧洲的数据保护基本权利进行解释,以为欧盟及成员国的立法者平衡人工智能的机遇和风险提供更大的空间。随后,克里斯蒂安·恩斯特以医疗保险、信用评分和中国社会信用体系为例,描述了人工智能系统对人类自主性和个人自决权的威胁。此外,人工智能的决策和预测缺乏透明度(“黑箱”现象),似乎破坏了预测、审查和理解决策过程的预期。对此,托马斯·威施迈耶进行了批判性研究。他建议政策制订者至少应在一定程度上转移其注意力,即从关注受具体使用某一人工智能系统而影响的个人,转移到建立能够有效控制该系统的体制机构和框架上来。亚历山大·蒂斯比克分析发现,人工智能技术大多严重依赖于统计学方法来揭示相关性、模式和概率,而不是判断因果关系和理由,因此倾向于延续歧视性做法。与众人的直觉恰恰相反,他强调为了揭露这种偏见和扭曲,可能有必要收集和存储更多而不是更少的个人数据。最后,扬-埃里克·施默提出了一个“价值连城的问题”(million-dollar question),即人工智能系统应被视为法人抑或仅仅是物。他认为答案简单明了,即“二者皆有之”。

9

虽然人工智能系统的设计和应用引发了许多一般性的问题,但人工智能规制的成功与否在很大程度上则取决于其具体的应用领域。因此,规制人工智能的提议必须考虑技术部署中的具体事实和法律场景。为此,在第二部分的章节中,本书详细审视了几个行业和实践领域,如社交媒体(由克里斯托夫·科伦克论述)、法律科技(由加布里埃·布赫霍尔茨论述)、金融市场(由雅各布·斯凯梅尔论述)、医疗(由莎拉·贾布里与弗辛娜·莫尔纳尔-盖布尔论述)和竞争法(由莫里茨·亨内曼论述)。在本书看来,在这些行业和领域的决策过程中,人工智能的影响力与日俱增。研究表明,在大多数情况下,人工智能不仅是规制对象,而且往往同时也是应用和/或执行规制的潜在工具。因此,第二部分的大部分章节也包含了关于通过人工智能进行治理的内容。其他文章,即关于不确定性下的行政决策(由约恩·赫姆斯特鲁维尔论述)、执法(由蒂莫·拉德马赫论述)、公共管理(由克里斯蒂安·杰斐尔论述)、人工智能与税收(由内贾·布劳恩·宾德论述)的章节。这些章节实质关注的是,人工智能系统应当被用于和/或助于法律适用。

10

参考文献

1. Algorithm Watch(2018)Automating society—taking stock of automated decision-making in the EU. www.bertelsmann-stiftung.de/de/publikationen/publikation/did/automating-society. Accessed 6 Mar 2019.

2. Ananny M, Crawford K(2018)Seeing without knowing: limitations of the transparency ideal and its application to algorithmic accountability. New Media Soc 20(3):973—989.

3. Datenethikkommission(2018)Empfehlungen der Datenethikkommission für die Strategie Künstliche Intelligenz der Bundesregierung. www.bmi.bund.de/SharedDocs/downloads/DE/veroeffentlichungen/2018/empfehlungendatenethikkommission.pdf?_blob¼publicationFile&v¼1. Accessed 6 Mar 2019.

4. EU High Level Expert Group on Artificial Intelligence(2018)A definition of AI: main capabilities and scientific disciplines. EU Commission. https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilitiesand-scientific-disciplines. Accessed 6 Mar 2019.

5. Kaplan J(2016)Artificial intelligence. Oxford University Press, Oxford.

6. Kaye D(2018)Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. 29 August 2018. United Nations A/73/348.

7. Russell S, Norvig P(2010)Artificial intelligence, 3rd edn. Addison Wesley, Boston.

8. Wischmeyer(2018)Regulierung intelligenter Systeme. Archiv des öffentlichen Rechts 143:1—66. F8KoKWemRBWwvi/BGSZN3FV07oS1uL2J7uxl5OgOPlQEOEaDZLR6zabeAKnH/ne6

点击中间区域
呼出菜单
上一章
目录
下一章
×