购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

人工智能国家战略中的算法价值观

叶 妮

摘 要 人工智能国家战略是国家政府或区域性组织对人工智能进行布局、规划和治理的整体性战略。本文剖析世界人工智能国家战略的发展现状,以国家价值取向和区域性价值取向分析人工智能价值观的两种范式,进而从算法决策、算法分歧、算法伦理和议题价值等维度分析人工智能国家战略中的算法价值观,为后人类时代的算法媒介治理提供参考。

关键词 人工智能国家战略 价值导向 算法治理

作者简介 叶妮,女,西安交通大学新闻与新媒体学院副教授,密苏里大学新闻学院高级访问学者,法学博士。研究方向:媒介研究。电子邮件:yenixj@xjtu.edu.cn。

人工智能国家战略(National AI Strategies,NASs)是由国家政府或被其采用或认可的其他组织、集团以政府文件、专门网站等形式为人工智能治理和公共协商规划的全面路线图,包括人工智能采用的广泛方法、特定的重点领域,如何监管人工智能、支持人工智能部门创新,最大限度地提高对经济和社会的潜在利益,分配一定数量的政府支出,减少潜在成本,解决对人们生活和劳动力的影响等相关活动。

一、人工智能国家战略的世界发展现状

1998年,美国国会通过《下一代互联网研究法案》(The Next Generation Internet Research Act),但采用针对人工智能的全面跨政府战略是近年来才出现的。

(一)人工智能国家战略发布现状及分析

根据2020年5月加拿大高级研究中心(CIFAR)《构建一个人工智能世界:国家和区域人工智能战略报告》第二版 [1] (见表1、表2),已发布的NASs多数来自北美、欧洲和大洋洲,少数来自拉丁美洲和亚洲。

表1 人工智能国家战略发布情况总览(2018—2020)

(续表)

表2 2020年1月为止世界人工智能发展一览

(续表)

纵览世界各国的人工智能国家战略,既可以比较国家AI决策水平、投资力度和数字经济的治理能力,也呈现了政府主导者、科学共同体、私营部门和其他人工智能治理利益相关者等作为AI治理主体的不同价值取向、协作化程度以及对数字经济的参与水平,还能分析跨区域AI协作的原则基础。如欧盟2018年发布《人工智能合作宣言》(Declaration of Cooperation on Artificial Intelligence)、2018年4月发布《欧洲人工智能》(Artificial Intelligence for Europe)、2020年2月发布《人工智能白皮书》(White Paper on Artificial Intelligence—A European Approach to Excellence and Trust);人工智能高级专家组(Independent High-Level Expert Group on Artificial Intelligence)2019年4月发布《人工智能伦理指南》(Ethics Guidelines forTrustworthy AI)、6月发布《人工智能政策和投资建议》(Policy and Investment Recommendations for Trustworthy AI);2018年5月,北欧部长理事会发布《北欧—波罗的海地区人工智能》(AI in the Nordic-Baltic Region)。这些都可见区域性合作对于人工智能蓝图和人工智能安全影响的战略布局、人工智能价值原则和核心方向。

(二)人工智能国家战略主要元素和涉及范围

根据加拿大高级研究中心(CIFAR)的研究报告以及《人工智能政策101:介绍人工智能政策的10个关键方面》《人工智能和政策:维持现状?数字政策、监管和治理》《第四次工业革命中心,一个制定国家人工智能战略的框架》等,2020年4月斯坦福大学全球数字政策孵化中心在《国家人工智能战略与人权:回顾》中提出人工智能国家战略(NASs)的核心元素(见表3):

(1)框架、愿景、目标:政府对AI总体规划、目标和原则。(2)研究计划:政府支持AI开发和使用的计划。(3)人才计划:政府如何吸引和创造国际国内的AI人才。(4)技能和未来的工作计划:政府确保需要参与AI的人群可获得相应技能,解决AI引发的专业技术劳动力紧缺。(5)私营部门的人工智能:政府促进私营部门使用AI计划。(6)政府中的人工智能:政府促进政府和公共部门使用AI的计划。(7)数据:政府计划解决与AI创建的数据相关的问题,如数据保护框架、数据共享安排和开放数据。(8)基础设施和网络安全:政府确保AI拥有正确的物理基础设施和其他基础设施的安全性。(9)伦理:政府确保AI的开发和使用是道德的。(10)监管:政府引入或改革与AI相关的立法和监管框架的计划。(11)包容:政府确保AI能促进包容性和公平,AI社区广泛包含不同的背景和观点。(12)外交政策和国际合作:开展政府间的、国际或区域组织的AI合作以应对共同威胁,提升AI事务的政府间特殊价值观、外交政策优先事项。(13)治理和利益攸关方:AI领域,政府、私营部门或民间团体等不同行动者的角色、责任和相应的策略。

表3 人工智能国家战略元素图谱 [2]

(续表)

(续表)

综上可见,越来越多人工智能国家战略采用透明且合理化的国际标准、框架和规范管理AI,且不同国家的布局、覆盖范围、后续发展和具体细节虽有所差异,但大部分国家都很重视数据数字和基础设施、伦理技能发展和国际参与、人才和竞争优势以及教育培训、价值观念体系,也在现实上构成了AI国际对话与合作的价值观基础。

二、人工智能的国家价值观

2020年,我国《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》强调“社会治理数字化智能化水平” 。我国国家互联网信息办公室《数字中国发展报告(2020年)》第八部分“建立包容审慎的数字化治理体系”提出,为了促进数字中国持续健康有序发展,需要“开展算法规制” 。回溯过去,2016年4月,美国《2016—2045年新兴科技趋势报告》提出大数据集合自动分析算法优于人类分析模式的战略构想 [3] 。2016年,日本安倍政府提出“Society 5.0”,“构建以人为中心的社会,实现网络空间(虚拟空间)与物理空间(现实空间)高度融合的系统” ,强化以“IoT”(Internet of Things)、人工智能为中介的连接,拓展老龄化、少子化社会现实困境的手段。

由此可见世界主要经济体AI布局的价值导向差异。下文以美国、经合组织(OECD)为例,分析人工智能价值导向的两种类型,即以国家为代表的价值导向和以国际合作为代表的价值导向。

(一)国家价值导向——美国

2019年初,美国国家科学技术政策办公室科学技术委员会成立了“国家人工智能安全委员会”(The National Security Commission on Artificial Intelligence,NSCAI),就有关人工智能的跨机构研发优先事项提供建议,提出与工业和学术界建立伙伴关系,确定改进人工智能研发规划、协调和支持的相关机构。在COVID-19和医疗保健应用的背景下,广泛关注与人工智能有关的行政和立法政策,特别是与健康有关的应用和部门。

2019年2月11日,特朗普在国情咨文演讲中提到以人工智能为代表的未来前沿产业的重要性,“人工智能的进步体现美国的独创性和美国人的价值观,并为美国人的利益而得到应用,要保持美国在人工智能领域的领导地位” [4] ;其签署第13859号行政命令,称为美国人工智能倡议(American AI Initiative),提出了美国官方人工智能战略的五个原则:(1)投资AI研发;(2)为更多联邦提供AI资源;(3)消除AI创新障碍;(4)改善对AI开发人员和用户的培训;(5)促进支持美国AI创新和负责任使用人工智能的国际环境 [5] 。美国对人工智能国家战略的规划,特别提出要坚持确保优先考虑符合美国价值观的、“可理解、可靠、值得信赖、稳健和安全”美国人工智能的价值观 [6] 。尤其是在中国作为强有力的竞争者的背景下,考虑人工智能对技术创新和美国劳动者的影响,确保美国的国际安全、技术和经济竞争力。

(二)国际合作导向——OECD

与美国人工智能国家战略的“美国利益至上”原则不同,经合组织(OECD)包括美国在内的成员国于2019年签署了《人工智能原则》(Principles on Artificial Intelligence),特别强调人工智能是将数据、算法和计算能力结合起来的技术集合,通过确保整体和透明的公众话语、对人工智能系统、应用的参与和评估。

2021年6月,《人工智能原则的经合组织实施情况:国家人工智能政策的见解》,不仅提出各国如何实施经合组织人工智能原则中对决策者的五项建议,还提出了“以人为中心”的人工智能原则:(1)AI通过推动包容性增长、可持续发展和福祉来造福人类与地球;(2)AI系统的设计应尊重法治、人权、民主价值观和多样性,为确保公平和公正的社会,人类可在必要时进行干预的保障措施;(3)AI系统应有透明度和负责任的披露,确保人们理解和应对其结果的挑战;(4)AI系统的整个生命周期是以稳健、安全的方式发挥作用,需持续评估和管理潜在风险;(5)开发、部署或操作AI系统的组织和个人应按照上述原则对其正常运作负责 [7]

也就是说,以OECD为代表的人工智能理事会更倾向于将人工智能定义为基于机器的人类目标任务系统,作出影响人类世界真实或虚拟环境的预测、建议或决定,肯定其自主性 [8] ,但是把握AI系统的核心要素必须掌握在全人类手中,保障AI系统的包容性、可持续性、公平性、透明度和可解释性、安全以及问责制。

三、基于人工智能国家战略的算法价值观取向与呈现

“不同国家的数据集如果不能跨国际分享,不可避免会在机器学习算法上产生特定国家的偏见” [9] 。基于不同的国情、政策执行水平、AI协作行动者和经济实力,人工智能价值判断有着明显的国别差异。下文将从算法决策、算法分歧、算法伦理、议题的算法价值判断四个维度分析,如何避免生态政治、民族国家和主权实体的地理边界造就的区域性数据引发算法分歧,打破“画地为牢”的算法价值取向,强化全球性数据驱动技术的国际协调和参与,促进人工智能治理。

(一)AI对算法决策的影响

算法是机器计算或决策以解决问题所要遵循的过程或规则集。算法可以善用,如利用算法分析交通模式,决定道路修建的合理地点;算法也有争议,如根据算法推断个人刑事犯罪的可能性,或根据算法判断社会福利资助的申请人资格等。另外,算法决策与机器学习有“互溶关系”,算法并非简单以数据集的形式预存于机器学习,而类似于人类智能的镜像;作为AI的重要分支,机器学习在执行特殊任务的试验和试错过程中,更新算法本身。因此可以说,AI以数据隐私和数据偏见对人本身产生影响,尤其是未来将对人类的所有认知产生深远影响。

联合国意见和言论自由特别报告员(the UN Special Rapporteur on Freedom of Opinion and Expression)称人工智能是呈现技术性特征的过程,是“提高与自动化、计算决策相关的独立性、速度和规模的缩写”,通过运算补充或取代人类作出决策或解决问题的任务 [10] 。同样,数据与社会人权和人工智能实地倡议研究负责人马克·拉托内罗认为,“将‘人工智能’视为嵌入在社会系统中的一系列技术集群的口号是有用的”,包括机器学习、自然语言处理、计算机视觉、神经网络、深度学习、大数据分析、预测模型、算法和机器人——所有这些技术的本质都是其被开发和部署的社会环境 [11]

(二)差异性人群引发算法分歧

虽然政府更关心AI经济竞争力,但由于制定战略的行动者不同,受众、架构、范围和深度也有差异,不能不考虑算法公平和透明、劳动者平等或歧视等现实问题。随着人工智能和其他数据驱动技术的兴起,传统意义上的脆弱人群可能面临无法访问互联网、信息技术与数字内容的问题,需要额外的保护。不仅“边缘人群”面临挑战,算法剥夺(algorithmic deprivation)、算法歧视(algorithmic discrimination)和算法失真(algorithmic distortion)是“算法社会”几乎每个人都要面临的问题。

作为新的“数字鸿沟”,目前,算法分歧(algorithmic divide)呈现5个方面属性:(1)意识:人们如何了解算法和智能机器对生活的正负影响。(2)访问:关注老人、少数族裔等边缘化人群因无法负担或缺乏技能而无法触及的问题。(3)可负担性:关注个人可访问的产品或服务类型、使用频率以及未来升级服务以享受全部利益的能力;人们负担的访问性越少,人工智能产品和服务的好处就越有限,完全实现技术前景的可能性就越小。(4)可用性:个人对人工智能产品和服务有不同需求,而通常情况下,这些产品或服务是由那些没有完全了解用户特定需求、兴趣或条件的人设计的;当算法得知何时将新数据反馈到其中时,那些设计不当或依赖于有问题数据的算法可能会通过反馈回路放大这些偏差。(5)适应性:个人也需要发展算法素养,算法素养可能会帮助个人了解AI技术的全部潜力,以及哪些产品或服务未能保护隐私或其他个人权利;同样地,虽然许多人并不完全理解人工智能技术是如何运作的,但个人却能够“欺骗”算法来提供理想的结果 [12] [13]

(三)人工智能战略对算法伦理的专门性讨论

哈佛大学伯克曼·克莱因互联网与社会中心归纳了人工智能原则:(1)隐私:97%的文件都涉及使用数据技术系统开发、决策的隐私原则。(2)问责制:97%的文件都涉及AI系统分配的影响与补救措施的相关责任。(3)安全性:81%的文件都关注AI系统可按预期执行的安全性。(4)透明度和可解释性:94%的文件都考虑AI系统的设计和实施操作是否是可理解的。(5)公平和不歧视:AI偏见对个人的影响已成为全球共识,100%的文件都关注AI系统以非歧视原则提升公平和包容。(6)人类对技术的控制:69%的文件提出AI的重要决策必须受到人类审查。(7)专业责任:78%的文件关注AI系统开发与部署者的专业性。(8)促进人类价值观:69%的文件都强调AI必须致力于实行人类福祉,与人类价值观高度一致

不少人工智能国家战略也关注算法对人本身的潜在性影响。制定战略的行动者来自不同的群体,如欧盟《人工智能伦理指南》包括有关隐私、多样性和非歧视的具体条款,以及补救权等多部条款。《欧盟关于人工智能的通讯》(the EU Communication on Artificial Intelligence)在其“伦理”一节中,涉及人工智能基于人权的道德准则的承诺、有效数据的可解释性和保护必要性等问题。

《人工智能:卢森堡的战略愿景》中提到:“作为一个多样化、创新的国家,我们将决定这项技术对人权、人们的生活和我们的民主价值观产生何种影响。” [14] 为解决人工智能开发中的风险评估,新加坡采用交叉学科和以人为本的方法,不局限于工程学科,开发者包括社会学家、伦理学家、经济学家、律师和政策制定者 [15] 。《丹麦人工智能国家战略》提及,“人工智能需要一种新的决策方式。其中算法扮演了重要的角色,社交媒体引入自我学习算法的程度与人类依赖智能体推荐水平正相关。人工智能涉及的伦理问题,将使用新技术的优势与人的基本权利、正当程序和丹麦的社会价值观之间关联起来。”挪威数字化部提出基于人权的人工智能的伦理原则,自我决定(人可以独立于AI之外的知情和决策权)、尊严(AI不得伤害人类或破坏民主进程)、责任(AI决策的最终责任赋权于人)、可解释性(人有运用AI底层逻辑与结果描述、控制和恢复数据的决策能力)、平等和正义(保持算法多样性和防止算法偏见)以及发展(人工智能的发展应在道德上负责,并以最大限度地提高社会进步为导向) [16]

(四)公共议题的算法价值判断

信念来自认知,可触达的媒介信息源更是核心关键。美国新闻界使用自然语言生成(Natural Language Generation,NLG)的新闻写作已经成为趋势。基于模板的自然语言生成(Templatebased NLG)和高阶自然语言生成(Advanced NLG)两种模式中,人类甚至无法辨认机器人写作 [17] 。而从新闻用户的角度看,虽然许多人并不完全理解人工智能技术是如何运作的,但个人却能够“欺骗”算法来提供理想的结果。例如,当用户知道脸书(Facebook)管理新闻动态的算法时,他们会修改自己的行为,以利用算法定制自己的新闻动态。

因为算法会反映公众注意力、公众态度以及公众参与决策的程度,特别是基于偏差性数据的算法,极易形成有偏见的价值判断和内容呈现,而差异化人群受算法推荐会加剧其观点的认同,从而导致群体间的观点极化。因此,新闻媒介应用算法推荐是影响公众思想、持续对人群强化关注的重要手段,将塑造和影响公众注意的有限空间,成为政府对关键信息的反馈、决策、自我纠正机制的重要驱动因素 [18] 。善用算法以凝聚民族共识,形成命运共同体意识、可持续发展的新动能,实现本尼迪克特·安德森(Benedict Anderson)在《想象中的社区》中构想的“相互联结的意象”搭建的政治共同体。

算法是以“人”主导下的“人与媒体”关系的中介。通过媒介场域的控制与反控制,算法构建了平台与人流动的因果关系链,增强媒介生态的可供性,将影响“后人类”的关注领域和表达范式,孕育媒体、公众、政府的多角权力关系,引发算法时代信息化治理有效性的讨论。

Algorithmic Values in National Artificial Intelligence Strategies

YE Ni

Abstract :National Artificial Intelligence Strategies is the integrity strategy of national governments or regional organizations to layout,plan,and governance of artificial intelligence.This article analyzes the development status of NASs in the world.It analyzes the two paradigms of artificial intelligent values in terms of national value orientation and regional value orientation.It analyzes the algorithmic values in NASs from the dimensions of algorithmic decision-making,algorithmic divergence,algorithmic ethics,and issue value.The purpose of this article is to provide a reference for algorithmic media governance in the post-human era.

Key words :National Artificial Intelligence Strategies;Value-Oriented;Algorithmic Governance

注释

[1] Kung,J.,Boskovic,G. & Stix,C.(2020). Building an AI World : Report on National and Regional AI Strategies (second edition).https://cifar.ca/wp-content/uploads/2020/10/building-an-aiworld-second-edition.pdf.October 30,2021.

[2] Newman,T.P.,Howell,E.L.,Beets,B.,et al.(2020). Landsca pe Assessment of Public Opinion Work on Use of AI in Public Health .April 21.https://www.gp-digital.org/wp-ontent/uploads/2020/04/National-Artifical-Intelligence-Strategies-and-Human-Rights%E2%80%94A-Review_.pdf.October 30,2021.

[3] Office of the Deputy Assistant Secretary of the Army (Research & Technology).(2016). Emerging Science and Technology Trends : 2016 - 2045 . A Synthesis of Leading Forecasts .https://files.nc.gov/deftech/press-release/files/2016_scitechreport_16june2016.pdf.August 30,2021.

[4] Executive Office of the President - Executive Order 13859.(2019). Maintaining American Leadership in Artificial Intelligence .February 11.https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence.October 30,2021.

[5] Office of Science and Technology Policy.(2019). Accelerating America s Leadership in Artificial Intelligence .February 11.https://www.nitrd.gov/nitrdgroups/images/7/73/Accelerating-americas-leadership-in-artificial-intelligence.pdf.August 30,2021.

[6] Artificial Intelligence for the American People .(2019).February 11.https://trumpwhitehouse.archives.gov/ai/.August 30,2021.

[7] OECD.(2019). Principles on AI .May 22.https://www.oecd.org/going-digital/ai/principles/.October 3,2021.

[8] OECD.(2019). Recommendation of the Council on Artificial Intelligence .May 22.https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.August 30,2021.

[9] Esposito,M.,Tse,T. & Entsminger,J.(2018). The Case Against National AI Strategies .Project Syndicate,October 17.https:// www.project-syndicate.org/commentary/case-against-national-ai-strategies-by-mark-esposito-et-al-2018-10.September 20,2021.

[10] UN General Assembly.(2018). Report of the Special Rap porteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression .UN DocA/73/348.August 29,Para 3.

[11] Latonero,M.(2018).Governing Artificial Intelligence:Upholding Human Rights. Data & Society .

[12] Chander,A.(2017).The Racist Algorithm? Michigan Law Review .115(6).

[13] Yu,P.K.(2020).The Algorithmic Divided and Equality in the Age of Artificial Intelligence. Florida Law Review .331(72).

[14] Artificial Intelligence : A Strategic Vision for Luxembourg .Digital Luxembourg.May 24,2019.https://gouvernement.lu/dam-assets/fr/publications/rapport-etude-analyse/minist-digitalisation/ArtificialIntelligence-a-strategic-vision-for-Luxembourg.pdf.November 3,2021.

[15] Fatima,S.,Desouza,K.C. & Dawson,G.S.(2020).National Strategic Artificial Intelligence Plans:A Multi-dimensional Analysis. Economic Analysis and Policy .67(9).

[16] Ministry of Finance and Ministry of Industry,Business and Financial Affairs.(2020) National Strategy for Artificial Intelligence .https://eng.em.dk/media/13081/305755-gb-version_4k.pdf.

[17] Kobis N. & Mossink,L.D.(2021).Artificial Intelligence versus Maya Angelou:Experimental Evidence that People cannot Differentiate AI-generated from Human-written Poetry. Computers in Human Behavior .114(1).

[18] Baekgaard,M.,Larsen,S.K. & Mortensen,P.B.(2019).Negative Feedback,Political Attention,and Public Policy. Public Ad ministration .(SI). eXvq/TQF5+5OVHKT7EULIrPmlI/7piLvmdcqXUUX+JpzKA3RyBoIFdMYauLn2IQZ

点击中间区域
呼出菜单
上一章
目录
下一章
×