购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

三、重点观察之一:算法推荐的法律规制

(一)问题简述

在大数据时代,企业级的产品和服务会通过各种算法对数据加以充分利用,并直接作为企业决策、营销、创新进而实现企业经济效益的工具,算法推荐技术即是此类工具之一。 算法推荐通常指网络服务提供者根据其获取的用户及其他相关信息,通过各类运算逻辑进行一系列的数据处理和分析之后,将经过算法分析识别的并与处理结果相匹配的内容精准地推送给用户的过程。 在不同的文献中,算法推荐也被称为算法推送 或个性化推荐 等。

伴随着互联网技术的发展及网络用户的增加,在海量信息的加持下,算法推荐技术被进一步广泛应用到各类场景中,包括电子商务平台的产品推介、短视频平台的内容推送和各大平台的个性化广告分发等。以新闻平台的推荐系统为例,该系统通过一系列流程将文本进行自动化编辑、识别、分类,进而根据用户画像、用户行为及社会热点等评价要素,筛选出特定范围内的文章推送给特定用户,以满足平台用户期待、增强用户黏性,从而提高了平台的商业收益与市场竞争力。

推荐类算法的应用在提升社会福利的同时,也衍生出信息茧房和诱导沉迷的问题。自2018年起,由信息茧房到大数据杀熟,再到算法歧视而引发的诉讼逐渐增多,算法规制已然成为一个热门话题,得到了持续的关注与讨论。目前算法推荐在理论与实务中探讨的基本问题包括:算法推荐的黑箱性与人类决策的知情权与自主性的矛盾,算法推荐对个体的隐私与自由的威胁,算法推荐下的歧视与偏见,个人信息、数据的概念辨析与权利保护,算法推荐运行中涉及的公共滋扰和利益平衡,算法推荐的法律伦理问题等。目前的研究主要集中在隐私权保障、反歧视以及知识产权和言论自由的保护层面,已形成的研究共识在于强调对算法的公平性、透明度与问责的落实。

(二)核心争议点

1.算法推荐的伦理风险

算法推荐带来的伦理问题,始终是实务界和理论界关注的重点问题之一。有学者指出机器学习的数据采集、标注等过程往往负载着价值判断,进而将数据所隐含的社会偏见和算法设计者自身的主观偏见带入模型训练中。 有学者归纳了算法歧视的基本类型,分为偏见代理的算法歧视、特征选择的算法歧视以及大数据算法杀熟。 有研究从算法歧视与金融风险的耦合性入手,揭露了大数据算法歧视的客观现状。 在伦理学视域的研究中,有文章指出算法歧视主要涉及算法公平与算法身份污名化两大伦理问题。 此外,有学者指出不仅在算法的决策过程和结果中会产生歧视,算法社会本身就意味着不平等,因为这样的智能体系对人的科技素质要求极高,从而推动了少数科技精英主宰大多数普通人生活的局面。

目前的算法推送程序是基于消费者之前购买、浏览、收藏等网络行为而运行,这使得算法推送的信息大概率直击消费者的潜在需求。但倘若特定推送行为只针对消费者所感兴趣的内容时,就有可能导致消费者所能收到的信息面、知识面仅仅限于自身的兴趣范围之内,消费者将会形成“信息偏食”,最终往“信息茧房”的方向发展。 “信息茧房”的出现,可能在一定程度上形成信息骚扰或信息侵略,而这两者均属于信息社会的公敌。 “信息茧房”的存在,会造成消费者安于处在算法特定推送为其专属设计的“茧房”中,进而削弱消费者主动获取信息的积极性,如主动去浏览对比商品价格。这会造成消费者个人主动选择交易对象的意愿被算法特定推送间接限制。 在“信息茧房”中,算法程序不仅可能会主导我们获取的信息范围,而且除了简单地执行特定推送任务外,算法程序还可能会干扰我们对日常信息的判断力。

此外,普通消费者对算法程序个性化内容推送行为的运行过程是难以理解的,这种难以理解是算法程序不透明所带来的结果。正如学术界所提出的“算法黑箱理论”,算法程序如同一个被黑布盖住的箱子,消费者能够发现的只有算法采集信息的入口,以及算法程序经过运行产出的结果。但是对于在“算法入口”与“算法出口”之间的算法运行程序的具体路径、结果的产出所考量的因素权重等隐藏信息,消费者无法得知。随着算法技术商业化的越发普遍,算法技术“黑箱”特性所导致的将消费者排除在外的特性会越发凸显。基于算法的不透明性,人们开始担心算法程序的“黑箱”特性使得数字经济市场变为被算法程序所控制的“黑市”,数字经济市场中的互联网企业逐渐发展成为掌握“算法权威”的强势一方,这造成本就处于信息弱势的消费者不得不屈服在“算法权威”之下,算法程序变成数字经济时代下互联网企业的“帮凶”。

而针对消费者的算法歧视是指,互联网企业以消费者个人数据为基础,借助算法程序所实施的不利于消费者的信息收集、信息推荐、个性化服务等经营策略。 例如,在线上酒店预订场景下,同一酒店、同一房型在同一时间点被预订时,在都没有优惠券或折扣的情况下,该App常用用户所需要支付的价格高于新用户或者较低使用频率的用户。又如,在线上打车时,就同一车型、同一路线而言,使用该App频率高的用户所需支付的价格要高于普通用户。甚至不同手机品牌、同一品牌不同价格的手机所需要支付的价格也存在差异。

理论界的共识认为,互联网平台运用算法歧视消费者造成差异性定价的行为严重侵害了消费者的合法权利,例如,邹开亮、刘佳明认为,电商交易平台基于“故意”的主观所实施的算法价格歧视,与消费者内心的真实想法是相违背的。 李飞翔认为,平台经济中的算法价格歧视行为是经营者违反电商交易平台上明码标价义务的一个体现。在线上电子商务交易中,消费者被区隔开来,消费者一般很难发现自己购买的产品和服务价格存在差异,因此经营者的算法歧视行为损害了消费者的公平交易权利。 有学者认为,算法程序以及大数据是否帮助了某些企业获得支配性力量,导致头部企业拥有过高控制权等问题也值得思考。

当前,部分科技企业开始采取“经由设计的伦理(ethics by design,EbD)”方案,以确保算法的合理性和数据的准确性、时效性、完整性、相关性、无偏见性和代表性,并采取各类技术方式识别、解决和消除偏见。理论研究层面,有学者从算法共同治理的维度进行讨论,意图建立内外集合、限权与赋权并举、贯穿算法应用全过程的制度体系。有学者强调算法公平并指出推送算法公平的三条进路,分别为技术进路、哲学进路和法治进路, 并在法治进路当中区分了差别性影响原则与差别性待遇原则。 有学者认为,应当加强算法伦理的讨论与研究,制定分领域、分优先级的算法相关公共政策。 郑智航教授认为,网络技术逐步生成了一种网络自主空间,并形成了一套以技术编码和自治伦理为主的技术治理方式。人们需要重视法律蕴含的价值,运用法律治理的有关手段,对技术治理进行有效归化。 还有学者认为,由于算法使用具有反复性和普遍性,通常对公众反复使用,因此可以引入集体诉讼制度予以解决。

未来,我国可能会进一步出台围绕算法透明和算法责任的法律和伦理规制政策,但应当谨慎选择监管方式和监管措施,避免不当的监管阻碍人工智能的发展、创新和竞争,力求在技术发展与伦理规制之间取得平衡。

2.算法推荐中的个人信息权益

个人信息具有可识别性,是人类基于个人信息建立各类关系,开展与个人相关的活动以及社会交往的基础。大数据时代智能算法的运行,依靠使用者在各类活动中产生的信息数据,智能算法对数据具备发掘、收集、处理、存储和使用能力,其对于数据的大量发掘与使用必然会牵扯出个人信息保护的问题。消费者信息被大规模收集,从而形成海量数据库以及消费者的“个人画像”,是进行算法精准推荐的基础。但以算法运行为目的的个人信息或个人数据的利用必须时刻置于信息安全的前提项下,遵守法律规范所明确的个体和公共信息权益的行为边界。有学者认为,法律尤其需要确立立法、行政管理、司法审判等敏感领域中的准入规则与使用规则,以保障人类安全、服务人类与防范系统性风险,保证人类的最高决策权。

目前对于规范消费者信息收集的立法主要有《民法典》《个人信息保护法》《网络安全法》《刑法》等法律,以及《信息安全技术 个人信息安全规范》《信息安全技术 个人信息去标识化指南》《个人基本信息分类与代码》等国家标准。我国2018年制定的《电子商务法》也要求个性化推荐应当尊重消费者的选择权。

《消费者权益保护法》第29条规定,经营者对于消费者信息的收集、使用应当在合法、正当且必要的前提下进行,并且经营者对于该信息数据的收集、使用应当经过消费者的明确同意,以及经营者需要对消费者说明收集、使用其个人数据时的目的、范围以及方式。《消费者权益保护法》明确要求,互联网企业对消费者个人信息进行收集行为时需要提前取得消费者的同意,并且该同意应当是自愿作出的。《互联网信息服务算法推荐管理规定》在第10条规定,算法推荐服务提供者应当加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则和用户标签管理规则,不得将违法或者不良信息关键词纳入用户标签管理中。《个人信息保护法》明确规定,收集个人信息应当限于实现处理目的的最小范围,不得过度收集个人信息。

此外,《个人信息保护法》规定了信息删除权。其第47条规定了个人信息处理者未主动删除消费者个人信息的,消费者个人有权请求删除,并规定了个人信息处理者应当主动删除个人信息的情形,其中包括处理目的已实现、无法实现或者为实现处理目的不在必要以及个人撤回同意。因此,当消费者不再使用算法程序App时,应当认定为处理目的无法实现或者消费者个人撤回同意的情形,在App被消费者删除时,互联网企业应当主动删除消费者的个人信息。但是实践中,互联网企业往往会基于操作成本的考量或信息二次利用的动机怠于删除个人信息,同时消费者也没有渠道确认自己的个人信息是否已经被删除。尽管其原因在于算法程序固有的“黑箱性”,使得消费者难以明确了解或理解相关数据的利用机制以及数据的留存和保护状况。但为了切实保护消费者的利益,在监管要求中明确以提升算法透明性为指向的适当公开算法程序的运用,或大数据库中消费者信息的利用流程仍然十分必要。

放眼国际,智能算法兴起时,美国就提出了应当对个人信息保护做出调整,艾伦·威斯丁在其著作《隐私与自由》中,将隐私的概念定义为个人对自身相关信息的主动控制。 随着智能算法的不断发展,个人信息的作用和价值也在发生变化,智能算法侵权等问题不断出现,美国开始大量立法以保护个人信息、规制智能算法。其中,《家庭教育权利与隐私法》对于具有识别性的个人信息设置了一条单独说明,要求教育机构应当对收集到的个人信息承担安全保障义务,确保个人信息不被非法使用。《隐私法案》则赋予信息主体个人信息纠正权,并要求美国有权机关在使用个人信息时必须遵从法定义务。

数据是智能算法运行和发展的根本,充分开发与利用、挖掘信息的价值,对相关主体物尽其用,发挥其经济效益,是智能社会必须面对的问题。这就必然需要在个人信息保护和智能算法发展之间寻求平衡,建立起既符合时代进步和经济发展需要,又能对个人信息予以合理保护的模式。上述法律法规、各类规范和标准对智能算法使用数据具有规制作用,但事实上,智能算法使用数据时的数据泄露事件时有发生。因此,有必要结合当前智能算法数据的具体使用实践,对智能算法使用数据的行为进行规制,促进智能算法技术发展和相关产业的效率提升,并保障广大民众的合法权益。

3.技术中立原则的适用性

在我国的相关理论研究中,有关技术中立问题被论及最多的是“实质非侵权用途”原则(Substantial Non-Infringing Use)。 该原则是指当某种产品被广泛用于合法与普遍的目的时,即使该产品可能被用于侵权,其销售者和生产者的销售和生产行为也不构成帮助侵权。在我国的司法实践中,使用算法推荐技术的网络服务提供者常常会以技术中立作为算法推荐侵权责任的抗辩理由,主张其并不具有主观过错,无须为其管理的平台用户所实施的侵权行为承担责任。但技术中立这一抗辩理由的合理性和效力在理论上受到了较大争议。

熊琦将网络服务提供者的侵权行为分为积极行为和消极行为,他认为“算法推送”不构成司法解释中规定的“主动编辑”或“设置榜单”等积极行为,从消极行为的“承担与管理能力一致的注意义务与合理预防程度”的认定来看,网络服务提供者使用算法推荐技术也不需要对内容进行全面的实质审查。因此应当遵循技术中立原则,不应为采用算法推荐的网络服务提供者设定过高的注意义务。 初萌在其文章中表达了相反的意见,其认为技术中立不代表技术使用者的中立,人对技术的运用是主体有目的、有意识的行为,体现着人的主观价值倾向,技术中立表象背后往往隐藏着网络服务商对利益最大化的追逐,应当受到规制。 此外,有学者主张,应当采用法律与代码相结合的双重保护模式,把握平等权保护与科技创新之间的平衡。

在2021年11月举办的“算法治理与版权保护问题研讨会”中,孔祥俊教授指出,算法推荐是否构成技术中立,取决于算法是否可设定、可选择及可控制。如果平台对算法具有现实的把控能力,算法推荐的中立性一般来讲是难以成立的。林子英也表示,讨论算法推荐技术是否中立,要结合平台的功能及算法使用的目进行综合判断。北京市海淀区人民法院知识产权庭庭长杨德嘉法官更是直接指出,技术的应用,特别是市场化、大规模的应用,永远不可能具有真正意义上的中立性。我们所能见到的这些市场化、商业化的技术应用,无一不具有商业主体明确的目的性,它们大都是精准的利益计算和取舍的结果。对技术的使用常常体现着使用主体鲜明的价值追求,因此应当受到有效约束。

司法实践中,法院在甲科技公司诉乙科技公司侵犯某电视剧信息网络传播权案中提出,“相较于其他网络服务提供者,使用算法推荐技术的网络服务提供者应承担更高的注意义务”。 该判决击破了网络服务提供者的“技术中立”主张。

2021年12月31日公布的《互联网信息服务算法推荐管理规定》从规范层面否定了算法推荐的技术中立。该规定要求网络服务平台加强用户标签管理及用户模型管理,完善相关规则,不得将与不良或违法信息相关的关键词记入用户标签或用户兴趣点,并据以推送信息。

综上,所谓技术中立,应当只是运用注意义务界定标准得出的无须承担注意义务的一种情形,并不代表所有的新技术都可以适用技术中立的抗辩。网络服务提供者在算法推荐技术的编写或使用中也不能当然适用技术中立获得免责,网络服务提供者是否构成侵权依然要着眼于对其主观过错的判断。

4.算法推荐下“避风港”规则的优化

“通知—删除规则”在网络服务提供者注意义务规则中处于基础性地位。该规则在我国的法律规范中首见于《信息网络传播权保护条例》,具体列举了四类网络服务提供者享受侵权责任豁免的条件,本质是通过设定具体注意义务的方式对网络服务提供者的主观过错进行客观化的认定。

“通知—删除规则”的引入为网络服务提供者的行为提供了清晰的指引,也为其建造了一个可以免予承担赔偿责任的避风港,起到了鼓励互联网行业发展的作用。此后,“通知—删除规则”又见于《侵权责任法》(已失效)第36条第2款,使得“通知—删除规则”从著作权领域延伸至整个民法领域。目前,“通知—删除规则”还可见于《消费者权益保护法》以及多个司法解释,并被纳入2020年施行的《民法典》第1195条规定之中。

为履行以“通知—删除规则”为核心的传统注意义务,各大与内容相关的网络平台都设立了侵权通知的接收及响应渠道。随着互联网技术的发展和网民知识产权意识的不断提高,互联网平台接收及处理的侵权通知数量也在不断增长。海量的侵权通知在更好地保护权利人的同时,也让网络服务平台承受着巨大的压力。

进入算法时代后,侵权内容的版权算法过滤功能对传统“避风港”规则的运行程序和理论基础带来了系统性冲击。一方面,随着海量侵权内容的泛滥,当前被动性的事后注意义务模式想要有效地实现打击网络版权侵权是十分困难的。尤其在算法推荐技术这种高效的新型传播模式的介入下,损害结果一旦发生就会迅速扩大,仅仅要求网络服务提供者承担消极的注意义务,常常难以有效保护权利人的合法权益。另一方面,智能算法推荐技术的普遍应用为提高网络服务商识别与控制版权侵权内容提供了技术上的可能性,网络服务商承担注意义务的时间节点有了前置的倾向。

早在2001年,金斯伯格(Ginsburg)教授就撰文讨论了新技术给互联网中著作权保护带来的冲击。金斯伯格(Ginsburg)认为,著作权是为实现创作者与公共利益的平衡而生的,而每一个技术上的巨大进步都有可能打破这种平衡,因而网络服务提供者的义务也需要随着技术的进步不断调整。 斯泰西·多根(Stacey Dogan)讨论了“实质非侵权用途”与“避风港”规则的关系,他认为不应过分加重网络服务提供者的注意义务。 齐尼蒂(Ziniti)在其文章中讨论了使用推荐系统的网络服务提供者是否能享受《通讯礼仪法案》第230条规定的出版者责任豁免。他认为,在Web2.0时代,网络服务提供者主动推送信息的行为包含着对信息的编辑、排序和选择,并用搭便车的方式在推送的信息中植入广告获取利益。因而应当相应地承担更多责任,一味主张网络服务提供者不应为第三人上传的侵权信息负责是有失公正的。

自2019年1月1日起施行的《电子商务法》在《侵权责任法》和《信息网络传播权保护条例》的基础上,对“通知—删除规则”的体系进行了完善和扩充,将原本的“通知—删除”模式发展成为“通知—反通知及必要措施”模式及“终止交易和服务的必要措施”模式,并引入了行政机关的力量。这种完善使得“通知—删除规则”更具有可操作性和可救济性,但仍有部分问题尚存争议,留待以后解决。

(三)域外立法

下文对各国算法规制的法律规范进行细致梳理。欧盟制定了一系列强有力的法律框架,主要包括《欧盟基本权利宪章》《通用数据保护条例》《非个人数据自由流动条例》和《网络安全法》等。美国对算法的相关规定主要体现在《平等信贷机会法》《公平信用报告法》和《加州消费者隐私法案》等文件中。其他主要法域也纷纷出台相关文件,规范算法推荐与人工智能问题。此外,在宏观领域也形成了诸多政策性文件,为算法规制的发展设置了主要的方向,主要包括《阿西洛马人工智能23条原则》等。

1.欧盟

在欧洲,欧盟在注重智能算法规制的同时,非常注重对人格利益的保护。世界第一部保护数据信息的法律,便是由欧盟出台的《欧盟数据保护指令》。这一法律从立法思想、制度规范等角度,为学界理论研究和各国立法工作提供了重要参考。随着欧盟对智能算法发展所带来的问题的认知逐步深化,以及出于促进智能算法产业发展与平衡国家、社会、个人与智能算法发展之间的利益冲突的需要,欧盟又颁布了《通用数据保护条例》这一较为全面的智能算法和大数据领域立法,并将智能算法规制归纳到数据保护制度框架内。欧盟对于智能算法规制的相关研究,主要是通过《通用数据保护条例》中对数据权利的规定这一基本范畴展开。《通用数据保护条例》涉及个人信息收集、保管和处理的各个阶段,为数据主体的保护个人信息权提供了具体的规范。反自动化决策权、算法解释权受到了世界范围内相关研究者的关注,对我国算法治理的实践也极具参考价值。

欧盟的立法者认为,信息数据在被智能算法处理的过程中,不光要考虑其带来的价值,更要保护个人权利并对智能算法进行制约。为实现人工智能对个人信息的有序收集,保护信息主体对个人信息的控制权,《通用数据保护条例》规定智能算法运营主体在处理信息前,必须取得信息主体出自其真实的意思表示的授权,信息主体享有撤回信息的权利。并且,考虑到智能算法领域对普通人来讲存在技术壁垒,侵权损害发生时难以举证说明,《通用数据保护条例》还将举证责任分配给了智能算法运营主体。证明责任倒置的方式增加了智能算法的运营主体的违法成本,倒逼其遵守“告知同意”原则,这表明了欧盟对智能算法规制的严肃态度。欧盟的《通用数据保护条例》是规范数据处理行为的立法典范,其中第5条将智能算法的透明度和问责原则列为数据处理的核心原则。欧盟的智能算法规制立法也十分重视自我救济权利的赋予和算法解释权的设置。欧盟对智能算法规制中涉及的风险评估问题也有独具特色的规定,例如,《通用数据保护条例》在第35条中为数据控制者设定了数据保护影响评估义务。此义务要求数据控制者即智能算法运营主体,在使用新技术进行处理数据之前,应对可能出现的个体自由权利风险做出数据保护影响评估,评估后再确定是否使用该算法以及未来化解风险的操作方案。

欧盟一直在积极推进智能算法规制的进程,并且十分支持理论界对智能算法风险应对策略的研究。近年来,欧盟建立智能算法规制专家研究委员会,为欧盟实施智能算法发展战略提供咨询和理论储备。经过多年理论研究和对实践经验的总结,欧盟发布《可信人工智能伦理指南》并建立了智能算法规制的自评估清单。该指南以合法、合理、稳定三要素为核心,构建出尊重人类自治、预防侵害、保证公平、明确可解释性四项原则,设置了保障技术发展和安全、重视隐私和数据治理、注重透明性、注重多样性非歧视、建立问责机制等七个关键要求作为制度构建的基础,系统搭建起智能算法规制的框架体系和标准要求。关于智能算法规制问题,欧盟议会专门讨论了建立健康可控智能算法系统的规划,并提出对智能算法应用实施分类分级监管规制的政策蓝图,表明了欧盟智能算法规制将以监管和发展并重的态度。

目前,欧盟对于智能算法的规制已经进入实质性阶段。《欧洲议会和理事会关于制定人工智能统一规则和修订某些欧盟立法的条例》规定,应当对智能算法系统实行分类分级监管的要求。这可能为欧盟智能算法规制开启新篇章,进一步保障智能算法的可信赖度,鼓励智能算法领域的投资和创新,激发数字经济活力。

2.美国

美国的信息技术发展较早,在对于智能算法规制的研究中已形成一定的重要成果,且出于多种因素影响,美国的研究工作呈现出多元化的态势。

早期,美国理论界为智能算法规制设置了信息披露制度,要求对智能算法进行公示,试图提高算法透明度,并将现有法律理论体系中的“差别性影响理论”运用到智能算法规制中,以司法审查的形式来规制智能算法。后续在实际操作过程中,美国认识到了该做法的漏洞,并将研究重点转向了智能算法设计、开发与运营等环节。此外,美国现有研究非常重视数据处理等问题。美国理论界认为,应当修正已有法律中可以被适用的法律义务,以满足智能算法的规制需要,构建信息信义义务并配套建立相应规制标准与规制体系,建立问责机制等手段来实现规制目的。同时,美国认为应当注重行政机关灵活手段的运用,快速应对市场和技术的变化,及时运用行政手段对智能算法的规制做出调整,并且加强社会部门、行业协会等外在机构和力量,进行协作规制。

美国有关个人信息保护、智能算法规制相关的法律文件数量众多,各法规制的目的因保护对象不同有所区别。智能算法的行业自律模式也是美国率先推行,即由行业协会制定行业标准或行为指引,为行业的网络安全和智能算法规制提供标准模式。对于自律机制难以自我约束的部分,则由立法、司法和行政机关进行规制。美国法律对个人信息实行分级保护,如美国《数据安全法》对政府标识符、金融信息、健康信息、保险记录、账户凭证、数字签名、生物识别信息等,实行敏感信息分级保护制度。这也对智能算法使用数据起到了良好的规制作用, 保护个人隐私敏感数据的同时,保证个人低敏感数据信息的自由流通,以此来保证智能算法行业发展所需。但美国现行法律制度对人工智能的制约和个人信息的保护也存在诸多问题,如行业自律模式下的个人信息保护力度令人怀疑,企业为追求效益必然会对个人信息的保护做出不合理的决策等。

为了规制智能算法的发展,并妥善处理算法对数据的利用等行为存在的法理和实际问题,美国赋予个人以数据所有权,以维护个人对其自身数据享有的财产权利。与之相对应,美国智能算法行业认为应该启动企业数据权的立法,保证企业对自身的数据享有财产权利。

对不同的主体产生的数据进行分别保护是美国智能算法规制制度的法律特色。如美国《儿童在线隐私保护法》《金融服务现代化法案》等均属于针对不同领域的专门性法律,分别针对与儿童、金融相关的数据展开保护。近几年来,智能算法技术的突飞猛进带来了新的社会问题,引发美国立法界对现有法律的是否能满足未来需求的思考。美国纽约市率先制定法律,尝试规制政府机构使用自动化决策系统,要求成立工作组,探索建立算法公开、算法歧视认定、解释权、救济权等机制。为保护儿童数据利益,对《儿童在线隐私保护法》进行修订,将个人照片、IP地址等纳入该法保护范围,增设对数据相关主体通知、须获授权方可使用等要求,并明确定义数据留存、删除权等专业用语。

3.日本

日本在《人工智能开发指针方案(征求意见稿)》的基础之上,对征求意见稿进行了修改和完善,日本总务省信息通讯政策研究所于2017年7月正式公布《为国际讨论而做的人工智能开发指针方案》(以下简称《指针方案》)。《指针方案》认为,发展人工智能技术能够抢占全球人工智能发展的制高点,掌握全球人工智能发展的话语权,在提高本国国际竞争力、促进经济发展、缓解就业人数短缺方面具有重要的推动作用。

《指针方案》规定了八大治理原则。第一,可控原则。人工智能的设计者、研发者对人工智能可能进行的行为应当有一定的预测,通过断网、断电等行为阻止人工智能进行危害人类的行为,对人工智能所受到的损害进行修复。第二,合作原则。与人工智能发展有利益关系的国家、地区要紧密合作,统一人工智能的国际技术标准,形成数据储存、处理、跨境流动的国际共识。第三,无害原则。人工智能的设计、研发、销售、应用等各个环节都要保障人的生命、财产安全。另外,人工智能运行的稳定性要提高,应当增强人工智能的适应性,减少出错率。第四,隐私原则。人工智能运行中所产生的数据关乎社会公共利益,对涉及个人隐私的数据要经过匿名化处理之后才能够流通。第五,透明原则。人工智能的设计者和研发者要及时公开人工智能的源代码和算法,提高社会公众对人工智能的了解程度,降低社会公众的不安情绪。第六,支持原则。人们对人工智能的相关操作行为,人工智能的控制者要及时进行信息反馈。对相关风险较高的操作行为,系统应及时进行警告,对相关的错误操作进行及时纠正。第七,伦理原则。人工智能的设计、研发、生产、销售等环节,要严格遵守人类社会的伦理规范,保障公平正义,维护人类社会的秩序。第八,问责原则。由于相关主体的故意或过失导致相关利益的损失,要对相关责任人进行问责,使其承担相关责任。

此外,日本2021年发布《算法/AI与竞争政策报告书》,数字市场的竞争政策研究会从2020年7月29日起到2021年3月8日共举行了8次研讨会,对报告书中的各个部分进行了讨论,并邀请专家学者、律师、IT企业与金融业界代表分享了观点。

报告书分为总论、分论、结论三部分。总论部分从回顾一般社团法人日本贸易会(JFTC)在算法领域的工作入手,首先明确算法与AI的定义、技术特征、算法与数据的关系,再分析目前的AI利用状况,划定报告书研讨的算法与AI的范围。分论部分讨论了算法与协同行为及单独行为的关系、算法/AI与竞争力的关系、网络平台与算法/AI的相关课题。在结论部分中,报告书回顾全文,总结了目前的状况与一般社团法人日本贸易会应当采取的措施。

针对个人化算法的“大数据杀熟”问题,报告书一方面肯定一定限度内的区别定价行为能够促进竞争、提高效率,另一方面表示为挖掘其他客户的用户而进行的针对性优惠、具有市场支配地位的平台利用“大数据杀熟”榨取消费者等行为有必要从竞争法、信息保护法、消费者法等方面共同采取行动。其后,报告书特别以网络平台为语境,再次验证算法在具体应用场景中的问题,提到了数据的作用、平台经济特性等因素与算法/AI间存在的紧密关系,表示需要继续关注这一领域的算法应用。针对平台经营者利用算法操纵搜索权重可以达到优待自家产品、排除竞争者、强化自身市场支配地位的目的的问题,日本《巨大IT平台交易透明化法》要求,特定数字平台经营者需要公布决定搜索结果顺序的基本因素等事项。报告书还提到,竞争执法机关可以考虑通过检验输入数据与输出数据、检查算法源代码理解其内部逻辑、检验算法输出结果与逻辑间的偏离程度等方式确保算法未被滥用。

4.德国

在网站应当承担的责任与义务方面,德国将网络服务提供者的注意义务提高为“通知—屏蔽”义务。在“通知—屏蔽”义务的框架下,网络服务提供者收到权利人通知后,不仅要删除或屏蔽通知中指明的侵权内容,还要主动识别并处理与之同类的侵权内容。主动识别同类侵权内容的水平,取决于该网络服务提供者自身的技术水平,因此德国多家网络服务商都采取了基于不同原理的过滤措施以保障注意义务的履行。

此外,德国司法部部长呼吁制定数字反歧视法,成立专门监管机构,探索算法监管,推动算法透明,保障个人权利。德国联邦信息安全办公室还发布了《人工智能系统可审核性白皮书》,明确表达了对于人工智能系统可审核目标的关切。

5.新加坡

2020年1月21日,新加坡个人数据保护委员会(PDPC)发布第二版《模型人工智能治理框架》,确立人工智能算法应以“透明”和“以人为本”为指导原则。该框架在附录部分对人工智能算法提出了审计要求,要求算法审计必须在对该组织具有管辖权的监管机构的要求下进行,或者由人工智能技术提供商执行,并作为取证调查的一部分,以确保算法的透明度。

2022年5月30日,新加坡个人数据保护委员会(Personal Data Protection Commission,PDPC)发布数据匿名化工具,目的在于帮助企业对简单的数据集实现匿名化。该工具依据新加坡个人数据保护委员会于3月31日发布的《基础匿名化指南》(Guide to Basic Anonymisation)制作,在该指南中,新加坡个人数据保护委员会提出识别数据、对数据进行去标识化、应用匿名化技术、评估匿名化效果、管理数据重识别与披露风险的数据匿名化五步指引。2022年7月18日,新加坡个人数据保护委员会发布了《区块链设计中的个人数据保护注意事项指南》与“保护云平台个人数据安全的良好实践”信息图。

除上述国家外,还有若干主要法域也对算法推荐问题进行了研究。法国政府于2009年成立了作品传播和互联网权利保护高级管理局,管理法国的著作权保护分级管理系统,并对互联网中的重复侵权行为实施监控。网络服务提供者在一定情形下需要承担对内容进行监控、审查、筛选过滤等义务,否则就可能需要因用户的侵权行为承担责任。

在国际组织层面,经济合作与发展组织(OECD)、二十国集团(G20)、电气和电子工程师协会(IEEE)等相继发布人工智能、算法等伦理指南,推动算法实现透明可视、公平公正、安全可控等。

(四)评析

在一定意义上,根据用户喜好推荐信息、根据用户习惯推荐商品、根据用户偏好设计个性页面,算法推荐技术为我们的生活带来了许多便利。与此同时,滥用算法推荐技术等负面问题也逐渐暴露。这些问题不仅侵害了广大网络用户的合法权益,而且给网络空间的传播秩序、市场秩序、社会秩序带来了负面影响。因此,有必要对算法推荐技术加强规范,防止其消极影响、引导其有序发展。

算法推荐以个性化为特征,符合个人化的需求,在信息分发领域产生巨大的影响,重塑了信息传播规则,改变了人们认知的方式与机制。算法的制定原则在算法推荐中起着塑造信息分发方式、规训个人的作用,通过约束个人进入数字生活、获取信息的自由,达到规制用户行为的目的。在法律、社群规范介入之前,不正当的算法推荐对个人的自主性、隐私权、平等权造成了风险。

在缺少治理的情况下,算法推荐的权力将会不断膨胀,最终引发损害结果。因而也应当对算法推荐技术进行综合性治理,从而为个人自由保留空间,在保障个人权利的前提下发展技术,坚持鼓励支持布局前沿技术,同时坚持政策引导及依法管理,控制风险蔓延,促进信息技术、互联网生态持续健康发展。

整体来看,目前国内算法推荐治理仍处在早期探索阶段,初步建立了算法推荐治理的立法文件。但是,通过梳理国内算法治理热点事件、立法现状等情况可以发现,部分企业在回应舆情或监管要求时才会主动规制算法,存在主观能动性较弱等问题。且与此同时,这些企业的态度则是希望遵循既定的规则,减少合规风险,而不是自己主动去规制算法内容。因此,从这一角度来说,未来可以在现有算法推荐相关法规的基础上,综合考虑算法的应用场景、处理数据的风险程度、算法使用的正向效益和可能的社会危害等多种维度,进一步细化算法推荐监管的分类分级,落实多层次场景化、精细化的分级分类的算法推荐治理工作。

更重要的是,为网络技术树立鲜明的价值导向。算法推荐技术每一次根据用户行为数据进行的特定推荐,无不隐藏着平台的价值判断。因此,运用算法推荐技术应树立向上向善的价值导向,网络科技发展进步更应追求科技为民、科技向善的价值目标。算法推荐服务提供者应自觉坚持主流价值导向,优化算法推荐服务机制,积极传播正能量,呵护健康向上的网络生态。加强监管规范,从根本上有利于算法推荐技术规范发展、健康发展。这需要多方共同参与治理,以实际行动推动算法推荐服务公正公平、规范透明,推动科技发展向上向善,营造更为清朗的网络空间。 jGGvL8VlyZ4m8rIKeuGU/FU6js4ilFLjxB0s39oAnFePrn0o9Qox+OfQgq5n5Puy

点击中间区域
呼出菜单
上一章
目录
下一章
×