购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

四、重点观察之二:算法过滤的法律规制

(一)问题简述

算法过滤也可称为算法比对,是指在无须人为干预下,通过算法决策,自动过滤疑似侵权内容或禁止对疑似侵权内容的访问。 其实质是将版权规则转化为算法代码,利用人工智能学习算法以执行版权规则进而遏制网络盗版行为。

过去,最为常见的技术过滤方法包括:利用网络内容标签进行过滤、对人工选定的统一资源定位符(URL)地址信息的过滤、利用内容关键词进行过滤、基于视频时长的过滤、基于智能内容分析的过滤等。 但前述过滤方法存在识别疑似侵权内容出错率高以及人工干预成本高的问题,故逐渐为现行基于智能内容分析的过滤方法 所取代。现今,算法过滤技术已成为网络版权治理不可或缺的力量。例如,某文档资源集合平台2011年上线的DNA反盗版文档识别系统就是利用算法过滤技术将版权人提供的正版作品建成资源库,与网络用户上传的文档进行比对以识别和拦截侵权内容。某视频网站2007年起采用的内容身份系统(Content ID)核心技术也是算法过滤,网络服务平台可以根据其与版权人的约定直接过滤侵权视频。

然而,算法过滤在帮助版权人和网络服务平台发现和筛查侵权内容产生积极效应的同时,也面临着一些问题。对于网络服务平台而言,在算法“通知—删除”路径下,网络用户、版权人、网络服务平台三者相互独立,版权人发出删除通知后需要经过网络服务平台审核,还有可能收到网络用户发出的反通知,侵权错误认定的纠偏机制避免了网络服务平台单方主导的可能。但在“算法过滤”路径下,网络服务平台或直接与版权人合作,或间接扮演版权人角色,在对网络版权侵权采取事前审查(制定用户使用协议、采取事先限制)和事后审查(处理已发表内容)的过程中存在突破其原有义务的情形,从而形成网络服务平台单方主导的局面。对于版权人而言,由网络服务平台主导的算法过滤缺乏外部纠偏机制,技术不足的隐蔽性极易形成技术漏洞,加之商业利益被融入网络服务平台自身的价值判断,均会导致版权人参与打击盗版的主动性被弱化。对于网络用户而言,算法本身的伪中立与不透明容易掩饰版权人在与网络服务平台合作过程中滥用算法过滤的行为,从而误伤网络用户合理使用、言论自由的权利。因此,我国立法对于网络平台算法过滤义务的确定仍持审慎的态度,其原因不仅在于算法过滤会对传统“通知—删除”的应用规则产生间接的影响,还在于算法过滤义务所产生的权益风险。

(二)核心争议点

1.算法过滤的隐私危机与言论自由

我国《个人信息保护法》第58条增设了网络服务平台保护个人信息的义务,但未提及在算法过滤中,如何平衡版权人的版权利益与用户的隐私权。实际上,算法过滤造成的隐私边界问题本质上是公众利益与个人权利的碰撞,利益衡量决定隐私权的范围。当个人利益具有相当程度的社会危害性时,必须对隐私权范围做出合理限制,以确保公共信息的自由交流;当社会利益远大于合理限制用户隐私权的社会成本,算法过滤的实施就具有社会正当性。 反之,则可能对网络用户的隐私权造成实质伤害,促成个人甚至集体的隐私危机。因此,算法过滤的设计需要有合理的过滤目的和过滤方式,以确保版权人利益的同时满足网络用户的隐私权需求。

当互联网逐渐取代报纸杂志、电视广播等传统媒体成为主流传播媒介后,其以庞大的信息量和网络服务平台的优势地位影响着言论自由的实现形式, 使得言论所具有的伤害性对网络空间秩序威胁的风险也随之增加。采取必要的技术手段事先过滤危险性言论有利于促进网络空间中言论自由的良性发展,因此算法过滤理论上具备正当性基础,但技术运用过程中无法逃避的命运是技术反过来吞噬孕育技术的自由。 如若将根除危险性言论的希望全部寄托于算法过滤,恐会酿成言论自由被普遍化压制的不利后果。故明晰算法过滤对言论自由的潜在威胁、寻求言论自由威胁最小与保护社会公共秩序的平衡点确有必要。

《即时通信工具公众信息服务发展管理暂行规定》第6条规定,用户注册账号时应与所属的互联网平台签订协议。网络服务平台根据国家法律及相关规范性文件制定用户使用协议及社区规范等一系列平台内部规则,并以内部规则为基础建立平台信息查处机制,以期达成规制互联网言论内容秩序的目的。 继而通过算法过滤的技术运作筛查平台内的言论内容,在违法违规言论尚未得到传播前就禁止该言论的形成。网络服务平台还会采取事后处理已发表内容的机制(网络服务平台主动审查违法言论及网络用户举报触发平台审核)。

在前述“制定用户使用协议”“采取事先限制”和“事后处理已发表内容”三个环节中,网络服务平台通过主导算法过滤对网络用户展开了广泛的规制活动,有滥用技术优势之嫌,增加了网络用户被不当干预的风险。网络服务平台的技术规制与网络用户的言论自由存在一定冲突,主要体现在:第一,虽然用户使用协议是私主体之间的协议,但相较于网络服务平台,网络用户处于弱势地位,协议限制甚至排除了用户的表达权。第二,算法过滤客观存在的技术不足以避免事先限制过程中对言论内容的不当认定,可能导致因无法识别不当内容而屏蔽失败或使本可以通过的内容被过度屏蔽的后果。同时,机械化的过滤不断限缩用户的视野范围,最终形成的信息茧房与言论自由价值导向背道而驰。第三,网络用户对某一信息的举报判断缺乏专业性保障,存在错误举报甚至恶意举报的情形,无论是其触发了网络服务平台的审核抑或网络服务平台主动审查,平台方的专业性亦存在判定难题。

互联网已然成为言论自由的基础设施,其中网络服务平台处在信息传播中的重要节点地位;这一优势地位与影响性促使平台在内容规制中逐渐承担更多的公共治理责任,因此法律应当重新审视网络服务平台的责任标准,对其科加合理的责任。 算法过滤技术正飞速进步,该技术的应用似乎在互联网越发严苛的监管态势下势在必行。但与之对应的是,完备的人工举报和纠错机制也应当受到充分关注,以承载用户的言论自由和隐私安全的保障需求。

2.算法过滤中的制度性歧视

迄今为止,算法歧视的概念在学界尚未达成共识,为避免研究中概念界定模糊,本文拟采用“人工智能自动化决策中,由数据分析失误导致针对特定群体的、系统的、可重复的、不公正对待” 这一定义。需要特别指出的是,在有关大数据和人工智能的讨论中,常将偏见等同于歧视。 实际上,算法偏见和算法歧视是两个不同的概念,二者的区别在于,算法偏见是不可避免的,从某种程度上来说它是算法技术得以应用的前提,而算法歧视才是人工智能技术领域中会造成不良后果的、值得被反思和追问的伦理问题。

在算法歧视形成较为成熟的理论框架前,厘清算法歧视的行为类型有助于找出算法歧视问题的症结,从而进一步探究算法过滤中的制度性歧视及其规制路径。算法歧视的行为类型主要可归结为:基于“受保护特征”的算法歧视、基于“用户画像”的算法歧视、基于“数据代表性不足”的算法歧视。

基于“受保护特征”的算法歧视是特征选择(开发者为实现特定功能有意加入歧视性属性)、偏见代理(看似客观的属性可能与敏感属性关联)和社会代理(社会偏见经由算法自动化决策产生和放大)的结果。如针对种族、肤色、信仰、性别、国籍、残疾和年龄等歧视。基于“用户画像”的算法歧视是根据特定自然人个人特征,算法自动化决策得以针对个人进行个性化定制。如定向广告、个性化定价(大数据杀熟)。基于“数据代表性不足”的算法歧视由数据样本不足导致。如数据贫困群体(残疾人、老年人等弱势群体及经济贫困群体)的数字鸿沟。综上,无论是算法技术产生初期已有的基于“受保护特征”的算法歧视,还是伴随数字经济发展新出现的基于“用户画像”和基于“数据代表性不足”的算法歧视,均为算法过滤环节中难以回避的问题,故算法过滤中的制度性歧视亦可归结为前述三种歧视类型。

算法输出结果之所以含有歧视性因素,既可能源于历史数据中的歧视性因素,也可能源于算法开发者在算法模型和训练中的歧视性导向。 总之,无论歧视性因素是如何被嵌入算法的,不可否认的一点是:算法是人类社会生活的镜像,算法歧视的发生离不开人的介入。且算法本身并不属于法律责任承担的主体,算法歧视所造成的侵权责任的承担最终也应当归结于相关主体之上。对此,有学者认为,算法歧视的责任人应当是算法的开发者和使用者,两主体有责任去识别算法中可能存在的显性或隐性偏见,以确保算法偏见不会转变为算法歧视。具体而言:算法的开发者应当为其有意或无意的不合理设计导致的算法歧视负责;算法的上层使用者(如政府、公司)应当为在不当领域或缺乏监督和补偿机制保障下使用算法导致的算法歧视负责;算法的下层使用者(每一个使用算法的理性人)应当为由明显错误的消极的算法偏见导致的算法歧视负责。

算法歧视是算法伦理缺失所必然带来的算法风险,因而算法歧视并不仅局限于算法过滤之中,而是潜伏在算法自动化决策的各种程序之中。总体而言,算法歧视的治理方向可归纳为强化算法透明度以及科技伦理建设。在具体研究中,仍应当先界定其概念、产生原因,再逐步厘定责任主体、判定标准,以此明确具体的规制进路。

3.网络服务平台的版权过滤义务

2019年,欧盟在《数字单一市场版权指令》(以下简称《版权指令》)中引入网络服务平台的版权过滤义务,对“通知—删除”产生了颠覆性影响,改变了网络版权责任配置模式。《版权指令》将网络服务平台的被动注意义务转变为主动的事前审查义务,规定网络服务平台须尽最大努力获得版权授权,否则将对侵权内容承担连带责任。此举在分担版权人举证责任、将注意义务集中于网络服务平台的同时,也被认为存在侵犯基本权利、损害竞争与创新等问题。

算法过滤技术的运用是网络服务平台信息管理能力提高的体现,可以降低其预防侵权责任的成本,但同时存在一些新问题:第一,可能会导致过度过滤(侵权错误认定)的后果。算法过滤技术强调确定性,而合理使用条款具有灵活性,在算法过滤过程中,容易将合理使用情形误判为侵权使用,从而过滤了未侵权内容。第二,会对“避风港”规则下的版权责任配置模式造成影响。具体而言,算法过滤缩减了“通知—删除”流程,其越过版权人发送删除通知环节,将“通知—删除”两个流程合并为算法过滤。 对“通知—删除”应用规则的改变可能会导致反通知机制的失效,同时网络服务平台的身份也可能从技术中立者转变为主动传播者。

我国当前尚不适合为网络服务平台设置法定的版权过滤义务,但是网络版权内容过滤措施的具体制度安排可以为版权侵权的司法实践提供方向。 从适用主体的范围来看,不能将版权过滤义务“一刀切”地向不同服务类型的网络服务平台施加。对于提供内容发布服务的网络平台而言,对其施加版权过滤义务确实能够快速、有效地控制用户上传的内容,但对于提供基础网络服务和内容存储服务的网络平台而言,采取过滤措施产生的社会成本极高,影响信息传播效率的同时还可能导致对用户合法权益的侵害。而且,由于非营利性质的网络服务平台的运营方式与版权人之间不存在利益冲突,故实施版权内容过滤措施的主体应限制在营利性质的网络服务平台。从过滤标准的选择来看,应由行政管理部门组织专门的技术专家小组,针对不同服务类型、不同规模的网络服务平台设置不同等级的过滤标准,并根据算法技术的发展不断调整。从错误过滤的救济来看,确有必要辅以人工审查,由网络用户向网络服务平台提出错误过滤的异议申请,网络服务平台秉持中立原则,根据异议理由对过滤信息展开人工审查,并于规定时间内向网络用户及时做出回复。此外,网络用户和版权人均可对审查结果向有关部门投诉或向人民法院提起诉讼,否则视为对网络服务平台人工审查结果的认可。

(三)域外立法

当前网络服务平台版权责任规则的变革路径有两种形式,一种是以欧盟为代表的“国家法律”模式,是国家权力的代理机构创制的法律规则,走的是正式的、强制性的道路;另一种是以美国为代表的“自治规则”模式,是私主体在法律规定之外达成的行为规则,走的是非正式的、弱强制性的道路。“自治规则”模式是对“国家法律”模式的有益补充。

1.欧盟

2019年欧洲议会通过《版权指令》,其中第17条对“避风港”规则进行变革:网络服务平台要取得版权人授权,否则其提供服务的行为将被认定为向公众传播或向公众提供行为。根据该指令,承担过滤义务的主体仅包括营利性质的网络服务平台,且网络服务平台需要承担严格的版权注意义务,即必须尽最大努力确保版权作品不被其他用户侵权使用、防止侵权内容被再次上传。虽然《版权指令》并未直接要求网络服务平台承担版权过滤义务,但面临人工审查无法应对海量的侵权信息的现状,采取版权内容过滤措施是当前网络服务平台避免承担侵权责任的最佳方式。

第17条主要的矛盾点在于既明确网络服务平台不承担一般的监控义务,又要求其承担获得授权及过滤的义务。故各成员国在转化、实施该条款过程中产生了不同做法:有些成员国在既有版权立法的框架下加入新的条款,有些成员国制定新的专门法律以执行第17条的规定,有些成员国仅对第17条的规定进行简单的文本翻译,也有成员国在转化过程中规定了新内容。

2.美国

美国是建构网络服务平台版权责任规则的先行者。为了给网络服务平台提供一个相对稳定的法律预期,调和版权人与网络服务平台的利益冲突,美国《数字千年版权法》(DMCA)一直坚持“避风港”规则。DMCA第512条对网络服务平台的版权责任规则作出了系统性规定,仅对网络服务平台施加“红旗”标准的注意义务。该规则的核心是“通知—删除”程序,旨在鼓励版权人和网络服务平台协作以发现并处理数字网络空间中的版权侵权问题。

美国版权局于2020年5月发布关于DMCA的评估研究,认为完善版权立法可以实现通过私人间自愿的技术过滤等非立法方式解决利益冲突,主要包括市场采取的自愿协议(数个网络服务平台与版权人之间达成的版权合作协议)和私人行动倡议(网络服务平台向版权人主动发起合作邀约,版权人可自愿加入)。 私人间版权治理的成功实践表明立法和司法不是版权人与网络服务平台之间利益冲突的唯一解决方式。由于网络版权“自治规则”是网络服务平台与版权人之间根据意思表示所达成的为追求私人利益的产物,在不违反社会公共利益的前提下,自治规则的灵活性和信息成本优势能够能在很大程度上弥补现有规则的不足,更好地兼顾作品的许可利益和传播利益;但该规则与合理使用、隐私权以及言论自由的界限仍有待得到进一步明确,否则容易产生个体在追求自我利益的过程中造成社会公共福利减损的结果。

无论是何种实践类型,网络服务平台自愿采取版权过滤措施的原因在于:海量算法通知的出现和算法推荐商业模式的发展,使得现有法律中的“避风港”规则不再能对网络服务平台的商业行为和风险管理提供足够清晰稳定的法律预期,因此,网络服务平台在商业实践中同样会以版权过滤合作协议的方式为自己搭建起另外一个“避风港”。

(四)评析

算法过滤技术飞速发展,网络版权内容过滤措施应运而生。通过对核心争议点的分析以及域外相关治理方案的梳理,本文集中探讨了算法过滤与网络用户隐私权和言论自由的界限、算法过滤中的制度性歧视以及网络服务平台算法版权过滤义务等问题。在比较法分析中,欧盟和美国分别采取了国家法律模式与自治规则模式。面对域外国家和地区在算法过滤技术治理方面的立法,我们既不能信奉“算法虚无主义”,无视算法技术参与网络内容管理对网络服务平台“避风港”责任规则带来的系统性冲击,也不能迷信“算法万能主义”,夸大算法过滤技术在网络版权环境治理中的实际作用。

我国应立足于当前网络版权保护的现状,明确过滤主体的适用范围,选择合理的过滤标准,建立错误过滤的救济机制。在立法上,应通过规范版权算法决策来强化“通知—删除”程序在智能时代的有效运转;在司法上,应适当提高网络服务平台的版权注意义务,开展司法引导、市场主导的版权过滤实践,待版权过滤实践成熟,再考虑将其法律化。 vc/7arSwJVJ1r6Cc4bDr1bT+9MUXuNBF5sgQJumKbPXGCncrVltXKQvS3mLVW+Rt

点击中间区域
呼出菜单
上一章
目录
下一章
×