任何强大的技术都是一把双刃剑。比如电力可以为人类社会的日常设施提供动力,但如果人直接碰触电,就可能丧失性命。再如互联网让一切变得更加方便,但也大幅降低了人对事物的专注力。那么,深度学习在给人类带来便利的同时,又会带来什么问题呢?
第一个问题是,深度学习会使AI比你更了解你自己。虽然好处显而易见──AI可以向你推荐以前没有听说过的商品,可以精准地为你推荐伴侣或者朋友,但事情的另一面是,AI也会掌握你的缺点——你有没有过这样的经历:本来只想打开抖音看一个视频,却刷了3个小时还停不下来?在哔哩哔哩上无意中点击了一个鬼畜视频,然后就源源不断地接收到更多的鬼畜内容?某天晚上不小心在网络电台点播了一个恐怖故事,之后的每个深夜都会定时被恐怖故事惊扰?
奈飞平台2020年的高分纪录片《智能陷阱》就展现了AI个性化推荐如何让人们在无意识中被操纵,使AI应用程序背后的利益方达成目的。正如在纪录片中出镜的谷歌前产品设计师、设计伦理学家特里斯坦·哈里斯所说的那样,你在手机上的每次点击都会激活价值数十亿美元的超级计算机,它会根据从20亿用户的行为中学习到和提取到的经验,对准你的大脑,企图左右你的思维。对于用户来说,对个性化推荐上瘾的行为会导致恶性循环。AI应用程序为用户提供符合其特征的个性化推荐,使用户不断接收到其所偏好的信息,然后就不知不觉逐渐被困在“信息茧房”里,拒绝接收不符合其固有认知的异质信息。应用程序根据用户接收信息的行为特征,向用户推荐更多的其所偏好的同质信息,从而使用户陷入“乐此不疲”的快感,难以自拔,无法戒掉这些应用程序。这种机制对于用户来说是恶性循环,但对那些把这种机制当作印钞机的大型互联网公司来说,却是良性循环。
这部纪录片还提出了一种观点:如果人们对AI的个性化推荐上瘾,这类应用程序就可能缩窄人们的视野、扭曲事实的真相、加剧社会的分化,对人类的情绪、心理健康、幸福感等方面造成负面影响。
从技术层面来说,上述问题的关键在于目标函数的单一性,以及AI专注于优化单一目标函数所带来的不利的外部效应——如今,AI所训练的目标函数通常针对的是单一目标,例如赚钱(或者更多的点击量、广告),因此,AI有可能过度热衷于企业的目标绩效,而不考虑用户的福祉。
《一叶知命》中的象头神保险公司承诺尽量降低保费,由于保费的数额与投保人的重大疾病索赔概率高度相关,“金色小象”会给用户提供养生建议,让用户改善自己的健康状况。从表面来看,保险公司和投保人的目标似乎是一致的,然而在故事中,象头神保险公司的AI系统计算出“高种姓”的纳亚娜和“低种姓”的男生萨赫杰之间的恋爱关系会增加纳亚娜一家将来的保费,所以不断试图阻挠这对年轻人相恋。象头神保险公司的AI系统经过海量数据的训练,能够发现事物之间的因果关系,例如基于同一个目标函数,通过分析数据,发现吸烟会导致患病的风险升高,于是说服用户戒烟,这是好事情。但另一方面,AI系统还发现,和“低种姓”的萨赫杰在一起会拖累纳亚娜,这就导致了AI系统尝试残忍地拆散这对情侣,甚至可能因此而进一步加剧社会的不平等。
那么,如何才能解决这个问题呢?一种通用的方法是让AI的目标函数变得不再单一。例如既要降低保费,又要维护社会的公平;再如对于权衡用户花在社交网络上的时间这个问题,特里斯坦·哈里斯建议把“用户在社交网络上花费的有意义的时间”也作为衡量标准之一,而不是仅限于“用户在社交网络上停留的时长”,通过同时考量这两者,制定出混合型的复杂目标函数。AI专家斯图尔特·拉塞尔(Stuart Russell)提出了另一种解决方法,他主张在设计目标函数时需要考虑人类的福祉,并让人类更大程度地参与数据标注和目标函数的设计,比如我们能否建立关于“更大的人类利益”的目标函数——诸如“人类的幸福”之类的目标函数?能否让人类来定义和标注什么是幸福?这方面的尝试,将在第九章《幸福岛》中做详细的阐述。
所有这些方法,不仅需要对AI的复杂目标函数展开更加深入的研究,而且需要对“所花费的有意义的时间”“维护社会公平”“幸福”等概念进行量化。不过,这些方法会使企业的盈利变少,那么如何激励企业让步做正确的事情呢?一种方法是制定法规,对某些伤害人类福祉的行为给予处罚;另一种方法是对企业承担社会责任的行为进行评价,比如目前ESG 得到了越来越多的来自商业界的关注,或许负责任地使用AI也可以成为未来ESG的一部分,以鼓励企业的正面行为;还有一种方法是建立第三方监管机构,监督企业对技术是否有不当使用,例如追踪产品中出现虚假新闻的比例或AI算法导致歧视的诉讼案件数量,并向企业施压,要求企业把考虑用户的福祉纳入技术中;最后,特别困难但又特别有效的一种方法是,确保AI技术持有者的利益与每个用户的利益达成100%的一致(参见第九章《幸福岛》)。
深度学习所带来的第二个问题,就是会使不公平和偏见得以延续。AI完全基于数据优化和结果优化进行决策,理论上应该比大部分人更加不受偏见的影响,但是,其实AI也可能产生偏见。比如,倘若用于训练AI的数据不够充分、全面,对某些群体的覆盖率不足,那么就会产生偏见。曾经有一家著名公司的招聘部门发现,因为训练样本中女性的数据不够,其所使用的AI软件不看好女性候选人。再如,倘若训练数据全部收集自一个有偏见的环境,那么数据本身就可能带有偏见。微软的Tay对话机器人和OpenAI的语言模型GPT-3,都生成过歧视少数群体的言论。
最近有研究表明,AI可以基于面部微表情精准地推断一个人的性取向,这种AI应用就可能导致不公平和偏见。这与《一叶知命》中萨赫杰所遭遇的情况类似,萨赫杰的“低种姓”并不是直接标注给AI系统的,而是AI系统通过历史数据和个人特征推断出来的。换句话说,萨赫杰并没有被直接贴上“达利特”的标签,但因为他的数据和特征与“达利特”高度相关,所以象头神保险公司的AI系统向纳亚娜发出警告,并且阻挠她与萨赫杰在一起。尽管这些偏见和歧视并非出于AI的本意,但是仍会造成极其严重的后果,而且如果把带有偏见的AI应用于医学诊断或者司法判定,那么其风险将无法想象。
因此,我们需要全力以赴应对AI的公平性问题和偏见问题。第一,使用AI的公司应该披露AI系统被用在哪里以及使用目的。第二,AI工程师应该接受一套职业道德准则的培训——类似医学生宣誓用的“希波克拉底誓言”。这样,工程师才能深刻地理解,他们所从事的职业使他们承担了把事关伦理道德的重要决策嵌入产品之中的任务,这是足以改变他人人生轨迹的事情,工程师有责任承诺维护用户的权益。第三,工程师使用的AI训练工具应该嵌入严格的测试机制,以对基于样本比例不公平的数据训练出来的计算模型发出警告或彻底禁止生成模型。第四,应该制定AI审计法。这与传统的财务审计或税务审计类似,AI公司被举报后,政府需要派遣专家对其进行审计。如果一家公司在AI的伦理道德或者公平性方面多次被投诉,它的AI算法就必须接受审计,以检查、确定其是否存在不公平、偏见或隐私保护方面的漏洞。
深度学习的第三个问题,就是它的不可解释性。人类总是能解释人类决策背后的原因,因为人类的决策过程本身比较简单,是基于经验积累得出的规则。可是,深度学习的决策基于复杂的方程组,这种方程组有数千个特征和数百万个参数,深度学习决策的“理由”,就是在一个有数千个维度的“空间”里经过海量数据训练而得出的数学方程组,要把这个方程组精确地简化成一个人类可以听得懂的“原因”,基本上是不可能的。但是,无论是出于法律的考量,还是出于用户的期望,许多关键的AI决策都需要给出一个解释。为了解决这一问题,人们目前正在进行许多相关的研究,这些研究试图简化、总结AI复杂的逻辑过程,或者发明具有可解释性框架的AI算法,从而使AI变得更加“透明”。
上面所提到的这些深度学习所带来的问题,已经引起了公众对AI的严重不信任。不过,所有的新技术都有缺点,而,历史表明,许多技术的早期漏洞都将随着时间的推移而得到纠正或被彻底解决。大家可以回想一下,当年防止人类触电的断路器,还有查杀电脑病毒的杀毒软件,就是很好的例子。因此我相信,未来通过改进技术和完善政策法规,将会解决深度学习(乃至AI)所带来的大部分问题,比如不公平、偏见、不透明。然而重要的是,我们必须追随纳亚娜和萨赫杰的脚步——让人们意识到这些问题的严重性,然后动员人们为解决问题而努力。