购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

1.5 人工智能的风险和收益

弗朗西斯·培根是一位被誉为创造科学方法的哲学家,他在《论古人的智慧》( The Wisdom of the Ancients )(1609)一书中指出:“机械艺术的用途是模糊的,它既可用于治疗,也可用于伤害。”随着人工智能在经济、社会、科学、医疗、金融和军事领域发挥越来越重要的作用,我们应该考虑一下它可能带来的伤害和补救措施——用现代的说法,就是风险和收益。这里总结的话题在第27章和第28章中有更深入的讨论。

首先从收益说起。简而言之,我们的整个文明是人类智慧的产物。如果我们有机会获得更强大的机器智能,我们的理想上限就会大大提高。人工智能和机器人技术可以将人类从繁重的重复性工作中解放出来,并大幅增加商品和服务的生产,这可能预示着一个和平富足的时代的到来。加速科学研究的能力可以治愈疾病,并解决气候变化和资源短缺问题。正如谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)所建议的那样:“首先解决人工智能问题,然后再用人工智能解决其他所有问题。”

然而,早在我们有机会“解决人工智能”之前,我们就会因误用人工智能而招致风险,无论这是无意的还是其他原因。其中一些风险已经很明显,而另一些似乎基于当前趋势。

致命性自主武器: 联合国将其定义为无须人工干预即可定位、选择并击杀人类目标的武器。这种武器的一个主要问题在于它们的可扩展性——不需要人类监督意味着一小群人就可以部署任意数量的武器,并且这些武器的打击目标可以是通过任何可行的识别准则来定义的人类。自主武器所需的技术类似于自动驾驶汽车所需的技术。关于致命性自主武器潜在风险的非正式专家讨论始于2014年的联合国会议,并于2017年进入正式的官方专家组的条约审议阶段。

监视和劝诱: 安全人员监视电话线路、视频摄像头、电子邮件和其他消息渠道的代价昂贵、乏味且存在法律问题,但可以以一种可扩展的方式使用人工智能(语音识别、计算机视觉、自然语言理解)对个人进行大规模监视并检测感兴趣的活动。基于机器学习技术,通过社交媒体为个人量身定制信息流,可以在一定程度上修改和控制政治行为,这一问题在2016年开始的美国总统选举中变得显而易见。

有偏决策: 在评估假释和贷款申请等任务中,粗心或故意滥用机器学习算法可能会导致因种族、性别或其他受保护类别而产生有偏见的决策。通常,数据本身反映了社会中普遍存在的偏见。

就业影响: 关于机器会减少工作岗位的担忧由来已久。故事从来都不是简单的。机器能够完成一些人类可能会做的工作,但它们也让人类更有生产力,因此更适合被雇佣;让公司更具盈利能力,因此能够支付更高的工资。它们可能使一些本来不切实际的活动在经济上可行。它们的使用通常会导致财富增加,但往往会将财富从劳动力向资本转移,从而进一步加剧不平等。之前的技术进步(如机械织布机的发明),对就业造成了严重的影响,但最终人们还是找到了新的工作。另外,人工智能也有可能从事这些新的工作。这个话题正迅速成为世界各地经济学家和政府关注的焦点。

安全关键的应用: 随着人工智能技术的进步,它们越来越多地应用于高风险、安全关键的应用,如驾驶汽车和管理城市供水。已经发生过致命事故,这凸显了对使用机器学习技术开发的系统进行正式验证和统计风险分析的困难。人工智能领域需要制定技术和道德标准,至少要与其他工程和医疗领域中普遍存在的标准相当,而这些标准关乎人们的生命。

网络安全: 人工智能技术可用于防御网络攻击,如检测异常的行为模式,但这些技术也能用于增强恶意软件的威力、生存能力和扩散能力。例如,强化学习方法已被用于创建高效的工具,这些工具可以进行自动化、个性化的勒索和钓鱼攻击。

我们将在27.3节更深入地讨论这些主题。随着人工智能系统变得越来越强大,它们将更多承担以前由人类扮演的社会角色。正如人类过去曾利用这些角色作恶一样,可以预见,人类可能会在这些角色中滥用人工智能系统而作恶更多。上面给出的所有例子都指出了治理的重要性,以及最终监管的重要性。目前,研究团体和参与人工智能研究的主要公司已经为人工智能相关活动制定了自愿自治原则(见27.3节)。各国政府和国际组织正在设立咨询机构,为每个具体的用例制定适当的条例,准备应对经济和社会影响,并利用人工智能的能力来解决重大的社会问题。

长期来看呢?我们能否实现长期以来的目标:创造出与人类智力相当或更强大的智能?如果我们做到了,然后呢?

在人工智能的大部分历史上,这些问题都被日常工作所掩盖——让人工智能系统做任何事情,哪怕是远程智能。与任何广泛的学科一样,绝大多数人工智能研究人员专注于特定的子领域,例如博弈、知识表示、视觉或自然语言理解,通常假设这些子领域的进展将有助于实现更广泛的人工智能目标。尼尔斯·约翰·尼尔森(Nils John Nilsson)(Nilsson, 1995)作为SRI的Shakey项目的最初负责人之一,提醒了该领域那些更广泛的目标,并警告说这些子领域本身有成为目标的风险。后来,一些有影响力的人工智能创始人,包括约翰·麦卡锡(McCarthy, 2007)、马文·明斯基(Minsky, 2007)和帕特里克·温斯顿(Beal and Winston, 2009),都认同尼尔森的警告,认为人工智能应该回归其本源,而不是专注于具体应用中可衡量的性能,用赫伯特·西蒙的话来说就是“会思考、会学习、会创造的机器”。他们将这种努力方向称为 人类级别的人工智能 (human-level AI,HLAI)——机器应该能够学会做人类可以做到的任何事情。他们在2004年召开了第一次研讨会(Minsky et al. , 2004)。另一个有着类似目标的工作是 通用人工智能 (artificial general Intelligence,AGI)运动(Goertzel and Pennachin, 2007),在2008年举行了第一次会议并组织出版了 The Journal of Artificial General Intelligen ce

大约在同一时间,人们担心创造远远超过人类能力的 超级人工智能 (artificial superintelligence,ASI)可能是个坏主意(Yudkowsky, 2008; Omohundro, 2008)。图灵(Turing, 1996)在1951年曼彻斯特的一场演讲中也提出了同样的观点,他借鉴了塞缪尔·巴特勒(Samuel Butler)(Butler, 1863)的早期观点: [1]

似乎很可能,机器思维方法一旦开始,用不了多久它就会超越我们微弱的力量……因此,在某个阶段,我们应该需要期待机器能够受控制,就像塞缪尔·巴特勒在 Erewhon 中所提到的那样。

随着深度学习方面的最新进展,尼克·波斯特洛姆(Nick Bostrom)的《超级智能》( Superintelligence )(2014)等图书的出版,以及斯蒂芬·霍金(Stephen Hawking)、比尔·盖茨(Bill Gates)、马丁·里斯(Martin Rees)和埃隆·马斯克(Elon Musk)的公开声明,这些担忧只会变得更加普遍。

对创造超级智能机器的想法产生普遍的不安感是自然的。我们可以称之为 大猩猩问题 (gorilla problem):大约700万年前,一种现已灭绝的灵长类进化了,一个分支进化为大猩猩,另一个分支进化为人类。今天,大猩猩对人类分支不太满意,大猩猩根本无法控制自己的未来。如果这是成功创造出超级人工智能的结果(人类放弃对未来的控制),那么我们也许应该停止人工智能的研究,并且作为一个必然的结果,放弃人工智能可能带来的好处。这就是图灵警告的本质:我们可能无法控制比我们更聪明的机器。

如果超级人工智能是一个来自外太空的黑匣子,那么谨慎地打开这个黑匣子确实是明智之举。但事实并非如此:我们设计了人工智能系统,所以如果它们最终“掌控了自己”,那将是设计失败的结果(正如图灵所说)。

为了避免这种结果,我们需要了解潜在失败的根源。诺伯特·维纳(Wiener, 1960)在看到亚瑟·塞缪尔的西洋跳棋程序学会下棋并打败其创造者后,开始考虑人工智能的长远未来,他说:

如果我们为了达到目的而使用一个我们无法有效干预其运作方式的机械智能体……那么我们最好能完全确定设定给机器的目标是我们真正想要实现的。

许多文化都有关于人类向神灵、精灵、魔术师或魔鬼索取东西的神话。在这些故事中,他们总是得到了他们真正想要的东西并最终后悔。如果还有第三个愿望的话,那就是撤销前两个。我们将其称为 迈达斯国王问题 (King Midas problem):迈达斯是希腊神话中的传奇国王,他要求他所接触的一切都变成黄金,但他在接触了他的食物、饮料和家人后,就后悔了。 1.1.5节中我们已经提到过这个问题,将固定目标设定给机器的标准模型需要进行重大修改。解决维纳困境的方法根本不是“给机器设定一个明确的目的”。相反,我们希望机器努力实现人类的目标,但知道它们并不确切地知道这些目标是什么。

遗憾的是,迄今为止,几乎所有的人工智能研究都是在标准模型下进行的,这意味着这版书中几乎所有的技术材料都反映了这一知识框架。然而,在新框架内已经有一些初步成果。在第16章中,我们指出,当且仅当机器对人类的目标不确定时,机器才有积极的动机允许自己关闭。在第18章中,我们设计并研究 辅助博弈 (assistance game),它在数学上描述了一种情况,即人类有一个目标而机器试图实现它,但最初不确定目标是什么。在第22章中,我们解释 逆向强化学习 (inverse reinforcement learning)的方法,它允许机器通过观察人类的选择来更多地了解人类的偏好。在第27章中,我们探讨两个主要的困难:首先,我们的选择取决于我们的偏好,这是通过一个非常复杂、难以逆向的认知结构来实现的;其次,我们人类可能在一开始就没有一致的偏好(无论是作为个人还是作为一个群体),所以人工智能系统可能并不清楚应该为我们做什么。

[1] 甚至在更早的1847年,《原始解释者》( Primitive Expounder )的编辑理查德·桑顿(Richard Thornton)就对机械计算器大加抨击:“思想……超越自身,并通过发明机器进行自我思考来消除自身存在的必要性……但是谁知道,当这种机器变得更加完美的时候,它会不会想出一个规划来弥补自己的所有缺陷,然后想出超出常人所能理解的思想!” s/7s4U1vo50qoqvkoxKbjMe1zsJy7R/6WEA/MjI1oyLJZTtBOM7VOtwrt2UKmJ4a

点击中间区域
呼出菜单
上一章
目录
下一章
×