购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

2.2 良好行为:理性的概念

理性智能体 (rational agent)是做正确事情的事物。显然,做正确的事情比做错误的事情要好,但是做正确的事情意味着什么呢?

2.2.1 性能度量

道德哲学发展了几种不同“正确事情”的概念,但人工智能通常坚持一种称为 结果主义 (consequentialism)的概念:我们通过结果来评估智能体的行为。当智能体进入环境时,它会根据接受的感知产生一个动作序列。这一动作序列会导致环境经历一系列的状态。如果序列是理想的,则智能体表现良好。这种可取性的概念由 性能度量 (performance measure)描述,该度量评估任何给定环境状态的序列。

人类有自己的欲望和偏好,因此,人类有适用于自身的理性概念。这一概念与成功地选择产生环境状态序列的行动有关,这些环境状态序列从人类的角度来看是可取的。但是,机器没有自己的欲望和偏好,至少在最初,性能度量是在机器设计者的头脑中或者是在机器受众的头脑中。我们将看到,一些智能体设计具有性能度量的显式表示(一个版本),而在其他设计中,性能度量完全是隐式的,智能体可能会做正确的事情,但它不知道为什么。

回顾诺伯特·维纳的警告,以确保“施以机器的目的是我们真正想要的目的”(1.5节),注意,正确地制定性能度量可能非常困难。例如,考虑2.1节中的真空吸尘器智能体,我们可能会建议用单个8小时班次中清理的灰尘量来度量性能。当然,有了理性的智能体,你所要求的就是你所得到的。然而一个理性的智能体可以通过清理灰尘,然后将其全部倾倒在地板上,然后再次清理,如此反复,从而最大化这一性能度量。更合适的性能度量是奖励拥有干净地板的智能体。例如,在每个时间步中,每个干净的方格都可以获得1分(可能会对耗电和产生的噪音进行惩罚)。 作为一般规则,更好的做法是根据一个人在环境中真正想要实现的目标,而不是根据一个人认为智能体应该如何表现来设计性能 度量

即使避免了明显的缺陷,一些棘手的问题仍然存在。例如,上一段中“干净地板”的概念是基于一段时间内的平均整洁度。然而,两个不同的智能体可以达到相同的平均整洁度,其中一个智能体工作始终保持一般水平,而另一个智能体短时间工作效率很高但需要长时间的休息。哪种工作方式更可取似乎是保洁科学的好课题,但实际上这是一个具有深远影响的深刻哲学问题。大起大落、不计后果的生活,和安全但单调的生活,哪个更好?一个人人都生活在中度贫困的经济体,和一个有些人生活富裕而另一些人非常贫困的经济体,哪个更好?我们把这些问题留给勤奋的读者作为习题。

对于本书的大部分内容,我们将假设性能度量可以正确地指定。然而,出于前面所述原因,我们必须接受这样一种可能性:我们可能会将错误的目的施加给机器,确切地说,就是1.5节描述的迈达斯国王问题。此外,当设计一款软件(其副本将属于不同的用户)时,我们无法预测每个用户的确切偏好。因此,我们可能需要构建相应的智能体,它能够反映真实性能度量的初始不确定性,并随着时间的推移对其了解更多,第16章、第18章和第22章介绍了此类智能体。

2.2.2 理性

在任何时候,理性取决于以下4方面:

定义成功标准的性能度量;

智能体对环境的先验知识;

智能体可以执行的动作;

智能体到目前为止的感知序列。

这引出了 理性智能体的定义

对于每个可能的感知序列,给定感知序列提供的证据和智能体所拥有的任何先验知识,理性智能体应该选择一个期望最大化其性能度量的动作。

考虑一个简单的真空吸尘器智能体,如果一个方格是脏的就清理它,如果不脏就移动到另一个方格,这就是图2-3中给出的智能体函数。它是理性智能体吗?这需要看情况了!首先,我们需要说明性能度量是什么,对环境了解多少,以及智能体具有哪些传感器和执行器。我们假设:

在1000个时间步的“生命周期”内,性能度量在每个时间步为每个干净的方格奖励1分;

环境的“地理信息”是先验的(图2-2),但灰尘的分布和智能体的初始位置不是先验的,干净的方格会继续保持干净,吸尘( Suck )动作会清理当前方格,向左( Left )或向右( Right )的动作使智能体移动一个方格,如果该动作会让智能体移动到环境之外,智能体将保持在原来的位置;

可用的动作仅有向右( Right )、向左( Left )和吸尘( Su ck );

智能体能够正确感知其位置以及该位置是否有灰尘。

在这种情况下,智能体确实是理性的,它的预期性能至少与任何其他智能体一样。

显而易见,同一个智能体在不同的情况下可能会变得不理性。例如,一旦清除了所有灰尘,该智能体将会毫无必要地反复来回;如果性能度量考虑对每个动作罚1分,那么智能体的表现就会很差。在确定所有方格都干净的情况下,一个更好的智能体不会做任何事情。如果干净的方格可能再次变脏,智能体应该偶尔检查,并在必要时重新清理。如果环境的地理信息是未知的,智能体则需要对其进行 探索 (explore)。习题2.VACR要求在这些情况下设计智能体。

2.2.3 全知、学习和自主

我们需要仔细区分理性和 全知 (omniscience)。全知的智能体能预知其行动的实际结果,并能据此采取行动,但在现实中,全知是不可能的。考虑这样一个例子:有一天我正沿着香榭丽舍大街散步,我看到街对面的一位老朋友。附近没有车流,我也没有别的事要做,所以理性上,我会开始过马路。与此同时,在 10千米的高空,一架飞过的客机上有一扇货舱门脱落下来 ,在我到达马路对面之前,我就被压扁了。我过马路是不理性的吗?我的讣告上不太可能写“试图过马路的白痴”。

这个例子表明,理性不等同于完美。理性使期望性能最大化,而完美使实际性能最大化。不要求完美不仅仅是对智能体公平的问题。关键是,如果我们期望一个智能体做事后证明是最好的行动,就不可能设计一个符合规范的智能体,除非我们改进占卜水晶球或时间机器的性能。

因此,我们对理性的定义并不需要全知,因为理性决策只取决于迄今为止的感知序列。我们还必须确保我们没有无意中允许智能体进行低智的行动。例如,如果一个智能体在穿过繁忙的道路之前没有向两边看,那么它的感知序列将不会告诉它有一辆大卡车正在以高速接近。我们对理性的定义是不是说现在就可以过马路了?绝非如此!

首先,考虑到这种缺乏信息的感知序列,过马路是不理性的:不观察路况就过马路发生事故的风险太大。其次,理性智能体在上街之前应该选择“观察”动作,因为观察有助于最大化期望性能。采取行动来改变未来的感知,有时被称为 信息收集 (information gathering),这是理性的一个重要组成部分,将在第16章中详细介绍。信息收集的另一个例子是真空吸尘器在最初未知的环境中必须进行的 探索 (exploration)。

我们的定义要求理性智能体不仅要收集信息,还要尽可能多地从它所感知到的东西中 学习 (learn)。智能体的初始配置可以反映对环境的一些先验知识,但随着智能体获得经验,这可能会被修改和增强。在一些极端情况下,环境完全是先验已知的和完全可预测的。在这种情况下,智能体不需要感知或学习,只需正确地运行。

当然,这样的智能体是脆弱的。如卑微的粪甲虫例子,在挖出巢穴产卵后,它会从附近的一堆粪中取出一团粪来堵住入口。如果粪球在途中被截下,粪甲虫根本不会注意到粪球已经不见了,仍会继续它的任务,并滑稽地用不存在的粪球堵住巢穴。进化已经在粪甲虫的行为中建立了一个假设,当它被违反时,不成功的行为就会产生。

稍微聪明一点的是掘土黄蜂。雌性掘土黄蜂会挖一个洞,出去刺一只毛毛虫并把它拖到洞口,再次进入洞里检查一切是否正常,然后把毛毛虫拖进洞里再去产卵。当蜂卵孵化时,毛毛虫会充当食物来源。到目前为止还不错,但如果昆虫学家在掘土黄蜂检查洞穴时将毛毛虫移动几厘米远,它将回到其规划中的“把毛毛虫拖到洞口”步骤,即使经过数十次移动毛毛虫的干预,它仍然继续执行该规划而不进行修改,不断地重新检查洞穴。掘土黄蜂无法知道其固有规划正在失败,因此不会改变规划。

如果在某种程度上,智能体依赖于其设计者的先验知识,而不是其自身的感知和学习过程,我们就说该智能体缺乏 自主性 (autonomy)。一个理性的智能体应该是自主的,它应该学习如何弥补部分或不正确的先验知识。例如,能学习预测何时何地会出现额外灰尘的真空吸尘器比不能学习预测的要好。

实际上,我们很少从一开始就要求智能体完全自主:除非设计者提供一些帮助,否则当智能体几乎没有经验或完全没有经验时,它将不得不随机行动。正如进化为动物提供了足够的内建反射,使其能够生存足够长的时间来学习一样,为人工智能体提供一些初始知识和学习能力也是合理的。在充分体验相应环境后,理性智能体的行为可以有效地独立于其先验知识。因此,结合学习能够让我们设计单个理性智能体,它能在各种各样的环境中取得成功。 s9L+DOMHVjtSOHsjl44qAfP4cU3p+PLF0V2yPqAaGknogNRY8Y5uxLH6LVkJtyHn

点击中间区域
呼出菜单
上一章
目录
下一章
×