购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

关于人工智能的三大误区

当离开波多黎各时,我坚信关于人工智能未来的对话应该持续下去,因为这是我们这个时代最重要的对话 。这场对话关乎我们所有人的未来,不应该只局限于人工智能研究者参与。这就是我写这本书的原因:

我希望你,我亲爱的读者,也能够加入这场对话。你想要什么样的未来?我们应不应该开发致命的自动化武器?你希望职业自动化发展成什么样?你会对今天的孩子提供哪些职场建议?你更希望看到新职业取代旧职业,还是一个不需要工作的社会,在那里,人人都可以享受无尽的闲暇时光和机器创造出来的财富?再进一步,你是否希望我们创造出生命3.0,并把它散播到宇宙各处?我们会控制智能机器,还是仅被它们控制?智能机器会取代我们,与我们共存,还是会与我们融为一体?人工智能时代,作为“人”,究竟意味着什么?你又希望它意味着什么?我们如何才能让未来变成自己想要的样子?

《生命3.0》这本书的目的是帮助你加入这场对话。正如我在前面所说,关于人工智能,存在许多迷人的争议,世界顶级专家们也难以达成共识。不过,我也见过许多无聊的“伪争议”,究其原因就是,有些人只是误解了对方的意思,所以各执一词,互不相让。为了帮助我们聚焦在那些最有趣的争议和开放式的问题之上,而不是在误解上继续纠缠,让我们先来澄清一些最常见的误解。

我们平时经常使用“生命”“智能”和“意识”这类词语,但它们其实存在许多不同的定义。有时候,人们并没有注意到,当他们使用这些词语时,表达的意思却各不相同,所以许多误解由此而生。为了避免你我也掉入这个陷阱,在表1-1中,我列举了在本书中我提到这些词时所表达的意思,作为备忘。其中一些定义,我到后面的章节中才会正式地介绍和解释。请注意,我并不是说我的定义比其他人的更好,我只是想在这里澄清我想表达的意思,以避免被误解。你将看到,我通常会把某个东西的定义下得广一些,让它们不仅可以用在人类身上,也可以用在机器身上,以避免“人类中心主义”的偏见。请你现在看一看这张备忘表。如果你在读后面的章节时,对某些词的定义感到困惑,也希望你回到这张表,再看一看,特别是读到第4~8章时。

表1-1 名词备忘表

续前表

注:关于人工智能的许多误解都是由人们对上述词语的不同定义造成的,这个表中列举的是我在《生命3.0》这本书里对它们的定义,其中一些词语,我在后面的章节才会正式地介绍和解释。

除了词汇上面的混淆,我还见过许多与人工智能有关的对话,因为一些简单的误区而走上歧路。下面我来澄清一些最常见的误区。

时间线的误区:通用人工智能什么时候会出现

第一个误区与图1-2中的时间线有关:究竟什么时候,机器才能进化为极大超越人类水平的通用人工智能呢?一个常见的误区是(如图1-5所示),认为这个问题的答案十分确定。

图1-5 关于超级智能的常见误区

一个流行的错误观点是,超人类水平的通用人工智能一定会在21世纪内实现。实际上,历史上充满了天花乱坠的技术宣言。核聚变发电厂和飞天汽车在哪儿呢?照某些人的承诺,这些东西应该早就实现了。同样地,人工智能在过去也被一次又一次地吹捧上天,始作俑者甚至包括一些人工智能的奠基者,比如,提出了“AI”这个概念的约翰·麦卡锡、马文·明斯基 、纳撒尼尔·罗切斯特和克劳德·香农一起写出了下面这段过于乐观的预言 ,当时,他们打算用“石器时代”的计算机大干两个月,来实现一些目标:

1956年夏天,我们将在达特茅斯学院进行一项由10个人组成的为期两个月的人工智能研究……研究的主题是:如何让机器使用语言、进行抽象思考和形成概念,让它们解决目前只能由人类解决的问题,并自我改善。我们认为,如果仔细甄选一些科学家,组成一个团队,在一起工作一个夏天,就能在一个或多个问题上取得重大进展。

然而,与此相反的另一个流行的错误观点是,超人类水平的通用人工智能在21世纪内一定不会实现。关于我们离实现它还有多远,研究者的评估范围很广泛,但我们并不能信誓旦旦地肯定21世纪内实现它的可能性为零。技术怀疑主义者曾做出过许多令人沮丧的消极预测,后来也被证明不符合事实。欧内斯特·卢瑟福(Ernest Rutherford)可能是他那个年代最伟大的原子核物理学家,他在1933年说,核能就是一派空谈,而不到24小时,美国原子核物理学家利奥·西拉德(Leo Szilard)就创造了核链式反应;1956年,英国皇家天文学家理查德·伍利(Richard Woolley)认为,太空旅行“完全是一派胡言”。这个误区最极端的观点是认为超人类水平的通用人工智能永远不会到来,因为在物理学上不可能实现。然而,物理学家知道,大脑中的夸克和电子组合起来不正像一台超级计算机吗?并且,没有哪个物理定律说我们不能建造出比大脑更智能的夸克团。

有人对人工智能研究者进行了一些调查,请他们预测多少年之后,人类水平的通用人工智能实现的可能性将达到至少50%。所有这些调查的结果都一样:世界顶级专家各执一词,因此我们根本不知道答案。 在波多黎各会议上,我们也进行了一次这样的调研,答案的平均数是2055年,但有些研究者认为需要几百年,甚至更久。

还有一个相关的误区是,认为担忧人工智能的人总以为它不出几年就会降临。实际上,有记录显示,大多数担忧超人类水平的通用人工智能的人都认为,它至少还有几十年才会实现。不过,他们认为,只要我们并不是百分之百肯定,它一定不会发生在21世纪内,那么最好尽快开展人工智能安全性研究,防患于未然。我们在本书中会读到,许多安全问题的解决是非常困难的,可能需要几十年的时间才能解决。因此,最好从现在就开始进行研究,才是明智之举,而不是等到某些猛灌红牛的程序员决定开启一个人类水平的通用人工智能的前夜才开始亡羊补牢。

关于争议的误区:“卢德分子”不是唯一的担忧者

第二个常见的误区是,认为唯一对人工智能怀有忧虑并支持人工智能安全性研究的一类人,都是对人工智能一窍不通的“卢德分子”。当斯图尔特·罗素在波多黎各的演讲中提到这件事时,观众笑成一片。还有一个相关的误区是,认为支持人工智能安全性研究会招致极大的争议。实际上,若想适度地支持人工智能安全性研究,人们并不需要确认风险是否很高,只需要相信风险不容忽视就行了,就像人们适度地投资房屋保险,只是因为他们认为火灾的可能性不容忽视罢了。

经过我个人的分析发现,媒体报道夸大了人工智能安全性辩论的争议程度。不过,恐惧能带来经济效益。许多宣告世界末日即将来临的文章都是断章取义,但比起那些更微妙平和的文章来说,它们能获得更高的点击率。结果就是,假如辩论双方只从媒体的引述中获悉对方的观点,通常就会高估他们之间的分歧程度。比如,如果一个技术怀疑主义者只从英国通俗小报那里了解比尔·盖茨的观点,那他很可能会错误地认为,盖茨相信超级智能很快就要来临了。同样地,人工智能有益运动支持者如果只知道吴恩达说了“火星人口过剩”这句话,那他也可能会错误地认为,吴恩达完全不关心人工智能的安全性问题。实际上,我知道吴恩达很关心这个问题,只不过,由于他预估的时间长一点,所以他很自然地将人工智能面临的短期挑战放在比长期挑战更重要的位置上。

关于风险类别的误区:不是被赶尽杀绝,而是失去控制权

当我在《每日邮报》 上读到一篇题为“史蒂芬·霍金警告说,机器人的崛起对人类可能造成灾难性的破坏”的头条报道时,我翻了个白眼。我已经数不清这是第几次看到类似的标题了。通常情况下,文章里还会配一张一看就很邪恶的机器人拿着武器的图片,并建议我们应该担忧机器人的崛起,因为它们可能会产生意识并且变得邪恶,然后把我们赶尽杀绝。值得一提的是,这样的文章确实令人印象深刻,因为它们简洁地总结了我的人工智能同行们不会担心的情景。这个情景集合了三个不同的误区,分别是对意识、邪恶和机器人的理解。

当你开车时就会发现,你拥有对颜色、声音等东西的主观体验。但是,一辆无人驾驶汽车是否会拥有主观体验呢?它会不会感觉到作为一辆无人驾驶汽车的感觉?或者,它只是一个没有任何主观体验的无意识“僵尸”?诚然,关于意识的谜题本身是很有趣的,我们将在第8章讨论这个问题,但是,这个问题与人工智能的风险毫无关系。如果你被一辆无人驾驶汽车撞到,它有没有主观意识对你来说没什么两样。同样地,超级智能究竟会如何影响我们人类,只取决于它会做什么,而不取决于它主观上感觉到了什么。

因此,对邪恶机器的恐惧,也没那么重要。 我们真正应该担心的不是它们有没有恶意,而是它们的能力有多强 。从定义上来说,一个超级智能会非常善于实现自己的目标,不管这个目标是什么,因此,我们需要确保它的目标与我们的相一致。举个例子,你可能并不讨厌蚂蚁,也不会出于恶意踩死蚂蚁,但如果你正在负责一个绿色能源的水电项目,在即将淹没的区域里有一处蚁穴,那么,这些蚂蚁便凶多吉少了。人工智能有益运动的目的就是要避免人类处在这些蚂蚁的境地。

对意识的误解与认为“机器不能拥有目标”这一误区有关。狭义地看,机器显然能拥有目标,因为它们能展现出目标导向行为:热跟踪导弹的行为就是为了实现“击中靶标物”这一目标。 如果一台目标与你的目标不一致的机器令你感受到了威胁,那么,狭义地说,令你担忧的正是它的目标,而不是它拥有意识或体验到了意志。 如果一枚热跟踪导弹正在向你袭来,你肯定不会大喊:“我一点儿也不担心,因为机器不能拥有目标!”

通俗小报对人工智能危言耸听的“妖魔化”,令罗德尼·布鲁克斯等机器人先驱感到很不公平。在这点上,我很同情他们,因为一些记者确实十分执着于“机器人叛乱”的题材,并且喜欢在文章中配上眼睛血红的邪恶的金属机器人的图片。实际上,人工智能有益运动支持者最担忧的并不是机器人,而是智能本身 :尤其是那些目标与我们的目标不一致的智能。这种与我们的目标不一致的智能要引发我们的忧虑,并不需要一个机器人的身体,只需要连接互联网即可。 我们将在第4章探讨互联网将如何让人工智能在金融市场上比人类更聪明,获得比人类研究者更高的投资回报率,比人类领袖更善于权谋,并开发出我们无法理解的武器。即使不能建造出实体的机器人,一个超级智能和超级富有的人工智能也能很轻易地收买或操纵大量人类,让他们在不知不觉中执行自己的命令,就像威廉·吉布森(William Gibson)的科幻小说《神经漫游者》( Neuromancer )中所描绘的那样。

对机器人的误解源自“机器不能控制人类”的误区。智能让控制成为可能: 人类能控制老虎,并不是因为我们比老虎强壮,而是因为我们比它们聪明。这意味着,如果我们不再是地球上最聪明的存在,那么,我们也有可能会失去控制权。

图1-5总结了这些常见的误区,这样我们就可以一次性地抛弃它们,并把我们与朋友和同行讨论的焦点集中在那些合情合理的争议上。我们接下来将看到,这些争议可一点儿都不少! np1U5r1pappLTdUPbw6X85+pVwrcEgSocDUm/iHjyxAZmniAPD9xAP7Ot3b5mNmu

点击中间区域
呼出菜单
上一章
目录
下一章
×