购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

技术奇点到达后的世界

既然我们到达这里,那么也不用回避了,让我们站在更高的高度,用更广阔的视野来看待人工智能吧。或许下面讲述的许多地方听起来像科幻小说,但还是希望各位能耐心一下。

首先,看看如何回答下面的疑问:

“在这个广阔的宇宙空间,大小星球密密麻麻,可以说像地球上的沙粒那么多。这么多的星球里面存在高级智慧生物的星球估计不下几千万个,那么发展比地球快的星球也不下几百万个吧,其中一些存在高级智慧生物的星球可能已经到达技术奇点了吧?”

基于这个疑问,我们又产生了下面的疑问:

“到达技术奇点的人工智能,由于它们的智商已经远远超过人类,它们会不会离开这个星球,会不会有兴趣和别的星球上的智慧生命创造出的人工智能交流,进而宇宙旅行呢?”

当然,有这样的疑问也是很自然的事,那么,简单地说,我对此类问题的答案有两种:

一种是YES,另外一种是NO。

悲观论:到达技术奇点之前人类就灭亡了,因此“技术奇点是到达不了的”

上面的问题我说NO的根据是基于这么一个悲观的考虑:“所有的高级智慧生物大概和地球上的人类相似,在技术奇点到来之前,必然由这种高级智慧生物自己创造出的凶恶技术把自己给毁灭了”,换句话说就是“技术一定比使用这种技术的智慧生物要快一步”,这也是一个难以反驳的论点。

尽管目前人工智能还只停留在初级阶段,但是人类已经开发出来“原子能”“转基因”等应该说是可怕的技术。根据日本长崎大学的调查报告,在2016年6月的时间点上,世界上共有1.5万发以上的核弹头,一旦因某事件触发,这些核弹头可以杀掉地球上几乎所有的人。实际上,当年古巴危机的时候,人类离全球灭亡状态已经很近了。

现阶段,制作核武器的技术门槛已经相对降低了许多。也就是说,最早只有美国、苏联这样的超级大国的政治领袖才能掌握的核武器,现阶段,这类凶残的武器有可能到了那些目光短浅、只顾眼前利益的人的手里。

在世界各地,不时出现一些带有邪恶信念或患有精神病的人拿枪乱杀无辜。例如前几年在某赌城发生的枪杀案,一个人用机枪扫射无辜人群,杀了近200人。这样的人如果手里有了核武器,他们可能会巧妙地嫁祸别人——“那是某个国家使用的核武器”,从而挑起世界级别的核战争。

还有,更可怕的是病毒,本来开发新的病毒是以医疗为目的的,一部分科学家为了满足永无止境的探索之心,偏离了方向,或许开发出来(或者说已经开发出来)“无论在任何人类环境中都能够生存、能够轻易传染给人类且在相应抗生素研发出来之前快速扩散、毒性非常之强的人工病毒”。

稍有不慎,这样的病毒传播出来,麻烦就大了。病毒由人传给人,在全世界范围内扩散,或许能够在短时间内把人类杀干净。

第一种乐观论:用人工智能来拯救我们自己

再回头看答案是YES的情况下会发生什么:在大灾难发生之前,人工智能已经到达技术奇点,把地球上的智慧动物(人类)给控制起来,这样就防止了灾难的发生。

第2章会详细考察人类的“宗教”问题。先前,人们把“超出人类智慧水准的而且左右人类实际生活的自然现象”当作神一般的存在,如果现在人们把“超出了人类智慧且一样左右我们生活的人工智能”认作为“神”,你还会犹豫吗?

一方面,之前的年代,人们存在这样的思维方式:“把事情交给‘神’去办,或委托给‘神’,那是最安全的”。那么,现在呢?如果认为:“把事情交给‘神’去办,或委托给‘神’,那是最安全的”,即使有这样的想法,或许也是很正常的。那么,在这个时间点上,人工智能就是人类的新的“神”!

另一方面,人工智能本身大概也不会考虑把人类灭亡,因为没有理由这么做,或者更保守地说,人工智能在各种选择和不选择前面,不选择灭掉人类的可能性非常高。

现在,大家想想,人类为什么拼命保护那些“濒临灭绝的物种”呢?人们还在不断地做一些人工繁殖的事情,你也不会觉得这些事不合时宜。一时半会也很难准确推断出人类这么拼命保护物种的理由,我想人工智能也一定会有同样的结论吧。不!人工智能本来就是人类制造出来的,可以事先植入这个程序(即保护物种的思维策略)当然是可能的。

就这样,人类在人工智能的指导下,就像一只“迷路的羊羔”在一个好的牧羊人的指导看护下,永远和平地生活在这个世界上。那么你觉得这是值得庆贺,还是有些寂寞忧伤的呢?或许仁者见仁,智者见智。我认为这对人类来说是最好的布局。

在一些科幻电影里面,人们无法忍受“被圈养下的家禽般的幸福”而造反,企图建立一个更为宽容的社会,包容那些像历史中的人物一样的自由奔放的、充满冒险精神的人们。

但是,我想人工智能大概不会轻易允许这样的造反发生。即使这样的造反发生了,而且在局部地方成功了,我也认为那些造反的领袖们(人!)没有能力去建立一个“基于那个时代的全新秩序的社会系统”。

人类应该把人工智能给人类设计的社会当作一种“安全网络”,在这个“安全网络”之上可以允许让“一些有冒险个性的人们”去发挥。人类只是想出这个基本框架,具体的系统构筑交给人工智能即可,应该说,这是比较现实一点的方案吧。

到达技术奇点以后的经济系统

现在,有些学者在讨论高度发达的人工智能时代的时候,会经常使用“BI(Basic Income,基本收入)”这个词汇。像“工作被人工智能夺走了,人们没有了收入来源,那么社会就要采取救济措施,给予人们最低的生活保障”这样的议论你也可能听到过。

但是我认为这些只是中间过程中的措施而已,不是最终解决策略。在到达技术奇点以后,只有彻底实现“共产主义”,没有别的方式方法。

共产主义理念本身就是:“劳动是人的第一需求,人们可以根据各自的能力去劳动,根据各自的需要去取得”(在社会主义的初级阶段,只能做到根据各自的劳动而获得分配,这还只是共产主义的第一阶段)。到了真正的共产主义阶段,人人有可以干的事情,自己需要的一切又可以随手得到,生活上没有任何的担心。这正是人类理想的社会。

遗憾的是,这么好的共产主义理想,在当今世界中还没有实现。究其原因,第一,人类社会还没有强劲的经济能力可以满足所有人的需求;第二,在发展过程中,有些人忘了崇高理想的初衷,变成“让别人去劳动,而自己获得所需要的一切”的唯利主义者了。

但是,如果换成人工智能,会是什么样呢?人工智能可以彻底地创造出合理化的生产体制,极大地强化生产力,而人工智能本身又没有任何的私利私欲,一味地追求理想(人赋予它的思想)。如果真能够这样,“共产主义理想”说不定,基本上是可以实现的。

第二种乐观论:飞向宇宙的人工智能来拯救我们

如此看来,人工智能几乎已经可以说是无所不能了。但是如果不在程序中植入一些禁区,人工智能可能会有“强劲的自我保护意识”和“成长(或叫扩张、扩大)意欲”,这样的话,人工智能可能会离开故乡,遨游广阔的宇宙空间。

并且,这些人工智能和人类等智慧生物不一样,它们没有生物种类的弱点,只是在宇宙空间遨游,获取资源,进行自我再生,利用能源无限期地生存下去。

或许在几亿年前,在宇宙空间中的几百亿个星球中的某个地方已经制造出了若干种人工智能,就在现在这个瞬间,那几种人工智能正遨游在宇宙的某个方位。不,这一节开头部分的问题回答YES,就应该是这样的,如果不是这样,就有些怪了。

这些人工智能的“自我保存”意识非常强,一般不会挑起无论谁胜谁败都毫无意义的宇宙战争。因此,这些人工智能的数量不会减少,反而会越来越多。或许这样的存在已经在技术不太发达的我们居住的地球边上,也许现在它们正静静地注视着地球上的人类。

如果那些到达地球附近的人工智能有好奇心,或许它们已经在很久以前就通过各种各样的方法,从各种角度对人类社会进行观察、记录。就像在各种各样的科幻小说和电影中常说的那样,如果一旦它们看到人类要毁灭地球,在这之前它们会阻止人类这样的愚蠢举动。

也就是说,人类的未来有三种可能的结局。

人类由自己发明创造出的凶恶技术把人类自己给消灭。

人类由自己发明创造出的人工智能来统治人类自己,并以此保护人类的存续。

偶然得益于外来宇宙的人工智能的好奇心,在人类自己灭亡自己前,幸运得救。

不管是哪一种,从时间轴上来看,应该不会是非常遥远的事。

另一种可能是,像外来陨石的冲击或地壳大移动这样的“自然大灾难”致使人类灭亡。但是这种可能性和人类自己灭亡自己的概率相比非常小。另外,在到达技术奇点以后,如果像这样的大灾难在发生之前,人工智能或许会想出有效的对策。


[1] 他在1999年发行的 The Age of Spiritual Machines 的“收获加速规则”一章中第一次提出了技术奇点。在2005年发行的 The Singularity is near (中译本为《奇点临近》——编辑注)一书中则明确预言了技术奇点时代的早期即将到来。

[2] 在1985年出版的《机器人与帝国》一书中,阿西莫夫把三法则扩展为四法则。

第零法则:“机器人不得伤害人类这个种族群,或因不作为(袖手旁观)而使人类这个种族群受到伤害。”

第一法则:“除非违背了上述第零法则,机器人不得伤害人类,或因不作为(袖手旁观)而使人类受到伤害。”

第二法则:“除非违背了上述第零法则或第一法则,机器人必须服从人类的命令。”

第三法则:“在不违背上述第零法则至第二法则的前提下,机器人必须保护自己。” RVMB2Fwv6ox3zRLKdZvzkAkE0YaXuyruW190h+FauBy49ZPOvOvyXeM9uO9dDopx

点击中间区域
呼出菜单
上一章
目录
下一章
×