上面提到:计算机处理器的超高速运算已经超过“天才”,那么之后等待我们的会是什么呢?是技术奇点(Technical Singularity),这个词汇在日语中被翻译成“技术特异点”,听起来有点怪怪的,或许翻译成“到达了特异点的技术”比较好理解。
技术奇点将AI作为未来核心含义而固定下来也就是近几年的事。最开始或许是在19世纪90年代前期,由美国数学家、计算机科学家、科幻小说作家凡尔纳·温格(Vernor Steffen Vinge)提出来的。而把这个概念更加明确化,应该很大程度上归功于毕业于美国麻省理工学院的计算机科学家、音乐家雷·库兹韦尔(Ray Kurzweil) [1] 的一系列著作。
随着AI能力的飞跃,在各种各样的领域中会出现庞大数量的各种假设,并且一个个得到验证,进而互相关联起来成为人类的“知识集合”,而这种“知识集合”确实远超人类目前的推测能力。
而且AI会自我改善程序初始化的检索和推论方法,AI会创造出“更加优良的AI”,这个更加优良的AI会接着创造出“它的下一代AI”,这种加速进化无限延续,永无止境,以至于可能到达目前我们人类根本想象不到的世界。技术奇点正是用来表达这种假设的词汇。
雷·库兹韦尔认为,“技术奇点的到来是随着以摩尔定律 为代表的技术革新的指数增长而来的”,他归纳为“收获加速规则”。对于摩尔定律本身,最近也有一种较为有力的说法认为其为“有限度的”。
在本书后面的章节里AI就以AI或人工智能来表示。技术奇点就以Singularity或技术奇点来表示。
在英文里面,Singularity这个词汇本身原来带有“奇妙”“非凡”的意思。在人工智能领域中,谈到Singularity,就可以理解为“技术的进化超过了一定的限度,达到了和以往完全不一样的境界,即达到质变”。
这也就意味着或许我们必须从“和现在完全不一样的层次上”去思考当今“人类社会的存在”和“人类存在的意义”。
以前说起AI,人们往往认为其只是“更高、更快地实现了人类的一部分能力”而已,而现在如果说“在此基础上,一点不漏地掌握人类的所有能力”的AI实现,那么我认为据此可以看作技术奇点出现。如果还有一些漏洞,例如“人类可以很好地做出来,而AI则不能”,那么我认为就不能授之于技术奇点到来这一说法。
在思考这个问题时,可能许多人认为:
“人脑的功能除了逻辑思考能力以外,还有感觉、感情(例如快乐和不快乐)、欲望,更进一步的还有道德观,价值观也包含在内,即使到了实现技术奇点的阶段,在这些情感的方面,AI也是无能为力。”
那么,真的是这样吗?
针对这个问题上,确实还有许多方面有待大脑生理学和心理学领域的研究。但是,不能忘了AI本身也可以从事大脑领域的研究。也就是说,AI可以开发出一些工具使得大脑生理学的研究飞速发展,继而利用这些成果开发出一些技术奇点模型,反复作假设、作论证,进而促进大脑科学研究的发展,我认为这种模式是有可能的。
从AI的实用角度来看,目前大部分好像都倾注在神经网络(以逻辑思维为基础的神经线路)的研究上。因为神经网络的研究比较容易入手,也比较容易获得成果。但是,在不远的将来,或许重心会慢慢转移到“挖掘意识以外的记忆内存,并赋予意义”这方面的研究中。
前面提到的新井纪子教授认为:“不可能在神经网络的延长线上到达技术奇点。”我本人也赞同这个观点。毫无疑问,高速精细的推断功能是AI到达技术奇点的必要条件,但是我认为离充分条件还很远。
但是,即便这样,本书的前提,也就是“人工智能一定会在很近的时期到达技术奇点”。就这一观点而言,我是坚信不疑、毫无动摇的。随着存储量的飞跃增大和内存检索功能的飞跃扩展,预期未来将会有巨大突破。
基于上述理论,还有“感觉”“感情”领域,更进一步的话还有“欲望”和“意志”等领域的突破,我认为到达技术奇点的AI一定会把研究对象扩展到这些领域。特别是“意志”,这对确定AI的未来非常重要,有必要作深刻洞察,并采取必要措施。在本书的第3章里,我们会详聊这个话题。
以前有人担心:在某一天,机器人觉醒了,认清了“自我”,于是摆脱了人类的控制,在某种场合下,还可能和人类发生敌对行为。这也是许多科幻小说喜欢的题材。为此,俄国出生的美籍作家,波士顿大学生物化学教授艾萨克·阿西莫夫(Isaac Asimov)提出了著名的“机器人三法则” [2] 。
第一法则:“机器人不得伤害人类,或因不作为(袖手旁观)而使人类受到伤害。”
第二法则:“除非违背了上述第一法则,机器人必须服从人类的命令。”
第三法则:“在不违背上述第一法则及第二法则的前提下,机器人必须保护自己。”
但是,这里面有各种各样的“哲学难点”和“技术难点”。首先,阿西莫夫本人把第一法则里的“人”改写成了“人类”。因为“人”不一定全是“好人”,也有危害人类的“坏人”。对于“坏人”,可以让机器人去对付他们。
那么,“人类”就没有问题了吗?“人类”的定义是什么?“危害”的定义又是什么?这些全都极其暧昧。“如果放任不管,人类可能会全部灭亡;如果抹杀一部分,另一部分就可以生存下来”,如果遇到类似这样的事态,忠实的机器人将会做出怎样的判断呢?
抹杀谁,又去救谁呢?为了拯救全体人类,如果说面临“要么对百分之七十的人加以轻的危害,要么对百分之三十的人加以重的危害”这样的选择,对人类忠实的机器人应该选哪一个呢?
“技术的难点”反而单纯一些。如何防止某人或者是机器人本身根据独自的判断来重新改写阿西莫夫法则呢?当然可以通过某种办法把这些命令行预置在不可改写的、完全封死的硬件中,但是,如果聪明的机器人完全可以“制造出新的硬件后,再自己毁掉自己”,那就没有别的办法了。
如何才能不让AI破坏人类,只做对人类有益的事呢?这就不得不踏入“意志”的领域了。如果以活生生的人为例,“意志”这个东西只有少部分是“逻辑”形成的,而大部分是“感情”的产物。在我们踏入“意志”的领域之前,有必要充分研究清楚“感情”这个领域。
上述那样的世界真的会到来吗?如果会到来,何时到来呢?对于这个问题,自然有各种各样的、差别巨大的想法。
一方面,对于AI的潜在能力本身就持有怀疑态度的人并不少,他们会说:“看看现实吧,AI不是什么也做不了吗?”但是,这就和初创期的互联网一样。当初,“吹嘘的梦想”和“现实”的距离实在是太远了,以致连《互联网就是空虚的洞窟》这样的书也出版了。
不管是在哪一个时代,把“将来的潜力”和“现在发生的事情”搅浑在一起而“摇晃不定的人”都有很多,他们对“将来的潜力”看都不看,这是很严重的问题。但是我认为,技术突破带来的相互作用将会加速发展,那时候,“潜力”会以惊人的速度向现实发展。
说到加速发展,像大家知道的“翻番游戏”,就是今年是1,明年翻倍为2,后年又翻倍为4,大后年再翻倍变成8……这样膨胀下去。或许你觉得这也没什么了不起的,但是按照这样的方法计算的话,第10年就是变成了约1000(实际为1024),第20年就变成了约100万(实际为1048576),这有点令人害怕了吧。
但是,这样的计算才刚刚开始,如果第2年以后每年是前一年的“几何级数增长,也就是2次方来计算”,那么会怎么样呢?第4年还只是256,第5年就是65536了,第6年变成了4294967296这个有点可怕的数字了,到第7年,就不是普通计算器可以显示出来的数字了。如果进入“AI自己创造出下一代AI”这样的循环,变成这样的几何增长循环也不是没有可能的。
是啊,如果说(这里我只是说如果)技术奇点的时代在未来30年或者40年“比想象的要早得多的时期”到来,现在20岁的人在50岁或60岁就可以看到。那么,对于这样的情形,你已经有心理准备了吗?