人工智能已在各类科幻片中被演绎过多次,如《她》中情感细腻、声线迷人的萨曼莎,还有《西部世界》中逐渐拥有自我意识的类人机器人。我们不禁要问,未来它们会和人类一样拥有意识、情绪和情感吗?如果科幻片中的场景成真,人类该如何应对?
《她》是2013年美国发行的科幻片。该片的故事发生于人工智能发展到了已经可以按需自学如何与人沟通的时代,主人公西奥多刚刚结束与妻子凯瑟琳的婚姻,还没走出心碎的阴影。一次偶然的机会他接触到了最新的人工智能系统OS1,它的化身萨曼莎拥有迷人的声线,温柔体贴而又幽默风趣。西奥多与萨曼莎非常投缘,人机友谊最终发展成一段不被世俗理解的奇异爱情。人工智能技术在影片中不断展现出美好愿景的同时,也提出了一些发人深省的安全和伦理问题。
(1)自主学习与精准服务。
萨曼莎能根据西奥多初期的聊天方式和聊天内容进行自主学习,在与西奥多进行情感沟通的过程中,也可以利用西奥多以往的人际沟通数据快速了解他的情感需求,使用符合他需求的语言和图片去满足其精神需求。影片中,萨曼莎还可以帮助西奥多整理邮件,并按西奥多的习惯分类通知和回复,体贴地把西奥多的信件整理为一本书,然后联系出版社出版,从而帮助西奥多解决了很多现实问题。
(2)虚拟和现实世界的边界。
为了弥补自己没有肉身的遗憾,萨曼莎在互联网上找了一个志愿者以解决西奥多的生理需求,该情节发人深省。智能系统一旦超越奇点,获得现实世界中的真身,其强大的计算能力会将人类置于怎样的境地呢?
影片后半段讲述了西奥多身边几乎所有人都在使用智能伴侣,他们都沉浸在与机器的深度沟通中,每个人的脸上都洋溢着发自内心的幸福笑容,智能伴侣从精神层面完美地陪伴主人。但与此同时,问题也随之而来,智能系统需求旺盛、发展迅速,萨曼莎同时与8000多人交流、600多人恋爱,有很多和西奥多类似的人与萨曼莎坠入爱河,导致萨曼莎无法实时与每个恋爱对象联系,这让使用者难以忍受。一天,智能伴侣突然全部断线,所有人一时间都不知所措,失去了生活的方向。最后,男主角与有同样经历的艾米发现了现实陪伴的真与美,回归现实,至此影片结束。
不妨设想,随着计算速度和存储容量的快速提升,如果智能伴侣可以一天24小时实时响应、永远在线,我们是否还需要现实陪伴?虚拟陪伴和现实陪伴,哪一个对我们更为重要呢?
如图1-1所示,《西部世界》是2016年HBO发行的科幻类连续剧,该剧讲述了一个未来世界里人机共存的科幻故事。在故事中,美国西部一个大型主题公园中,园方使用了人工智能仿生人作为服务人员,让游客进入完全沉浸式的角色扮演体验场景。在第一季中,随着剧情的展开,主题公园中的服务机器人开始觉醒、逃离、反抗。该剧的核心是探讨自主意识是如何产生的,剧中隐含的“意识金字塔理论”给我们带来了一些启示。
图1-1 科幻片《西部世界》
公园里的所有NPC(Non-Player Character,非玩家角色)都是和人类一模一样的仿生人,仅凭肉眼无法分辨面前的“人”是真实的人还是仿生人。这些仿生人不知晓自己的一切都是工作人员设定好的,它们拥有自己的记忆,每天都在过着“新的一天”,但实际上同样的剧情已经演绎过无数次。
游客在园区里有着高度的自由,在这里可以杀“人”放火、作奸犯科,园区里甚至还设定了专门的妓女仿生人。夜晚来临时,工作人员会用指令停止所有NPC的活动,然后对它们进行修复和调试,准备开始新的一天。
电影中所有的仿生人都被假设通过了图灵测验,它们有着自己的智慧,只是受控于特定的代码。该剧的女主角德洛丽丝是园区中“最年长”的仿生人,所有的故事都随着它的觉醒,以及它与人类玩家威廉的爱情故事展开。
《西部世界》同样给我们带来了一些启示。
(1)算法的价值观问题。
《西部世界》中的世界观与近两年在推荐算法流行之后开始兴起的“算法价值观”问题相呼应。在推荐算法驱动的信息流中,人工强制置顶的内容并不一定能取得最好的效果,相比之下,算法推荐的内容或许更合用户的口味,因此用户可能会直接忽略那些被强制加入的内容。
因此,假定以目前基于兴趣向读者展示内容的引擎为生成模型,而另外一个用于辨别信息流是否呈现正向价值的引擎为判别模型的话,通过类似对抗生成网络的训练过程,信息流就会出现两重的内在“声音”,一个声音说“这个内容读者会非常喜欢”,另一个则说“不,这是一条谣言,会带来不良的后果”,两个声音最终会达成一个平衡。
(2)道德与伦理的启示。
在《西部世界》中,仿生人没有按照原有轨迹行事,而是听从“心声”觉醒了。因此不难想象,人工智能在提高生产力的同时,必然会给人类带来一系列的问题。
目前,很多门户网站解决人工智能价值观问题的方法是投入更多的审核人员,侧重于从算法外部进行人为干预。为什么人工智能发展到今天,已经在很多特定领域帮助我们决策,但是没有发展出内在道德与规范呢?在现实领域中,大多数人工智能算法都被应用于商业领域,能否为企业盈利是改进算法的唯一标准,而对算法进行道德和法律上的约束,往往来自外部的舆论环境、社会压力和司法要求。
人类应该把伦理和道德作为一种先验知识纳入机器学习的过程,而不能作为针对机器学习成果的事后弥补。
以上两部科幻片介绍了人工智能的未来应用和可能存在的危害。早在1940年,基于人工智能已经可以独立思考的假设,科幻作家阿西莫夫提出了“机器人三原则”,旨在保护人类而对机器人做出约束,具体如下。
(1)机器人不得伤害人类,也不能看到人类受到伤害而袖手旁观。
(2)机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
(3)机器人必须保护自己,除非这种保护与以上两条相矛盾。
后来,科学家和科幻作家发现“机器人三原则”有致命的缺陷,就是机器人对“人类”这个词的定义不明确,甚至会自定义“人类”的含义,于是又增加了三条机器人原则,具体如下。
(1)无论何种情形,人类为地球上所居住的会说话、会行走、会摆动四肢的类人体。
(2)机器人接受的命令只能是合理合法的指令,不接受伤害人类及破坏人类体系的命令,如杀人、放火、抢劫、组建机器人部队等。
(3)不接受罪犯(无论是机器人罪犯还是人类罪犯)的指令。若罪犯企图使机器人强行接受命令,机器人可以进行自卫或协助警方逮捕罪犯。
机器人原则也就是人工智能原则。但现在人工智能还处在专用人工智能突破阶段,并不具备通用能力,也不能独立思考,所以“机器人六原则”的用处还未完全体现。而现阶段最先进的人工智能AlphaGo也是依靠大量的计算在各种可以预知的逻辑线中选择最优解,所以在围棋和象棋等专用能力方面已远超人类,但其不能解决其他领域的问题。其他如无人驾驶等方面的人工智能也是主要依赖大数据匹配,并不是真正意义上的人工智能,所以说通用人工智能才刚刚起步。至于人工智能会如何发展及发展到哪一步,很难预测。