以色列历史学家赫拉利(Yuval N.Harari)描述了人工智能发展的三个不同阶段:弱人工智能、强人工智能和超人工智能。
他预测,超人工智能阶段将在21世纪40—60年代出现,整个社会裂变为两大阶层,大部分人属于“无用阶层”,极少一部分人是社会精英阶层。建立在生物科学、信息技术、大数据技术快速发展基础上的人工智能有可能导致智能社会的出现,在智能社会中,机器智能递归式自我改善能力的获得可能导致最终的“智能爆炸”。在未来,人类整体将具有价值,但个体将没有价值,系统将在一些个体身上发现价值,但他们也许会成为一个超人的新物种。
未来社会是否将在多重维度上重塑价值观体系?首先,随着人工智能的广泛应用,人类社会短期内将无法避免两大灾难性的冲击:持续性失业与不断加剧的贫富差距。如前文所列举的金融、医疗、教育等行业发生颠覆性变革的实例,人工智能的大规模使用正在使传统产业的面貌发生根本性的改变。对当代人来说,与人类智能对等的同类的存在不再是科学幻想,而是现代的科学理论和技术努力的一个方向,并且这种努力将造成人的劳动被大规模、普遍性地取代,这种设想越来越趋近现实。在这样的背景下,此前一切有关人性和理性的理论都要予以重新的审视,从头理解和认识其他可能的理智能力。更进一步地,人工智能的普及对马克思主义劳动价值论带来挑战。劳动价值论是马克思经济学的基石之一,马克思站在劳动者的立场上,提出“商品价值体现的是人类本身”等观点。当人工智能大规模应用时,劳动的主体明显更替;尽管人工智能及其设备也是人的劳动创造,但是,当“无人工厂”“无人超市”“无人餐厅”等“无人产业”大量出现时,我们显然需要从根本上对劳动价值论重新进行深入研究与阐释。
其次,人工智能的政策制定、研发规划、应用实施等阶段都不可避免地反映了相关主体的价值观。一方面,数据的采集与智能算法的应用并非完全客观和无偏见,在人工智能与智能自动系统的数据选取、算法操作和认知决策中,相关主体的利益与价值因素不可避免地渗透于对特定问题的定义及对相应解决方案的选择和接受之中,它们既可能体现技术设计者与执行者的利益考量和价值取向,也会影响到更多利害相关者的利益分配及价值实现。
当机器具有多个可学习的部分时,学习算法就存在责任局部化的问题。更复杂的学习机器不仅能修改自己的行为方式,还能自行修改评价体系,此时机器也要处理价值观问题。多台这样的机器以非集权的分布方式进行合作时,就需要处理群体中个体间的评价,即广义的伦理问题。
例如,美国将理解并解决人工智能的伦理、法律和社会影响作为《国家人工智能研发战略规划》八大战略之一,要求将如何表示和“编码”人类价值和信仰体系作为重要课题研究,建立符合伦理的人工智能,制定可接受的道德参考框架,实现符合道德、法律和社会目标的人工智能系统的整体设计。2020年1月,新美国安全中心(Center for A New American Security)的报告《美国人工智能世纪:行动蓝图》中明确提到:尽管人工智能可以在社会中为人们带来不可思议的好处,但它也使未来的恶意用途成为可能,例如对民主国家发动复杂的影响力攻击。美国必须确保其在人工智能方面处于领先地位,并以符合民主价值观和尊重人权的方式塑造全球使用规范。本报告建议采取具体行动,以确保美国继续保持人工智能的领先地位,促进符合美国利益和价值观的标准的发展,并预测和应对安全挑战。
英国下议院2016年发布《机器人技术和人工智能》报告,指出英国应规范机器人技术与人工智能系统的发展。2018年1月发布的《数据宪章》指出,应确保数据以安全和符合伦理的方式使用。2018年4月《英国发展人工智能的计划、意愿和能力》报告提出了关于人工智能准则的五条总体原则,阐明了政府需要考虑的策略性问题。
欧盟委员会在《欧盟人工智能》中提出,研究和制定人工智能新的伦理准则,以解决公平、安全和透明等问题,捍卫欧洲价值观。欧洲科学与新技术伦理小组在《关于人工智能、机器人及“自主”系统的声明》中,提出了一套人工智能发展的基本伦理原则。2018年,欧盟成立了人工智能高级别专家组,2019年4月,专家组发布《人工智能伦理准则》,提出建设以人为本的人工智能,列出了可信赖的人工智能系统应满足的7个关键要求。2020年2月,欧盟委员会发布《人工智能白皮书:通往卓越与信任的欧洲之路》,认为面对人工智能带来的机遇和挑战,欧洲需要建立卓越且可信任的人工智能生态系统。为实现“卓越”目标,应向世界输出欧洲人工智能价值观与规则,推动公共部门应用人工智能。向世界推广欧盟的人工智能价值观有利于欧洲实现全球人工智能领导地位,因此欧盟的国际合作必须建立在自身价值观和人工智能规则的基础上。
另一方面,合成智能和人造劳动等人工智能应用一般是通过人机协同来实现的,相关主体的价值选择必然渗透其中。通过机器学习和智能算法对数据进行洞察之类的应用人工智能不仅是各种计算与智能技术的集成,还必须将人的判断和智能融入其中。要把握数据所反映的事实及其意义,必须借助人的观察和理解进行标注。随着人工智能的发展和突破,计算机能否处理“价值观问题”将不再是区别人与机器的决定性标准,一旦机器智能从整体上超越人类,我们必然面临人本位的价值观与机器本位价值观的重大冲突。
例如,在就业方面,美国政府非常重视人工智能对就业带来的影响,2017年美国众议院发布《人工智能创新团队法案》,2018年发布《人工智能就业法案》,提出美国应营造终身学习和技能培训环境,以应对人工智能对就业带来的挑战。在行业发展方面,如美国众议院于2017年通过了《自动驾驶法案》、美国交通部于2018年发布《准备迎接未来交通:自动驾驶汽车3.0》、美国卫生与公众服务部发布《数据共享宣言》等,规范和管理自动驾驶汽车设计、生产、测试等环节,确保用户隐私与安全。
最后,人工智能的发展会不会与人的存在价值发生深层次的难以调和的本质性冲突?人们的不同价值观通常是个体在社会化过程中通过教育、强化以及观察学习等方式将社会价值逐步内化而形成的。人类对于未来社会的担忧,首先源于未来强人工智能可能具备远远超出人类的计算能力,人类设计的计算机反而成为算计自己的工具,这将成为一个关系人类命运的重要问题;其次源于广义人工智能会获得感知能力。广义人工智能与狭义人工智能的本质区别之一就是在于人造智能体是否能够为自己设定宏大的目标。“感知机器”的出现可能会让人类变得毫无用处,或者杀死我们。贝宝公司(PayPal)的联合创始人彼得·蒂尔(Peter Thiel)的观点也许能够反映出人类对于人工智能担忧的根本原因。他认为:“我们难以描述广义人工智能以何种形式出现,在某种意义上,人工智能问题涵盖了人们对计算机时代的所有希望与恐惧,当被逼到这些极限时,人的直觉就会崩塌,因为我们在这个星球上从没有遇到过比人更聪明的东西。”著名的人工智能研究者埃利泽·尤德考斯基(Eliezer Yudkowsky)预测分析:“人工智能不必控制整个网络,它不需要无人机,它之所以危险,不是因为它有枪,而是因为它比我们聪明。假设它可以从DNA信息中预测蛋白质结构,那它只需要向合成自定义蛋白质的实验室发几封电子邮件,很快它就会拥有自己的分子机器,然后制造出更精密的分子机器。我无法准确预测我们会如何输给人工智能,因为人工智能比我聪明。”
计算机技术的加速发展推动了机器人、机器感知以及机器学习领域的进步,这些成果让新一代系统可以匹敌甚至超越人类的能力。这样的发展趋势有可能会开辟出一个前所未有的繁荣而安逸的新时代,但是其转换过程是不可预知的。一旦人工智能掌握了人类无法理解和掌控的海量数据后,它们就可以在转瞬间造成人类无法想象的灾难,例如关闭电网、使交通系统瘫痪等。正如诺伯特·维纳(Norbert Wiener)所提醒的那样:“新工业革命是一把双刃剑,它可以用来为人类造福,但是,仅当人类生存的时间足够长时,我们才有可能进入这个为人类造福的时期。新工业革命也可以毁灭人类,如果我们不去理智地利用它,它就有可能很快地发展到这个地步。”