购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

AI与人类的协作:从替代到共生

未来25年,人与AI的关系就好像《星际迷航》中舰长柯克和半瓦肯人斯波克的关系一样,是一对搭档。我们将继续保持这种指导者与合作伙伴的关系、队友的关系,人类以各种方式参与AI的运作,而不是让AI在云端独自“思考”,拥有自己的意愿和议程。

设想在几百年后,人类因为遇到了《星际迷航》中的瓦肯人而获得了高超的技术,可以进行星际旅行。人类将与瓦肯人携手共赢。斯波克就是一个半瓦肯人,他不是人类,但有人类的特征。他有生命、思想、个性,但他并不是人类,他的思维方式与我们不同。在《星际迷航》中,还有一个叫达塔的人形机器人,也会与我们互动。尽管达塔的智力非常高,拥有相当出色的运算能力,但它仍然不是人。

《星际迷航》的故事告诉我们,尽管AI从表面上看会越来越接近人,但我们千万不要以人的标准来理解它们的行为。我们需要清楚,AI与人类的思考方式不同。与AI互动,首要原则是要时刻提醒自己,不要把它们想象成人,不要总是认为它们会像人类一样思考,或者以为它们会以人类的方式与我们互动。

AI与人最大的区别是创造力的不同。

我把创造力分为小写的创造力(creativity)与大写的创造力(CREATIVITY)。两者最大的不同是前者在很大程度上体现在复制与应用层面,更多地涉及在已知的世界用已知的方法更有效地完成任务,后者则聚焦在突破与创新层面,更多地涉及一种在未知的世界中努力探索、寻求创新的过程。AI在提升效率和优化结果方面能力卓越,但人在突破式创新方面仍然是独一无二的。

比如,一位设计公司标志的设计师,他的设计能力就是小写的创造力。这种创造力不会迫使人们以全新的方式来看待事物,不会带来突破,只是普通人每天都会用到的能力。这就是AI现在拥有的创造力,它们可以创造出一些新的东西,让你惊艳。当然,这也是大多数人类能提出的创意。之所以说AI会取代很多人类的工作,比如插画师、低阶的程序员,正是因为AI正在迅速获得这些领域中小写的创造力,即在实际生活中广泛应用的创造力。

在未来25年,我们很难想象AI能够进入大写的创造力领域。大写的创造力意味着突破。比如在科学研究中开辟一个全新的领域,供其他人进一步探索。它会改变人们看待事物与可能性的方式。很难想象AI可以提出全新的理论。在科研领域,AI将是一个非常高效的工具,但不可能独自完成科学实验。

到2049年,AI无法替代人类完成需要大写的创造力的工作,但AI会是一个非常强大的工具,我们需要引导它去解决我们认为应该解决的问题。

人与AI在创造力领域的区别决定了未来“人+机器”的模式。具体来说,可以分为“替代”和“合作”两种模式。日常的普通创意工作大多数由AI代替人来完成。同时,在更复杂的领域中,人类可以为AI提供指导,这样AI就可以进行更具创造性的工作,不仅仅能解决难题,还能提出真正令人惊讶的新颖想法。人将与AI合作,扩展它们的创造力,使它们进一步为我们所用,创造出我们需要的东西。

整体而言,未来25年“人+机器”的模式会基于这样一个范式:机器会不断提升效率,而人反而会专注于低效的事情——突破性的创新往往是低效的。小写的创造力立足于效率的提升,比如为购物网站创建针对不同用户的不同页面,AI特别擅长这样的工作。大写的创造力是真正意义上的创新。这种创造力并不来自逻辑思维,也不是基于过去案例的推导,它来自某种形式的想象力、某种经历或某些事物的重新组合。要让AI拥有大写的创造力至少在未来25年内将是非常非常困难的。即使在25年后,我们也不会看到AI完全独立地工作、创造事物。

未来25年将是一个持续巨变的时代。面对变化,人能更适应,而AI则没有那么高的灵活性。

相比之下,AI最强大的能力是短期的预测,因为短期不会发生太多变化,能基于历史数据相对容易地推导出未来。但是在一个充满变化的世界,要做出长期的预测,并不是拥有海量的数据就够了,它需要对未来方方面面的变量有比较系统的掌握,能够从中敏锐地感知到真正发生变化的要素。AI至少现在还缺乏理解复杂语境的能力,识别语境恰恰是人类举一反三能力的体现。

“人+机器”的模式还有一种细分模式,AI也可以通过观察人类的行为以及在被人类使用的过程中吸取人类的反馈而不断进化。对于这种智能,我称之为适应性(compatibility),也就是说,AI会变得更加擅长为人所用,它接受的不仅仅是知识方面的训练,还有人类行为方面的训练,因此会更深入地了解人类行为,有更强的适应能力。这种适应性将推动未来机器人的大发展。人类使用AI越多,AI就能变得越好。

此外,对于AI,我们还需要注意两个发展难题。

一个是“复印机难题”,即如果AI的创意基于过去的数据,或者基于其他AI创造出的内容,那么它最终会产出太多平庸的东西。这就需要我们花更多的时间去定义美,去帮助普通人提升他们的品位,因为如果人不提出新颖的创意,那么AI也很难进步。

另一个是“正确答案难题”。机器总是对的吗?人们会很容易接受“机器是对的”这一观点,就好像几十年前我们开始拥有计算机时一样,我们对机器提供的计算答案坚信不疑。因为人类并非完美无缺,人类会犯错,所以AI不会犯错的结论也证明了AI不同于人类,它仍是一种工具。但如果你认为机器总是对的,或者说机器总能给出正确答案,你默认的前提就是存在正确答案。在一些领域中,会有绝对可靠的AI,但这样的AI将被视为一种异类。

机器总会提供正确答案吗?实际上,这给训练AI的人提出了更高的要求。

我们可以设想一下机器如何应对伦理学中最著名的“电车难题”。“电车难题”的大致内容如下。假设在一个电车轨道上绑了5个人,在备用轨道上绑了1个人。有一辆失控的电车飞速驶来,而你身边正好有一个摇杆。你可以推动摇杆让电车驶入备用轨道,杀死1个人,救下5个人;你也可以什么都不做,杀死5个人,救下1个人。你会怎么做?

人类对此并没有得出“正确答案”,但我们在训练AI时必须给AI一个答案。在现实世界中,即便人类司机要被迫做出这样的选择,我们也会因为事情发生得太快,猝不及防,来不及做判断,而把结果归结为一场意外。但我们不会这样对待AI,在面对这种情况时,AI必须给出一个答案。

换句话说,当我们期待AI未来能像我们一样处理复杂问题时,我们将被迫提升自己的道德水平,以便给AI正确的引导。 zLmlEA7eODtn0jTK3tgiaooDdsG86ggUFYyHYcVdTvAnRr8tI5oQG9zHoNGvp77T

点击中间区域
呼出菜单
上一章
目录
下一章
×