对于AGI,OpenAI官网这样说:
OpenAI的使命是确保通用人工智能——我们指的是在大多数具有经济价值的工作中超越人类的高效自主系统——造福全人类。我们将尝试直接构建安全有益的AGI,但如果我们的工作帮助他人达到了这一成果,我们也会认为该使命得以实现。
也就是说,AGI被OpenAI视为发展的目标。
AGI代表着人们对AI的基本想象。然而,正如上述提到的Siri一样,任何技术的发展都需要经历循序渐进的过程。通过不断改进和优化,技术才能走向成熟并最终成为现实。在iPhone问世之前,诺基亚的手机也被称为“智能手机”,其搭载的移动应用实现了早期的移动场景功能。然而,从今天的视角来看,由于缺乏更高效的通信网络,这些设备运行起来显得缓慢且笨重。但正如我们所理解的那样,只要技术发展的方向是正确的,其实现就只是时间问题。
谈及AIGC技术时,我们经常会关联到另一个重要名词——LLM(大型语言模型)。IBM官网对LLM的定义如下:
LLM是一类基础模型,它们经过大量数据训练,以提供多个用例和应用程序以及完成大量任务所需的基础功能。这与为每个用例单独构建和训练领域专用模型的想法形成鲜明对比,后者在许多方面(最重要的是成本和基础架构)令人望而却步,会抑制协同作用,甚至可能导致性能下降。
学习AIGC相关知识的过程中,还会涉及其他技术名词,其中以NLP、Transformer、GPT这几个概念较为常见。
在人工智能技术发展的道路上,NLP(自然语言处理)领域的发展至为关键。在这一领域中,语言模型是一种重要的预训练模型,通过对大量源数据的学习、理解,生成新的数据内容。Transformer则是由深度学习技术发展而来的模型架构。随着数据规模的增大,LLM应运而生,而Transformer被广泛运用于LLM中,发展出基于这一架构的GPT等模型。正如同前面所述,在通往AGI的道路上,技术实现并非一蹴而就,而是循序渐进的,逐步实现普及新技术的目标。
数据化、数字化、智能化的演进,标志着网络技术逐步迈入深度变革的关键阶段。尤其是在数字化进程之后,网络世界中的数据得以高效连接,这种深度连接不仅增强了数据的流动性与价值挖掘能力,更为大模型技术的发展提供了充足且优质的基础原料。
注意
AI与AIGC这两个智能领域的关键术语常常令人混淆,尤其是再加上AGI,更容易使人迷惑。因此有必要对这些概念进行简要阐述,以便读者在阅读本书时更好地理解和区分。
❑ AI:人工智能的泛称,涵盖了与智能相关的几乎所有技术和应用。
❑ AGI:通用人工智能,是智能技术发展的终极目标,代表机器能够全面模拟人类智能的能力。
❑ AIGC:人工智能生成内容,是生成式人工智能的具体表现形式之一。这是一个阶段性的技术名词,特指当前蓬勃发展的生成大模型技术。
本书所描述的智能化场景正是基于当前的技术发展阶段,其中提到的“AI”主要是指AIGC。