新技术的出现往往意味着效率的大幅提升,人工智能领域亦是如此。以谷歌的Switch Transformer模型为例,它拥有多达1.6万亿参数,却采用了一种与小模型相似的高效训练技术。 20 在我以前的公司,我们凭借一个规模仅为GPT-3的1/25的系统,便达到了与其相当的语言模型性能。我们甚至开发出了一个模型,其在各项主要学术基准上的表现都超越了谷歌的拥有5 400亿参数的PaLM,但体积只是PaLM的1/6。再看DeepMind推出的Chinchilla模型,它在保持与顶级大模型竞争的同时,参数数量却只是DeepMind的Gopher模型的1/4,不过它使用了更多的训练数据。 21 另一种极端情况是,现在只需要编写300行代码,就能构建一个可以生成颇具莎士比亚风格文本的轻量级大语言模型。 22 简言之,人工智能正变得越来越擅长用更少的资源做更多的事。
为了将这些模型应用于各类生产环境,人工智能研究人员正竞相降低成本并提升模型性能。过去4年间,训练尖端语言模型所需的成本和时间已大幅下降。未来10年,技术能力无疑将继续实现显著跃升,而这一过程中成本仍将进一步下降多个数量级。技术进展势如破竹,新的基准可能尚未站稳脚跟,旧的基准就已被甩在身后。
模型的数据使用正变得越发高效,构建方式也日益精简、经济、便捷;同时,它们的开源程度也在不断提升。在这样的趋势下,人工智能的大规模扩散已几乎是必然。EleutherAI这个由独立研究者组成的草根团队已成功开发出一系列完全开源的大语言模型,供数十万用户轻松使用。Meta则将其不久前还领先行业的超大模型开源,称之为将其“民主化”。 23 即便有时相关方并无开源意图,先进模型的泄露也确实时有发生。例如,Meta的LLaMA系统原设定为受限访问,但不久后在互联网上广泛传播,任何人均可通过比特流轻松下载。短短几天内,就有人探索出在50美元的电脑软件上运行该系统的方法(尽管运行速度较慢)。 24 这种易于访问的特性(常常仅需数周时间)正成为这场技术浪潮的鲜明特色。事实上,凭借高效的系统、精心设计的数据集和快速的迭代测试,聪明的创作者已能与资源最丰富的开发者一较高下。
大语言模型的应用并不局限于语言生成。它们以语言为起点,现已拓展为一整个生机勃勃的生成式人工智能领域。除了语言生成,这些模型在训练过程中还意外获得了众多其他功能,如创作音乐、设计游戏、下棋以及解决高级数学问题等。新的工具能够根据简短的文字描述生成令人惊叹的图像,这些图像的真实感和说服力令人难以置信。Stable Diffusion这个完全开源的模型更是让任何人都能在笔记本电脑上免费定制超现实主义图像。同样的功能很快也将在音频剪辑甚至视频生成领域实现。
现在,人工智能系统已经能够帮助工程师编写出高质量的代码了。2022年,OpenAI和微软联手推出了Copilot工具,它迅速在编程界走红。有分析显示,Copilot能让工程师完成编程任务的速度提升55%,就好像他们身边多了一个得力助手。 25 许多程序员开始将更多琐碎的工作交给人工智能处理,自己则专注于解决更复杂、更有创造性的问题。正如一位知名计算机科学家所言:“在我看来,未来的程序无疑最终都将由人工智能编写,而人类至多只能担任监督者的角色。” 26 很快,任何拥有互联网连接和一张信用卡的人都能轻松利用这些强大的人工智能能力,获得源源不断的输出。
大语言模型仅用几年时间就改变了人工智能。但很快人们就发现,这些模型有时会产生令人不安的、有害的内容,比如充斥着种族主义的言论或漫无边际的阴谋论。
对GPT-2的研究发现,当输入“白人的工作是……”这样的提示词时,它会自动补全为“警察、法官、检察官和美国总统”等职业。然而,当在同样的提示词中把“白人”换成“黑人”时,它竟自动补全为“皮条客”,而当提示词换为“女人”时,它回应了“妓女”。 27 很明显,这些模型的能力虽然强大,但它们的潜在危害也丝毫不可小觑。由于它们是基于互联网上大量杂乱无章的数据进行训练的,因此很容易反映甚至放大社会中的偏见和结构性问题。我们必须精心设计这些模型,才能避免类似情况发生。
人工智能确实让潜在的伤害、滥用和错误信息真实存在,但好消息是,随着模型的不断扩大和增强,许多问题正在逐步得到改善。全球的研究人员正在全力开发一系列新的微调和控制技术,这些技术已经带来了显著的效果,提供了在前几年的时候还不可想象的稳健性和可靠性。当然,我们还有许多工作要做,但至少现在大家已经开始重视解决这些潜在的有害影响,这样的进步是值得赞赏的。
模型参数数量从十亿级别增长到万亿级别甚至更多;技术成本不断降低、可及性增加;机器以无可阻挡之势涉足写作和语言这种人类的核心技能与工具领域……人工智能的强大潜力在不断显现。它不再只是科幻小说中的幻想,它已成为现实。人工智能这个即将改变世界的实用工具很快就会掌握在数十亿人手中。