购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

5 ChatGPT是什么

5.1 ChatGPT自己介绍自己

在思考如何向读者介绍ChatGPT时,笔者想到了一个独特的方案:让ChatGPT自己为自己代言。下面是ChatGPT对自己的介绍。

佳芮: 什么是ChatGPT?

ChatGPT:

· ChatGPT是一个基于深度学习的自然语言处理模型,由OpenAl开发。它可以用来回答各种自然语言问题,包括生成文本、回答问题、语言翻译等。

· ChatGPT的基础架构是Transformer模型,该模型具有良好的并行性和可扩展性,因此适用于大规模语言处理任务。

· GPT首次在2019年推出,之后不断进行更新和优化。目前,最新的版本是GPT-3,拥有数万亿个参数,是目前为止最先进的自然语言处理模型之一。

GPT(Generative Pre-trained Transformer)的全称是生成式预训练变换模型。其中,Generative的含义是生成式,Pre-trained的含义是预训练,Transformer的含义是变换模型。

GPT中的G

笔者再问问ChatGPT什么是生成式。

佳芮: GPT中的生成式是什么意思?

ChatGPT: 在GPT(Generative Pre-trained Transformer)中,生成式(generative)意味着这个模型能够生成新的文本序列。这与其他类型的自然语言处理模型不同,其他模型主要是用来对文本进行分类或者预测文本的标签。

通过预训练,GPT模型能够学习大量的自然语言文本,从而能够捕捉到自然语言的语法、结构和语义等方面的规律。一旦GPT模型完成训练,就可以用来生成新的文本,这些文本是基于已经学习到的文本规律和结构进行生成的。

通过生成新文本,GPT模型可以应用于多种自然语言处理任务,例如:文本摘要、机器翻译、对话系统、问题回答、自动写作,等等。GPT的生成式能力使其成为自然语言生成任务中的一种有力工具,能够为自然语言处理领域带来新的创新和进步。

简单来讲,生成式就是指它能自发地生成内容。

GPT中的P

笔者再问问ChatGPT什么是预训练。

佳芮: 什么是预训练?

ChatGPT: 预训练(Pre-training)是指在大规模数据集上进行无监督学习,学习到一些通用的特征或知识,并将这些特征或知识迁移到其他任务上,用于增强模型的泛化能力和表现。预训练技术在自然语言处理、计算机视觉等领域中得到了广泛应用,并且在很多任务上取得了非常好的效果。

在自然语言处理领域,预训练通常指在大规模的语料库上进行无监督学习,学习到一些通用的语言知识,例如单词的词向量表示、句子的语义表示,等等。这些预训练模型通常基于深度神经网络,例如递归神经网络(RNN)、长短时记忆网(LSTM)、卷积神经网络(CNN)等,通过对大规模数据集进行预训练,可以得到一个通用的特征表示,然后可以将这些特征迁移到其他任务上,例如文本分类、命名实体识别、机器翻译等任务。

在计算机视觉领域,预训练通常指在大规模的图像数据集上进行无监督学习,学习到一些通用的特征表示,例如图像的纹理、边缘、颜色,等等。这些预训练模型通常基于卷积神经网络,例如 AlexNet、VGG、ResNet等,通过对大规模数据集进行预训练,可以得到一个通用的特征表示,然后可以将这些特征迁移到其他任务上,例如图像分类、目标检测、图像分割等任务。

总之,预训练是一种在大规模数据集上进行无监督学习的技术,通过学习通用的特征或知识,可以增强模型的泛化能力和表现,并在自然语言处理、计算机视觉等领域中取得了广泛应用。

在笔者看来,预训练模型的发展是一个不断演进的过程。首先,为了让模型能够处理诸如文本这样的符号,我们会将这些符号转换为连续的向量,即用固定长度的向量表示一个词、字或Token。在深度学习模型中,这通常被称为Embedding。

假设我们的目标是实现文本分类。这需要标注数据,而高质量的标注数据相对昂贵,大量无标注的数据相对便宜。我们发现,利用无监督数据预先进行一些特定任务的训练,例如预测句子中的下一个字(CLM任务)或预测句子中被遮盖的字(MLM任务),然后将这些训练好的向量作为起点来训练其他任务,会取得更好的效果。这种思想的最初成果是Word2Vec,即通过无监督学习为每个字(词)生成唯一确定的向量。

然而,我们很快发现这还不够。由于文字与上下文中的其他文字紧密相连,为某些字词分配固定的向量不能完全表达其含义。例如,“我的苹果手机”和“这个苹果很好吃”,其中的“苹果”一词显然具有不同的含义,因为不同的上下文导致了含义的变化。因此,我们开始使用预训练模型,例如GPT和BERT,来代替预训练词向量(如Word2Vec),从而生成更有表现力的上下文相关向量。

随着研究的进一步发展,我们发现像GPT这样的预训练模型不仅可以提高下游有监督任务的性能,还可以直接完成一些任务。例如,通过直接输入问题获得答案(零样本学习/Zero-shot Learning),或将一些例子和问题作为上下文输入模型以获得答案(基于上下文的学习/In-context-Learning,少样本学习/Few-shot Learning),这些方法在许多任务上都取得了很好的效果。也就是说,对于某些任务,我们甚至不需要进行训练或更新模型参数,就可以达到令人满意的效果。

GPT中的T

在GPT中,T就是Transformer,是变换模型的意思。那么变换模型究竟是什么呢?笔者曾向ChatGPT询问过这个问题。

佳芮: 什么是变换模型?

ChatGPT: 变换模型(Transformer)是一种基于自注意力机制的神经网络结构,最初是由Vaswani 等人在论文“Attention is All You Need”中提出的。该结构主要用于自然语言处理任务,特别是机器翻译任务,由于在这些任务中序列的长度通常很长,因此传统的循环神经网络(RNN)和卷积神经网络(CNN)的效果不理想,而Transformer通过引入自注意力机制,实现了对序列的并行处理,并取得了较好的效果。

在Transformer中,自注意力机制可以在不同位置之间计算注意力权重,从而获得一个综合的表示。具体来说,输入序列首先经过一个叫作嵌入层(Embedding)的模块,将每个单词嵌入一个 d 维的向量空间中。然后,经过多个层次的自注意力和前馈神经网络(Feed-Forward Network)的计算,得到最终的输出。自注意力机制可以在序列中的每个位置计算权重,从而计算每个位置与序列中其他位置的关系。这样的注意力机制可以捕获序列中的长期依赖关系,而不像传统的RNN和LSTM一样,只能处理有限长度的序列。

变换模型在自然语言处理领域中应用广泛,特别是在机器翻译、文本分类、语言模型等任务中取得了非常好的效果。同时,变换模型的结构也被广泛应用到其他领域,例如图像处理、语音识别等任务中,成了一种重要的神经网络结构。

以上解释可能会给没有算法或机器学习背景的读者造成困惑。图5-1是更详细地解释这个问题的说明。

图5-1

Transformer模型是由多个Transformer Block组成的。每个Block包含两个主要部分:自注意力机制(Self-Attention)和前馈神经网络(Feed-Forward Network)。除此之外,每个Block还包括层归一化(Layer Normalization)和残差连接(Residual Connection)等组件。下面详细介绍每个部分。

(1)自注意力机制:这部分的作用是使模型能够根据输入序列中不同位置的信息来调整每个位置的表示。自注意力机制通过计算输入序列中每个位置与其他位置的关联权重,将这些权重与其他位置的表示相结合,从而获得新的表示。这使得模型能够捕捉长距离依赖和输入序列的结构信息。一般的注意力机制都是使用多头注意力(Multi-Head Attention),以便更好地捕捉输入序列的多种模式。这意味着模型会同时学习多个自注意力模式,每个模式关注不同的信息。这些注意力模式的结果会被拼接起来,通过线性变换生成统一的表示。

(2)前馈神经网络:这是一个简单的全连接神经网络,它作用于每个位置的表示。前馈神经网络包括两个线性变换层和一个激活函数。这部分主要负责捕捉局部特征和执行非线性变换,注意力机制本质上是线性变化,非线性的能力并不充分。

(3)残差连接:为了避免模型在多个层次之间发生梯度消失或梯度爆炸问题,每个Block内部的自注意力层和前馈神经网络层都通过残差连接组件与其输入进行连接。这意味着每层的输出都是它的输入与输出之和。

(4)层归一化:这是一种归一化技术,它可以加速模型的训练并提高模型的泛化能力,有助于平衡不同层之间的学习速率和梯度值。

总的来说,Transformer 模型通过堆叠多个具有自注意力机制和前馈神经网络的Block,能够有效地处理自然语言序列,捕捉输入序列中的依赖关系和复杂模式。

当我们输入“将我爱机器学习翻译成英文”到GPT模型时,期望输出的回答是“I love machine learning”,在这个过程中,注意力机制会关注输入序列中的Token来生成正确的回答。以下是一个简化的注意力分布示例,用于解释这个过程。

(1)模型读取输入序列:“将我爱机器学习翻译成英文”。

(2)当生成第一个Token“I”时,注意力分布可能会关注“翻译成英文”,因为此时模型需要生成英文翻译部分。同时,注意力分布也可能关注“我”,以便将其翻译为英文。

(3)当生成第二个Token“love”时,注意力分布可能会关注“爱”,以便将这部分翻译成英文。同时,注意力分布也可能关注“I”,因为“love”紧跟在“I”后面。

(4)当生成第三个Token“machine”时,注意力分布可能会关注“机器”,以便将这部分翻译成英文。此外,注意力分布也可能关注“love”,因为“machine”通常与前面的动词相关。

(5)当生成第四个Token“learning”时,注意力分布可能会关注“学习”,以便将这部分翻译成英文。同时,注意力分布也可能关注“machine”,因为“learning”是与“machine”紧密相关的名词。

在整个生成过程中,注意力机制会关注输入序列中的相关Token,以生成正确且连贯的英文翻译。请注意,上述过程解释严格来讲和模型代码级别并不一致,这里的流程描述只是为了解释,帮助读者理解。

值得注意的是,Transformer 不等于预训练模型,它不能完全摆脱人工标注数据。但是与之前的模型相比,它的模型在质量上更优,更易于优化,所需要的训练时间明显缩短。

可解释性和数据偏见

笔者与ChatGPT深入探讨了一些问题,如可解释性和数据偏见。这些问题也经常被人们提及。那么,什么是可解释性和数据偏见?以下是笔者与ChatGPT的对话。

佳芮: 你在这里提到了可解释性问题和数据偏见,你可以详细展开聊一聊吗?

ChatGPT: 当涉及ChatGPT模型时,可解释性和数据偏见都是非常重要的问题。以下是它们的详细介绍:

可解释性问题ChatGPT模型具有非常强大的自然语言处理能力,但由于其神经网络结构的复杂性和数学模型的黑盒特性,模型的结果和决策通常难以解释。这就是可解释性问题。

解释性是机器学习的一个重要特性,因为它能够让我们了解模型如何做出决策,以及为什么会有这样的决策。这对于理解和信任模型是非常重要的。例如,在医疗诊断领域,解释性可以帮助医生理解模型如何得出诊断结论,从而更好地指导医疗决策。

对于ChatGPT模型来说,虽然它的输出是一个文本序列,但是它内部的运作原理是非常复杂的。这使得模型的输出难以解释,尤其是对于一些对话场景来说,因此,如何提高ChatGPT模型的可解释性是目前研究的热点之一。

数据偏见问题ChatGPT模型的训练数据通常来自互联网上的海量文本数据,然而,这些数据往往包含着社会和文化的偏见,如性别歧视、种族歧视等。这就是数据偏见问题。

在ChatGPT模型中,如果训练数据中包含歧视性文本,那么模型就会学习到这种偏见,进而将其传递到生成的文本中。例如,在聊天机器人应用中,如果模型受到偏见的训练数据的影响,那么它可能会对一些群体或者问题做出不公正的回答。

因此,如何减少数据偏见对ChatGPT模型的影响,是目前研究的热点之一。一种解决数据偏见问题的方法是增加代表性数据,例如多样化的性别、年龄、文化和语言等。另外,一些研究者也提出了一些对抗偏见的技术,如去偏见预处理、公平性线约束等。

总之,ChatGPT模型的可解释性和数据偏见问题是目前研究的热点之一。在未来的发展中我们可以期待更多的研究成果来解决这些问题,使得ChatGPT模型更好地服务于人类社会。

ChatGPT技术的黑盒特性,让人们难以解释其生成结果的原因和机制,这种可解释性问题一直是它所面临的挑战之一。由于训练数据集和模型参数不可见,ChatGPT生成的对话内容可能是不可预测的,也不一定符合人的思维逻辑。因此,我们需要一种方法来解决ChatGPT的可解释性问题。一种方法是采用模型解释和可视化技术,将模型转化为可解释的形式。例如,使用特征权重或决策树等方法,或者使用可视化技术展示模型的内部工作过程,如流程图等。另一种方法是通过开放式训练、数据蒸馏和攻击检测等方式增强ChatGPT的可解释性。这些方法可以帮助我们更好地理解ChatGPT生成结果的原因和机制,并且帮助我们改进ChatGPT的输出结果。

此外,ChatGPT的数据偏见问题也是我们需要关注和解决的问题之一。这种偏见来源于ChatGPT使用的训练数据集可能存在数据偏见问题,即一个数据集中某些内容或特征不足或过多,导致模型预测结果产生偏差。例如,如果训练数据缺少某些语言的数据,那么ChatGPT生成的文本就可能出现错误或者不准确。为了解决数据偏见问题,我们需要进行数据采集、处理特征选择、做平衡等工作。同时,我们还需要开发一种扩充训练数据集的方法,通过引入噪声和随机性等方法,使得ChatGPT的训练数据更具多样性,从而更好地探测和处理它所面临的数据偏见问题。

众所周知,ChatGPT是一个非常有用和智能的系统,我们需要继续关注它所面临的挑战和问题,为它的发展提供更好的支持和帮助。

数据隐私

通过ChatGPT的阐释,我们可以明显看出这个模型非常清楚地表达了可解释性和数据偏见问题。这些问题可能会带来技术和伦理上的挑战,如隐私保护、误导性和社会责任等。接下来,笔者向ChatGPT提出数据隐私相关的问题。

佳芮: 再来讲讲ChatGPT带来的数据隐私的问题吧!

ChatGPT: 当涉及ChatGPT模型时,数据隐私也是一个重要的问题。由于ChatGPT模型是通过训练数据学习到自然语言规律和特征的,因此在训练数据中包含的隐私信息可能会被模型学习到,从而导致数据隐私泄露的问题。

在实际应用中,ChatGPT模型往往需要访问用户的个人数据,如个人聊天记录、个人文档等。这些数据往往包含用户的敏感信息,如个人隐私、财务信息、医疗信息等。如果这些数据泄露或被滥用,将会给用户带来极大的风险和危害。

为了保护用户的数据隐私,需要采取一系列的措施。以下是一些可能的解决方案。

1.数据脱敏:通过对用户的个人数据进行加密或脱敏,以避免数据泄露。

2.数据集合:对于用户的个人数据,尽量采用集合学习的方式进行模型训练,以避免直接使用个人数据,从而保护数据隐私。

3.隐私协议:在应用ChatGPT模型时,需要制定隐私协议,并在使用前征得用户的明确同意,明确告知用户哪些数据将被使用、用途、保护措施等。

4.模型加密:通过模型加密技术,将模型参数加密,使得模型训练和使用过程中不会直接暴露用户的数据,从而保护用户的数据隐私。

5.联邦学习:通过联邦学习技术,将模型训练过程分布在多个设备或者多个数据中心中,从而避免直接访问用户的个人数据,保护数据隐私。

总之,在应用ChatGPT模型时,数据隐私问题需要引起足够的重视。通过加密、脱敏、协议和联邦学习等多种手段,可以有效保护用户的数据隐私。在未来的发展中,我们也可以期待利用更多的技术手段来保护用户的数据隐私,并为ChatGPT模型在更多的应用场景中提供更好的支持。

我们看到,在实际应用中,ChatGPT也面临着数据隐私问题。由于模型的训练需要大量的数据集来实现,包括自然语言对话的生成等任务,这些数据中可能会包含用户的个人信息和隐私。如果这些数据泄露或被滥用,则会对用户的隐私安全构成威胁,可能导致用户的个人隐私被泄露和滥用。这也是我们需要重视数据隐私保护的原因之一。

然而,ChatGPT并没有止步于列举问题,还为我们提出了一些解决方案。例如,数据匿名化和加密等技术手段,可以帮助我们保护用户的数据隐私。数据匿名化可以保护敏感信息不被暴露,而加密则可以确保数据传输时不被截获窃取。这些方案,能够提高数据隐私保护的效果,同时有助于减少数据泄露和滥用风险。

ChatGPT作为一种先进的自然语言处理模型,为我们提供了新的思路和解决方案来保护数据隐私。这也提醒我们在日常实践中,更关注并加强数据隐私的保护。

多模态

我们再来看看ChatGPT是如何回答多模态学习这个问题的。

佳芮: 针对多模态学习,你可以展开说一说吗?

ChatGPT: 当涉及多模态学习时,通常是指使用多种不同类型的数据来训练和改进机器学习模型,以进一步提高模型的性能和应用范围。ChatGPT模型本身主要应用于自然语言处理领域,但是通过多模态学习,可以将其他类型的数据与文本信息结合,从而实现更全面和精确的分析和预测。

在多模态学习中,最常见的数据类型包括图像、视频、音频等。例如,对于视频数据,可以将其分为多个帧,然后使用卷积神经网络提取每个帧的特征,最终将这些特征结合起来作为模型的输入。对于音频数据,可以使用声音信号处理技术,提取音频中的频率、波形等特征,然后将这些特征结合到模型中。最终,通过将这些数据类型和文本信息结合,可以实现更全面和准确的分析和预测。

对于ChatGPT模型而言,多模态学习可以为其带来很多有意义的拓展。例如,通过将图像和文本结合,可以实现更加智能化的图像描述、图像生成、视觉问答等应用。通过将视频和文本结合,可以实现更加智能化的视频描述、视频生成、视频问答等应用。通过将音频和文本结合,可以实现更加智能化的语音识别、语音翻译、音频问答等应用。

总之,多模态学习将为ChatGPT模型带来更广泛的应用场景和更好的效果和性能。未来,随着技术的不断进步和发展,我们可以期待更多的多模态学习技术被应用到ChatGPT模型和其他机器学习模型中,为我们带来更加智能化和全面的应用体验。

当谈到多模态学习时,我们可以看到这个领域非常广泛,涵盖自然语言处理、计算机视觉、语音识别等领域。在多模态学习中,我们可以使用不同的方法进行联合学习。这些方法包括同时学习和共享学习等。

总体而言,多模态学习在不同领域具有广泛的应用前景。通过研究和探索不同的联合学习方法,我们可以更好地将不同领域的数据进行融合,提高模型的性能和表现,从而更好地解决实际问题。

注意力机制

接下来,为读者介绍什么是注意力机制,先看看ChatGPT怎么说?

佳芮: 什么是注意力机制?

ChatGPT: 注意力机制(Attention Mechanism)是一种神经网络结构,用于计算输入序列中不同部分之间的重要性,并将其应用于不同的自然语言处理任务中。注意力机制最初是在机器翻译任务中引入的,但现在已经广泛应用于各种自然语言处理任务中。

在自然语言处理中,注意力机制可以用于计算每个单词在上下文中的重要性,并将这些重要性应用于模型的输出中。例如,在机器翻译任务中,输入是源语言的一句话,输出是目标语言的一句话。注意力机制可以帮助模型关注源语言中与目标语言相关的部分,并将其翻译为目标语言。

注意力机制的计算过程通常由三个步骤组成:查询、键值对、计算权重。首先,将输入序列经过线性变换得到查询向量,将上下文序列经过线性变换得到键值对。然后,通过计算查询向量与每个键的相似度,得到注意力权重。最后,根据注意力权重和键值对计算加权平均值,得到输出向量。

总之,注意力机制是一种神经网络结构,用于计算输入序列中不同部分之间的重要性,并将其应用于各种自然语言处理任务中。注意力机制可以帮助模型关注与任务相关的部分,并在很多自然语言处理任务中取得了非常好的效果。

介绍注意力机制时,ChatGPT使用了较为专业和学术性的方式,初学者可能会感到难以理解。那么,如何让ChatGPT更平实易懂地介绍注意力机制的概念呢?

笔者不再问什么是注意力机制,而是换了一种问法。

佳芮: 用小学生可以理解的例子,形象地解释什么是Transformer中的注意力机制。

ChatGPT: 假设你是一位小学生,你正在看一本厚厚的科普书,里面有许多重要的知识点,但你只有一定时间来阅读它。这时,如果你能够集中注意力在最重要的知识点上,忽略那些不重要的内容,你就能更好地理解书中的内容。

在机器翻译中,Transformer模型也需要类似的能力,即需要从输入的源语言句子中挑选出最重要的部分翻译成目标语言句子。注意力机制就是帮助Transformer模型集中注意力在输入序列中最重要的部分上的一种技术。

让我们用一个例子来解释Transformer模型中的注意力机制。比如你正在学习一个英文句子:“The cat sat on the mat”,想要将其翻译成中文。当Transformer模型对这个句子进行编码时,它会将句子中每个单词表示成一个向量,然后将这些向量输入一个注意力机制中。

注意力机制会计算每个单词与其他单词的相关性,并给它们分配一个注意力权重。在这个例子中,注意力机制可能会将“cat”和“mat”之间的关系分配更高的权重,因为它们之间有一个“on the”短语,而这个短语对于理解整个句子的意思非常重要。然后,这些注意力权重会被用来对单词向量进行加权,产生一个加权向量,表示整个输入序列的含义。

在翻译过程中,这个加权向量会被传递到解码器中,解码器会根据这个加权向量生成对应的中文句子。这样,注意力机制就可以帮助Transformer模型集中注意力在输入序列中最重要的部分上,从而更好地理解输入序列和生成输出序列。

总之,注意力机制就像是在输入序列中找出最重要的信息,帮助模型更好地理解输入和输出。这个过程类似于小学生在学习时筛选出重要知识点,集中精力理解它们的过程。

从上述两个回答中可以发现,针对不同的问题,ChatGPT采用了截然不同的回答方式。这也表明问题的提问方式对于ChatGPT的回答非常重要。ChatGPT只是一个智能语言模型,它没有眼睛,不知道屏幕前坐的是一位小学生,还是一位博士。因此,如果我们希望ChatGPT用小学生也能理解的方式来解释复杂概念,就需要给它相应的指示。

关于ChatGPT的参数说明

在对比ChatGPT和GPT-3的参数规模时,我们可以看到OpenAI于2020年发布的GPT-3模型,参数量高达1750亿。相比之下,ChatGPT的参数量是多少呢?(2023年3月OpenAI宣布:ChatGPT开放API,而且价格相较之前大幅降低,它的价格降到了原来的十分之一。这给我们提供了非常棒的机会,让更多的人能够体验并探索ChatGPT带来的可能性。)

笔者问一下ChatGPT,它的参数量是多少。

佳芮: ChatGPT和GPT-3的参数对比。

ChatGPT: ChatGPT是GPT-3模型的一种变体,其参数大小取决于特定版本和配置的模型。作为一种面向一般对话任务的语言模型,ChatGPT通常比最大的GPT-3模型要小得多,后者最高可以达到1750亿个参数。

例如,微软在2020年发布的ChatGPT的最大版本有60亿个参数,而GPT-3的最大版本有1750亿个参数。ChatGPT的较小参数大小使其更容易部署在较小的设备上,并在具有较低计算资源的应用程序中使用。

值得注意的是,参数大小不是确定语言模型性能的唯一因素。架构、训练数据和优化技术也在确定模型有效性的过程中起着重要作用。

在谈及ChatGPT和GPT-3的参数规模时,我们可以看到ChatGPT自称最大版本的参数量为60亿,而GPT-3则拥有高达1750亿的参数量。

据笔者了解,目前还没有公开资料能够确切地显示ChatGPT的参数量。可以确定的是,ChatGPT模型的规模远小于GPT-3。福布斯的一篇报道说ChatGPT有20亿参数,笔者用不同的语言(中文和英文)问它关于模型参数的问题。在询问GPT-3的参数量时,ChatGPT常常给出1750亿这样标准的数字。在询问自身参数量时,ChatGPT的回答却不尽相同,从60亿、6亿、65亿到20亿,数字反复变化,但可以确认的是,ChatGPT是一个只有几十亿参数的相对小的模型。这也是ChatGPT的定价会是GPT-3定价的十分之一的原因。在笔者撰写本书时,OpenAI已经推出了GPT-4。由于其参数更多,因此GPT-4的定价是ChatGPT的15~30倍。笔者推测,这是OpenAI制定的一种成本定价策略。

5.2 ChatGPT写书稿大纲

ChatGPT这么火,它到底能干什么?为了更好地阐述ChatGPT的应用价值,笔者选择将ChatGPT作为助理,帮助自己撰写本书大纲。

佳芮: 我想写一本书,主要向读者介绍ChatGPT,你能帮我写一个从0到1学习ChatGPT的书稿大纲吗?

ChatGPT: 当然可以,以下是一个简单的从0到1学习ChatGPT的书稿大纲,供您参考:

1.第一部分:ChatGPT简介

- ChatGPT(Generative Pre-trained Transformer)简介

- 神经网络和自然语言处理相关基础知识

- ChatGPT在自然语言处理领域的应用

2.第二部分:ChatGPT的技术原理

- Transformer模型介绍

- 自监督学习模型

- Fine-tuning模型

- 搭建ChatGPT模型的详细过程

3.第三部分:如何使用ChatGPT实现对话生成

- ChatGPT模型生成对话的流程

- 对话的文本预处理

- ChatGPT模型生成对话的实现方法

- 基于ChatGPT模型的对话生成应用案例

4.第四部分:ChatGPT的进阶使用

- 改进ChatGPT的自然语言生成能力

- 不同自然语言生成任务中的ChatGPT应用

- ChatGPT的性能评估方法和指标

5.第五部分:ChatGPT技术在商业中的应用

- ChatGPT在客户服务中的应用

- ChatGPT在在线客服中的应用

- ChatGPT在机器翻译中的应用

6.第六部分:ChatGPT的未来趋势

- 自然语言处理技术的前景展望

- ChatGPT发展的可能性和限制

7.结论和思考

- 总结ChatGPT相关技术知识点

- 对ChatGPT技术的思考和展望

佳芮: 继续。

ChatGPT:

8.附录

- Python 编程基础和实战应用

- TensorFlow、PyTorch等深度学习框架入门

以上书稿大纲可以帮助你更好地规划写作方向,具体内容应根据自己的经验和实际情况做相应的修改。在写作过程中也可以不断地进行调整和完善,最终写出一本深入浅出、易于理解的书,让读者更加深入地了解ChatGPT相关技术和应用场景,并有能力将其应用于实际项目中。祝你写作顺利!

通过ChatGPT的协助,笔者得到了一份详细的书稿大纲。笔者希望ChatGPT能详细介绍第六部分的第二点。

佳芮: 详细介绍第六部分的第二点。

ChatGPT: ChatGPT技术具有广阔的发展前景,但在应用和推广中还存在一些限制和挑战。

从技术角度看,由于ChatGPT技术是基于海量数据训练的,因此其在强监督学习的领域可能并不是最优的选择。另外,由于GPT是具有分类的应用,相对于更偏向生成语言处理的技术指标来说,OpenAI最新的算法在数据计算时容易出现问题。这些技术问题如果不能被有效解决,将会限制ChatGPT技术的发展。

除了技术方面的挑战,ChatGPT技术在应用推广中还会面临一些难题。首先,由于ChatGPT技术是一种通过大量数据学习生成模型的技术,其对于信任和隐私方面的问题格外关注。在这种技术的应用过程中,如何保护用户的数据隐私和个人信息安全将是至关重要的。另外,在聊天机器人等应用中,ChatGPT技术还需要解决如何让用户更好地理解和信任机器人生成的语言,以及如何实现机器人和人类之间的更加自然、精准的交流。

然而,在ChatGPT技术的发展中也蕴藏着巨大的商业机会。ChatGPT技术在客户服务、在线客服、机器翻译等领域有广泛的应用前景,能够帮助企业提高效率、降低成本,并提高用户体验。并且,随着ChatGPT技术的不断发展,其在智能语音、智能写作等方面的应用潜力也将不断拓展和增强。

当然,ChatGPT模型还存在一些挑战和问题,如可解释性、数据偏见和数据隐私等。在未来的发展中,我们可以期待ChatGPT模型在这些方面得到更好的解决。同时,我们也期待ChatGPT模型在更多的应用场景中得到应用,从而更好地服务人类社会。

抛开ChatGPT的大纲是否可用,从这个例子可以看出,当笔者继续追问时,ChatGPT记得自己的输出:第六部分的第二点是什么。

5.3 ChatGPT在营销场景中的作用

笔者管理着一家对话式营销云公司,因此笔者对营销相关的解决方案非常关注。笔者公司的客户经常问,在营销方面,ChatGPT能解决哪些问题?这个问题交给ChatGPT来回答。

佳芮: ChatGPT在品牌营销方面将会发挥重要的作用,可以帮我举几个例子吗?

ChatGPT: 当谈到ChatGPT模型在品牌营销方面的应用时,以下是一些具体的例子:

1.舆情监测和分析:通过ChatGPT模型对社交媒体、论坛和新闻网站等数据进行分析,以了解消费者对品牌的看法、关注点和偏好。基于ChatGPT模型的情感分析技术,还可以对消费者的情感和态度进行分析和评估,为品牌营销决策提供支持和参考。

2.智能客服和在线互动:ChatGPT模型可以作为智能客服机器人的核心技术,为消费者提供更加高效、便捷的咨询和服务。在品牌社交媒体账号上,ChatGPT模型可以自动回复消费者的留言和评论,并根据消费者的提问和关注点提供个性化的回答和服务。

3.社交媒体广告:ChatGPT模型可以应用于社交媒体广告的创意和内容生成。通过模型生成的广告文案、图片和视频等,可以更好地吸引消费者的注意力和提高广告的转化率。

4.活动策划和执行:ChatGPT模型可以应用于品牌活动的策划和执行。通过分析和挖掘消费者的兴趣和需求,ChatGPT模型可以为品牌提供个性化的活动内容和推广策略,以提高活动的参与度和效果。

5.智能推荐和个性化营销:基于ChatGPT模型的推荐算法,可以实现更加智能化的产品推荐和个性化营销。通过分析消费者的历史行为、偏好和兴趣,ChatGPT模型可以为消费者推荐符合其需求的产品和服务,以提高消费者的满意度和忠诚度。

总之,ChatGPT模型在品牌营销方面具有广泛的应用前景,可以通过智能客服、社交媒体广告、活动策划和执行等多种手段,提高品牌知名度、营销效果和消费者满意度。

ChatGPT与笔者分享了5个具体的例子,这些例子非常清晰地展示了ChatGPT作为一项自然语言处理技术在内容生成方面的卓越能力。它可以自动生成到店邀约话术、不同文案脚本和较长的文本内容,等等。这些都是ChatGPT擅长的领域。然而,笔者的观点与ChatGPT不尽相同,在涉及客服和需要可控性的场景方面,ChatGPT可能不是特别擅长,或者说最好的情况还是加入一些工程手段的人工干预,才能将ChatGPT应用在智能客服领域。对于企业来说,回答内容的可控性非常重要,毕竟当ChatGPT“一本正经地胡说八道”时,比如在回答问题的时候把数字弄错,把10说成了100,中间的差价是企业完全不能承担的。

本书将深入探讨ChatGPT在企业营销和服务领域中的应用范围和潜能。我们将深入分析它在内容生成方面的优势与局限性,并进一步探讨怎样规避风险,提高ChatGPT的应用效果。笔者希望为企业营销从业者、客服人员及对自然语言处理技术感兴趣的读者提供全面且有实际应用价值的内容。

5.4 ChatGPT对人工智能未来的发展趋势的判断

我们探讨了ChatGPT在品牌营销方面的一些问题。接下来请ChatGPT发表对自身发展和人工智能未来的发展趋势的看法。

佳芮: 可以再聊聊ChatGPT和人工智能未来的发展趋势吗?

ChatGPT: 当谈到ChatGPT和人工智能未来的发展趋势时,以下是一些可能的方向和趋势:

1.多模态学习:虽然ChatGPT模型主要应用于自然语言处理领域,但是未来也可能通过多模态学习的方式,将图像、视频和音频等其他信息与文本信息结合,进一步提高模型的效果和表现能力。

2.集成学习:未来ChatGPT模型可能会通过集成学习的方式,将多个模型结合,以进一步提高模型的效果和鲁棒性。例如,可以将预训练的ChatGPT模型与其他任务特定的模型结合,形成更加强大的混合模型。

3.训练效率:由于ChatGPT模型的训练时间和资源成本较高,未来可能会通过优化算法、硬件加速、分布式计算等手段,提高模型的训练效率和速度。

4.可解释性:未来ChatGPT模型的可解释性可能会得到更多的研究和改进,以便更好地理解模型的决策和结果。

5.隐私保护:由于ChatGPT模型需要访问大量的用户数据,未来将会更加重视数据隐私保护,采用更加严格的隐私协议和技术手段,保护用户的数据隐私。

总之,未来ChatGPT模型和人工智能的发展趋势可能涉及模型效果的提高、训练效率的提高、模型的可解释性、数据隐私保护等多个方面。我们可以期待更多的研究成果和技术进步,来推动ChatGPT模型和人工智能的发展。

5.5 如何使用ChatGPT

接下来,笔者再问一问ChatGPT如何使用ChatGPT吧。

佳芮: 针对如何使用ChatGPT,可以展开说说吗?

ChatGPT: 当涉及如何使用ChatGPT模型时,以下是一些可能的步骤和建议。

1.数据准备:首先,需要准备一个适合ChatGPT模型训练的数据集。数据集应该具有足够的大小和质量,以便训练出一个高效和具有鲁棒性的模型。可以通过爬虫、数据采集、数据清洗等技术手段获取和处理数据。

2.模型选择:基于ChatGPT模型的多个版本,需要选择一个适合自己任务的模型版本。如GPT-2、GPT-3等。可以根据任务的规模、复杂度和需要的精度等方面来选择适合的模型。

3.模型训练:一旦选择了合适的模型,就可以开始训练模型。训练过程中,需要设置合适的超参数、学习率、批量大小等参数,以获得最佳的训练效果。训练过程中,可以使用多台计算机或者云计算服务来提高训练效率和速度。

4.模型评估:训练完成后,需要对模型进行评估,以确保模型的效果和性能满足预期要求。评估过程中,可以使用预处理的测试数据集或者人工评估等手段来评估模型的质量。

5.模型部署:一旦确认模型的效果和性能,就可以将模型部署到生产环境中。部署过程中,需要考虑模型的安全性、可扩展性、性能和鲁棒性等方面,以确保模型能够正常运行并且应用效果良好。

总之,使用ChatGPT模型需要进行一系列的步骤和准备工作,包括数据准备、模型选择、模型训练、模型评估和模型部署等。需要注意的是,在这个过程中,需要注意数据隐私、模型效果和性能等方面的问题,并选择合适的技术手段和解决方案来解决这些问题。

在提到使用技术时,ChatGPT非常详细地解释了每个模块的工作原理。此外,它还提出了一些需要注意的事项,包括模型评估和优化、用户体验设计、数据安全和隐私保护、模型可解释性、公正性等。

5.6 ChatGPT立即体验

在工作场景中,ChatGPT可以提供多种用于头脑风暴的参考方案、协助撰写多种场景的话术文案、设计多种场景的活动策划和营销活动,还可以协助整理会议纪要、制订计划等。

如果读者没有条件访问ChatGPT,那么可通过句子互动搭建的体验平台进行体验(如图5-2所示)。读者可以在微信公众号中搜索“AI对话未来”,在微信中感受大语言模型带来的乐趣。

图5-2

5.7 关于ChatGPT的“猜概率”

ChatGPT是当前自然语言处理领域研究的热点,被誉为生成式语言模型的代表之一。那么,它是如何进行概率猜测的呢?笔者从一个简单的例子入手为读者进行分析。

假设有这么一个句子:“今天我来到极客时间做ChatGPT的_____。”通过大量的数据训练,AI系统可以预测下画线处应该填什么词。在此例中,AI系统猜测大概率是“公开课”,于是将“公开课”填入下画线处,从而生成了一个完整的答案:“今天我来到极客时间做ChatGPT的公开课。”这听上去非常神奇,为什么AI系统会猜出“公开课”呢?

现阶段所有的自然语言处理任务,都不能表明AI系统真正理解了这个世界。它只是在玩文字游戏,一次又一次地进行概率猜谜。其逻辑有点类似于我们玩填字游戏时的策略,我们是通过已有的知识和智慧来推理填写的单词,而AI系统则依赖概率计算进行推理。再来看猜概率的环境,主流的技术方向大致分为BERT和GPT两种。BERT曾经非常流行,几乎在自然语言处理领域中占据统治地位,并在文本分类、情感分析等任务中表现出色。

那么BERT和GPT都是什么呢?它们都是文字的模型,都在猜概率。笔者来问问ChatGPT,从专业的角度看,GPT和BERT的区别是什么?

佳芮: GPT和BERT的区别是什么?

ChatGPT: GPT(Generative Pre-training Transformer)和BERT(Bidirectional Encoder Representations from Transformers)都是基于Transformer模型的预训练语言模型,可以用于各种自然语言处理任务,例如文本分类、命名实体识别、机器翻译等。两者的主要区别如下。

1.预训练方式不同:GPT是一种单向的语言模型,即通过左侧的单词序列预测右侧的单词序列,而BERT则是一种双向的语言模型,即通过同时考虑左右两侧的单词序列来预测中心单词的表示。

2.目标不同:GPT的目标是生成下一个单词,即通过给定一段文本,预测下一个单词的概率分布;而BERT的目标是预测中心单词,即通过给定一段文本,预测每个单词的隐含表示,其中中心单词的表示可以用在其他任务中。

3.预训练数据集不同:GPT主要使用了互联网上的大规模文本数据集,例如维基百科、新闻、小说等;而BERT则主要使用了BooksCorpus和Wikipedia数据集,其中BooksCorpus数据集包含了800万本图书的文本,Wikipedia数据集包含了维基百科的文本。

4.模型结构不同:GPT主要由多个Transformer解码器组成,而BERT则由多个Transformer编码器组成,其中BERT的最后一层会输出整个输入序列的表示,而GPT则只输出最后一个单词的表示。

总之,GPT和BERT在预训练方式、目标、预训练数据集和模型结构等方面有一定的区别。两者都是目前自然语言处理领域的前沿研究方向,可以应用于各种自然语言处理任务中,并取得了非常好的效果。

为了帮助读者更好地了解BERT和GPT的不同,笔者尽可能用普通人能理解的语言重新梳理二者的区别。BERT是一种双向语言模型,通常用于处理语义包含、序列标注和问答等自然语言处理任务。这种模型类似于一种完形填空的游戏,将句子分成左右两个部分,然后预测两个部分之间缺少的词汇。BERT通过对大量的语料进行无监督训练获取语言信息,然后通过有监督的微调使其适应特定任务,具有卓越的性能和精度。图5-3所示为一个具体案例。

图5-3

GPT是一种生成式单向语言模型,通常用于文本生成、机器翻译和对话系统的开发。类似于写作文,这种模型通过预测下一个单词不断生成文本,从而生成连续而自然的文本序列。GPT 利用互联网上的大型语料库进行预训练,然后在实际应用中进行微调,在文本生成方面表现优异。

总的来说,BERT和GPT的区别在于,BERT是双向语言模型,而GPT是单向语言模型。BERT主要用于语言理解任务,而GPT主要用于文本生成任务。两种模型在预训练和微调方面都有其独特的优点,也有一些共性。

当提到BERT和GPT时,不得不涉及Fine-tuning和Prompt两个重要概念,同样,先让ChatGPT来解释什么是Fine-tuning,什么是Prompt。

佳芮: Fine-tuning是什么意思?

ChatGPT: Fine-tuning是一种机器学习中的训练方法,通常用于将一个已经预训练好的模型在特定任务上进行微调,以提高模型在特定任务上的性能。

在自然语言处理领域,例如使用GPT模型进行文本生成或其他NLP任务,通常可以使用Fine-tuning的方法对模型进行微调。Fine-tuning的过程通常包括以下几个步骤。

1.准备数据集:收集并准备适用于特定任务的数据集。数据集的规模和质量会直接影响模型的微调效果。

2.导入预训练模型:将预训练模型导入程序中,并根据需要调整模型参数。

3.加载数据集:将准备好的数据集加载到程序中,并进行数据清洗和处理。

4.微调模型:使用数据集对模型进行微调。微调通常需要多次选代,每次选代都会更新模型的参数,直到模型的性能满足特定的任务要求。

5.评估模型:对微调后的模型进行评估,以确定模型的性能是否满足特定的任务要求。如果需要,可以通过调整微调策略和参数来改进模型的性能。

6.使用微调后的模型:将微调后的模型应用到特定的任务中,并对生成的结果进行验证和调整。

总之,Fine-tuning是一种将已经预训练好的模型在特定任务上进行微调的机器学习方法,可以提高模型的性能和应用效果。使用Fine-tuning的过程需要仔细考虑数据集的质量、微调策略和模型参数等问题,以获得更好的微调效果。

佳芮: Prompt是什么意思?

ChatGPT: 在ChatGPT中,Prompt是指用户向模型提供的输入文本或问题,用于启动模型的响应和生成对话。Prompt可以是一个完整的句子或段落,也可以是一个问题或关键词,模型会根据Prompt生成相应的回复或文本。

在ChatGPT中,Prompt扮演着非常重要的角色,因为它可以指导模型生成对话的方向和内容。用户可以根据自己的需要和意图,编写不同的Prompt来启动对话,并通过逐步添加或修改Prompt的方式,引导模型生成更加符合自己期望的对话回复。

在使用ChatGPT进行对话生成时,Prompt可以是一些简单的问答或聊天话题,也可以是一些复杂的场景或故事情节。通过不断调整和优化 Prompt,用户可以不断改进模型的生成效果和交互体验。

笔者用自己的理解解释这几个概念。

· GPT-3的论文定义中提到,如果需要对模型参数进行更新,尤其是用基于梯度下降为主的算法对模型进行更新,就要用到Fine-tuning。

· 如果不需要修改模型和参数,只给模型一些提示和样例,就让模型按我们提出的要求完成一些任务,称为In-context Learning,后来大家称其为Prompt。

简单来说,Fine-tuning就是调参,Prompt就是提示词。值得一提的是,Prompt模式相较于Fine-tuning会更简单。

训练大语言模型的成本相对较高,大部分公司没有对大语言模型进行微调的能力。大语言模型注定是只有少数玩家能参与的“游戏”。而 Prompt 模式恰恰相反,不需要大量的数据,不需要对模型参数进行改动(也就意味着可以不部署模型,而是接入公开的大语言模型服务),只要去测试就可以了。因此,对Prompt模式的调试会呈现百花齐放的姿态,玩家越多,创造力涌现就越猛烈。

ChatGPT基于InstructGPT训练而来,同时结合了RLHF(Reinforcement Learning with Human Feedback)技术:

佳芮: 什么是InstructGPT?

ChatGPT: InstructGPT是一种基于GPT模型的指导型对话生成技术,它通过在输入的Prompt中添加指令或指导语来引导GPT模型生成符合预期的对话回复。

在传统的GPT模型中,生成的对话回复通常是自由的,没有明确的方向或目标。而在使用InstructGPT进行对话生成时,用户可以在输入的Prompt中添加一些指令或指导语,告诉模型应该如何生成回复。例如,用户可以在Prompt中添加“请告诉我如何做某件事”或“请给我提供一些相关资料”等指导语,来引导模型生成相应的回复或内容。

InstructGPT技术可以帮助模型更加精准地控制对话的方向和内容,提高对话的效率和准确性。同时,它还可以使模型更加灵活和可控,能够适应不同的应用场景和用户需求。

InstructGPT技术的实现方式比较灵活,具体可以根据不同的需求和场景进行调整。一些常见的实现方式包括:将指令或指导语嵌入输入的Prompt中,或者使用单独的向量来表示指令或指导语。在使用InstructGPT技术时,需要注意指令或指导语的表述清晰明确,以便模型能够正确理解用户的意图和需求。

佳芮: 什么是Reinforcement Learning with Human Feedback?

ChatGPT: Reinforcement Learning with Human Feedback(RLHF)是一种结合了强化学习和人类反馈的机器学习方法。它通过将强化学习算法与人类反馈相结合,以提高机器学习模型的性能和适应性。

在RLHF中,模型会不断生成不同的输出或行为,并将其展示给人类用户进行评估。人类用户可以给出反馈或评分,告诉模型哪些行为是正确或合理的,哪些行为是错误或不合理的。模型可以根据这些反馈或评分来优化自身的行为策略,以最大化长期的奖励信号。

RLHF 技术可以应用在许多机器学习任务中,如对话生成、推荐系统、游戏等。通过不断接受人类反馈,模型可以逐步提高自身的表现效果,同时还能更好地适应人类的需求和偏好。与传统的强化学习算法相比,RLHF 技术具有更强的鲁棒性和可解释性,能够更好地应对未知和复杂的环境。

总的来说,RLHF 技术是一种结合了人类智慧和机器学习的方法,可以使机器学习模型更加智能。

我们经常听到两个词:Zero-shot Prompt和Few-shot Prompt。Zero-shot Prompt(零样本提示)是指不给出任何例子,直接向模型提出问题;Few-shot Prompt(小样本提示)是指在向模型提出问题的同时,提供少量的例子,辅助模型理解问题。他们的相同之处是都将标题或问题作为提示,以此指导语言模型生成与提示相关的语义内容。同样,我们让ChatGPT用小学生能理解的语言描述Zero-shot Prompt和Few-shot Prompt的区别。

佳芮: 请用小学生能理解的语言,描述Zero-shot Prompt和Few-shot Prompt的区别。

ChatGPT: Zero-shot Prompt和Few-shot Prompt都是使用预先训练好的电脑程序(叫作语言模型)写文章或回答问题。但是,它们之间有一个重要的区别。

Zero-shot Prompt 是说你不需要给电脑程序提供太多关于这个问题或话题的资料,电脑程序会根据它先前学习到的知识和模式来回答问题或写文章。就好像你只告诉电脑程序“请写一篇关于动物的文章”,电脑程序就可以开始写文章了。

Few-shot Prompt是说你可以为电脑程序提供一些更具体的关于这个问题或话题的资料,这样电脑程序就可以更好地了解你的问题或话题。这些资料不需要太多,就像你告诉电脑程序“请写一篇有关狗的文章”,然后再告诉它一些关于狗的事实,如“有四条腿”“狗可以当宠物”,这样电脑程序就可以写一篇更好的关于狗的文章了。

所以,Zero-shot Prompt和Few-shot Prompt都是使用电脑程序来写文章或回答问题的方法,只是Few-shot Prompt会给电脑程序提供更多的关于问题或话题的资料,让电脑程序更好地了解问题或话题,写出更准确、更有用的回答或文章。

简单来说,Zero-shot Prompt和Few-shot Prompt是根据是否在Prompt中提供所提出问题对应的例子进行区分的。ChatGPT之所以如此惊艳,是因为它具有基于 Zero-shot Prompt的能力。例如,我们可以给它一个主题,让它写出一首诗,无须提供更多提示。ChatGPT大大降低了应用人工智能的门槛,让更多的人能够享受到这项技术的便利和乐趣。

5.8 ChatGPT的前世今生

本节将探讨强大的ChatGPT的演变过程。在讨论ChatGPT之前,让我们先来回顾自2016年以来人工智能领域的重要变革:从分析式AI向生成式AI转型。

分析式AI主要是利用机器学习的方法学习数据分布,从而完成各种任务,如分类和预测。它学到的知识局限于数据本身。分析式AI的核心工作是对数据进行分析和分类。

与分析式AI不同,生成式AI在学习数据分布的基础上,探索数据的产生模式,并创造出数据集中不存在的新样本。在分析式AI的基础上,诞生了Stable Diffusion等新的模型。

生成式AI的应用极其广泛,从社交媒体到游戏,从广告到建筑,从编程到平面设计,从产品设计到市场营销,每一个原来需要人类进行创作的行业(文字创作、图片生成、代码写作,等等),都可以被生成式AI重组。

整个生成式AI的全景图 如图5-4所示,每个类别提供动力的平台层,以及将在其上构建的潜在的应用程序类型。

图5-4

从图中可以看出,内容生成可以分为几大类:文本、代码、图片、语音合成、视频和3D模型等。下面笔者逐项展开介绍。

文本(Text):大语言模型在中短篇形式的写作任务中表现得相当出色(即便如此,它们通常用于创作初稿)。随着时间的推移,模型变得越来越好(截至本书写作时,GPT-4已经具有多模态大模型的属性,据说GPT-5也在“炼丹”中,也许很快就能与大家见面),期望看到更高质量的输出、更长形式的内容和更好的垂直领域深度。

代码(Code):对开发者的生产力有很大的影响,正如GitHub Co-Pilot所表现的那样。此外,代码生成还将使非开发者更容易创造性地使用代码。

图片(Image):在Twitter上分享生成的图片比文本有趣得多!具有不同美学风格的图像模型、用于编辑和修改生成图像的不同技术在陆续出现。

语音合成(Speech):语音合成技术已经出现一段时间,但面向消费者和企业的应用才刚刚起步。对于像电影和播客这样的高端应用程序来说,听起来不机械的、具有人类质量的语音是相当高的门槛。就像图像一样,如今的模型为进一步优化或实现应用的最终输出提供了一个起点。

视频和3D模型:人们对这些模型的潜力感到兴奋,因为它们可以打开电影、游戏、虚拟现实、建筑和实物产品设计等大型创意市场。期待在未来1~2年内看到基础的视频和3D模型的出现。

接下来,笔者结合Chatbot介绍ChatGPT。在笔者看来,ChatGPT的出现,也使Chatbot演进到了一个新的阶段。时间拉回到2016年,那时开发Chatbot经常会提到 Domain这个词(指知识领域,后面章节会详细介绍,这里不再赘述)。例如,做一个订票Chatbot,需要把它的Domain分得非常细(如订火车票、订机票等),对它做不同的分类后,再做整个对话的管理……

假设笔者要做一个全能Chatbot,需要先做一个订票的Chatbot,再做一个营销文案的Chatbot,再做一个闲聊的Chatbot,再做一个文案的Chatbot……做非常多的Chatbot,非常多的Domain。详细内容本节不再介绍,总而言之,我们之前看到的产品,不管是Siri、小爱同学还是百度小度,都基于这样的方式做Chatbot。

有了OpenAI的ChatGPT后,我们会发现流程完全不一样了。开发者不需要考虑这么多的Domain,也不需要考虑意图,甚至不需要了解词槽。只需要让它不停地学习,不停地“猜概率”就够了。

当然,上述均是“理想”情况,在客服领域、在售后领域、在一些To B场景中,需要一次性给出准确答案,因此之前的这些方案还有非常大的价值,我们不能完全摒弃过去的做法。ChatGPT的技术演化路径如图5-5所示。

GPT-3的出现是一个重大转折点。在GPT-3之前,BERT的表现始终比GPT-1和GPT-2好。从GPT-3开始,这种模型更符合我们对人工智能的想象:通过学习海量的知识成长起来,稍加引导,就能具备强大的能力。

图5-5

5.9 ChatGPT背后的公司:OpenAI

设计出ChatGPT这款伟大产品的公司名叫OpenAI,其创始人为Sam Altman。提到Sam Altman,我们不得不提到他之前所在的机构Y Combinator(简称YC)。YC是全球最大的孵化器之一,其孵化了非常多的优秀企业,如Airbnb、Dropbox、GitLab、Stripe等。而Sam Altman此前曾作为YC的总裁,领导了该孵化器的多个成功项目。

笔者的公司句子互动,有幸成为Sam Altman在YC孵化的最后一批项目(图5-6中的右图是笔者公司的创始人在YC门口的合影)。2019年3月,在YC的毕业典礼上,Sam Altman说:“我有一个重大的决定,我要离开YC去OpenAI。”当时笔者非常不理解,在YC这么好的机构做总裁是多少人梦寐以求的职位,他为什么要去一家非营利机构做人工智能呢?如今,笔者明白了他做这个伟大决定的意义。

OpenAI成立之初是为了防止 DeepMind 作恶,其使命旨在确保AGI造福全人类,创建一个安全、可靠的AGI,并尽可能广泛和平等地共享其优势。

图5-6

当时,Musk认为防止有人拿人工智能技术作恶的最好方式是让人工智能技术民主化并被广泛使用,人人拥有人工智能就相当于没有任何人拥有这项技术特权。OpenAI的发展史如图5-7所示。

图5-7 iFUbDUeoNI1gnpL3u5x3X6kfPCyKSxdImMUBxdC+2cMKH8t8NfbVf/Sk7nqA4UYv

点击中间区域
呼出菜单
上一章
目录
下一章
×