购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

1.1.1 为什么生成式AI如此强大?

生成式AI也被称为AIGC(AI Generated Content,人工智能生成内容),相比于传统的AI模型,它具备更强大的学习和模拟能力。它能够通过大量的数据训练,学习各种语言模式、知识结构和逻辑关系。以DeepSeek-V3为例,其预训练token量达到了14.8万亿——已经超过了绝大多数人类的阅读量。这使得生成式AI能够理解并生成符合语法规则和语义逻辑的文本、图像、音频等内容。与传统的内容生成方式相比,生成式AI不受固定模板或规则的限制,能够根据给定的条件或主题,自主生成多样化、个性化、灵活性的内容。此外,生成式AI还具有自我优化的能力,它可以通过持续的学习和自我改进,不断提高生成内容的质量和准确性,通过人类的反复“调教”和“磨合”,其生成的文本内容可不断贴近人的预期。

那么,生成式AI为什么能如此强大?它是如何运作的呢?

生成式AI本质上是一种统计语言模型,其通过对词语序列的概率分布建模来完成文本生成任务。即利用给定的上下文片段作为条件,来预测下一个时刻不同词语出现的概率分布。简单来说, 生成式AI做的事情就是给它一个词语,能够预测下一个词语 。示例如下:

给定上下文: “新一代人工智能产品——AI Helper 3.0,其自然语言处理……”

给定词语A“自然语言处理”,后面可能出现的词语有B、C、D……

如B“能力”,C“技术”,D“引擎”……

假设AI通过概率计算选择了词语B“能力”,AI会继续计算词语B后面可能出现的词语E、F、G……

E“出众”,F“卓越”,G“强大”……

假设AI通过概率计算选择了词语G“强大”,后面进一步可能出现的词语有H、I、J……

H“功能”,I“性能”,J“实力”……

假设最后选择了词语I“性能”,那么最后组成的短句则为:“新一代人工智能产品——AI Helper 3.0,其自然语言处理能力强大,性能……”。以此类推,可完成后续文本内容的生成。

从以上案例可以看出来,对于生成式AI而言,其生成能力的强弱取决于两个方面:一个是预测链条的长度(即能往下推理多少轮次),另一个是每一层级计算出来的可能性多少(即每一轮次能想到多少种可能性)。两者从横向和纵向两个层面一起决定了一个模型的参数规模,“越长”“越宽”的模型其参数规模通常越大,在生成式任务上通常也会呈现更好的表现。

相比于既往的AI模型,生成式预训练模型GPT(Generative Pre-training Transformer)的一项关键创新是使用了变压器体系结构,变压器体系结构基于自注意机制,可以使模型更好地捕捉输入数据中的 长距离依赖性 。简单理解,就是GPT在生成任务中,能预测很多个轮次,捕捉很长距离的文本关系。以GPT3为例,其底层“神经网络”一共有96层,每一层能捕捉到的特征维度有12288个,这就使得其参数量达到了千亿级别——远超过了人类大脑的神经元数量(图1-1)。

图1-1 生成式AI神经网络示例

当然,我们并不能简单地将AI的“神经元”和人脑神经元相类比。前者的“脑结构”无疑是简单粗糙的,每一个“神经元”通常只有0或者1的二元状态;而人脑中的每一个神经元、神经突都具有复杂的调节机制,在分泌各种神经递质(如多巴胺)和传递各种神经信号的过程中,不是简单的0(传递)或1(不传递)的二元选择,而涉及很微妙的变化和分泌量的调节。这种差异也在一定程度上决定了“智脑”和人脑的能力区别,AI虽然知识储备量大、信息处理能力强,但其在现阶段仍很难像人类一样进行创造性思考,或是拥有真正的情感和主观体验。人脑的复杂性不仅体现在神经元之间精细的连接和调节上,更在于它能够整合各种感知、记忆、情绪和认知过程,形成一个独特而丰富的内心世界。这种由生物和神经机制共同构建的深度与广度,是目前的AI技术还无法企及的。因此,在探索人工智能与人类智能的融合之路上,我们仍有许多未知需要解锁。 AE182Xu0ayEB/IXRhtBQvN8rTjDaQywkmXow4w5SkzJ657R2773YDJJHzbiG5MdP

点击中间区域
呼出菜单
上一章
目录
下一章
×