书籍目录
首页
分类
免费
排行
我的书架
1-50章
51-100章
101-147章
共147章
免费
版权信息
免费
版权声明
免费
前言
免费
致谢
免费
关于本书
免费
目标读者
免费
本书结构概览
免费
关于代码
免费
本书论坛
免费
其他在线资源
免费
关于封面插图
免费
第1章 理解大语言模型
免费
1.1 什么是大语言模型
免费
1.2 大语言模型的应用
免费
1.3 构建和使用大语言模型的各个阶段
免费
1.4 Transformer 架构介绍
免费
1.5 利用大型数据集
免费
1.6 深入剖析GPT架构
免费
1.7 构建大语言模型
免费
1.8 小结
免费
第2章 处理文本数据
免费
2.1 理解词嵌入
免费
2.2 文本分词
免费
2.3 将词元转换为词元ID
2.4 引入特殊上下文词元
2.5 BPE
2.6 使用滑动窗口进行数据采样
2.7 创建词元嵌入
2.8 编码单词位置信息
2.9 小结
第3章 编码注意力机制
3.1 长序列建模中的问题
3.2 使用注意力机制捕捉数据依赖关系
3.3 通过自注意力机制关注输入的不同部分
3.3.1 没有可训练权重的简单自注意力机制
3.3.2 计算所有输入词元的注意力权重
3.4 实现带可训练权重的自注意力机制
3.4.1 逐步计算注意力权重
3.4.2 实现一个简化的自注意Python类
3.5 利用因果注意力隐藏未来词汇
3.5.1 因果注意力的掩码实现
3.5.2 利用 dropout 掩码额外的注意力权重
3.5.3 实现一个简化的因果注意力类
3.6 将单头注意力扩展到多头注意力
3.6.1 叠加多个单头注意力层
3.6.2 通过权重划分实现多头注意力
3.7 小结
第4章 从头实现GPT模型进行文本生成
4.1 构建一个大语言模型架构
4.2 使用层归一化进行归一化激活
×