书籍目录
首页
分类
免费
排行
我的书架
1-50章
51-100章
101-150章
151-198章
共198章
免费
版权信息
免费
内容简介
免费
作者简介
免费
前言
免费
本书赞誉
免费
第1章 初识大语言模型
免费
1.1 大语言模型的发展
免费
1.2 常见的大语言模型
免费
1.2.1 统计学模型N-gram
免费
1.2.2 统计学模型HMM
免费
1.2.3 神经网络模型RNN
免费
1.2.4 自然语言处理中的传统模型LSTM
免费
第2章 大语言模型的基石——Transformer
免费
2.1 Transformer模型的由来
免费
2.2 Transformer模型的基本原理
免费
2.2.1 词嵌入
免费
2.2.2 位置编码
免费
2.2.3 注意力机制
免费
2.3 Transformer注意力机制的技术实现
免费
2.3.1 自注意力机制的设计细节
免费
2.3.2 多头注意力机制的设计细节
免费
2.4 Transformer模型总结
免费
第3章从Transformer到ChatGPT
免费
3.1 ChatGPT的由来
免费
3.2 二元语法模型
免费
3.2.1 文本如何转换为数字
免费
3.2.2 如何设计模型
免费
3.2.3 如何训练模型
免费
3.3 GPT模型
免费
3.3.1 GPT模型的结构
免费
3.3.2 GPT模型的设计实践
免费
3.4 简单GPT模型的完整实现
免费
3.5 GPT模型的优化
免费
3.5.1 样本数据的精细化处理
免费
3.5.2 特殊符号的引入
免费
3.5.3 早停策略的应用
免费
3.5.4 模型训练中的强化学习
3.6 GPT模型总结
第4章 大语言模型的微调技术
4.1 微调的基本概念
4.1.1 适配器微调
4.1.2 前缀微调
4.1.3 LoRA
4.1.4 QLoRA
4.2 微调中的关键技术
4.2.1 PEFT工具包
4.2.2 LoRA
4.3 微调技术的应用案例
4.3.1 BERT分类模型
4.3.2 基于BERT分类模型的微调
×