书籍目录
首页
分类
免费
排行
我的书架
1-50章
51-75章
共75章
免费
版权信息
免费
内容提要
免费
前言
免费
资源与支持
免费
序章 看似寻常最奇崛,成如容易却艰辛
免费
GPT-4:点亮通用人工智能的火花
免费
人工智能演进之路:神经网络两落三起
免费
现代自然语言处理:从规则到统计
免费
大规模预训练语言模型:BERT与GPT争锋
免费
从初代GPT到ChatGPT,再到GPT-4
免费
第1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words
1.1 N-Gram模型
1.2 “词”是什么,如何“分词”
1.3 创建一个Bigram字符预测模型
1.4 词袋模型
1.5 用词袋模型计算文本相似度
小结
思考
第2课 问君文本何所似:词的向量表示Word2Vec和Embedding
2.1 词向量 ≈ 词嵌入
2.2 Word2Vec:CBOW模型和Skip-Gram模型
2.3 Skip-Gram模型的代码实现
2.4 CBOW模型的代码实现
2.5 通过nn.Embedding来实现词嵌入
小结
思考
第3课 山重水复疑无路:神经概率语言模型和循环神经网络
3.1 NPLM的起源
3.2 NPLM的实现
3.3 循环神经网络的结构
3.4 循环神经网络实战
小结
思考
第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构
4.1 Seq2Seq架构
4.2 构建简单Seq2Seq架构
小结
思考
第5课 见微知著开慧眼:引入注意力机制
5.1 点积注意力
5.2 缩放点积注意力
5.3 编码器-解码器注意力
5.4 注意力机制中的 Q、K、V
5.5 自注意力
5.6 多头自注意力
5.7 注意力掩码
5.8 其他类型的注意力
小结
思考
第6课 层峦叠翠上青天:搭建GPT核心组件Transformer
×