购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

1.3 本书的读者对象与内容

本书的读者对象是谁?读者阅读本书将收获什么?这些问题对作者和读者都非常重要。对作者而言,这些问题有助于确定本书需要包含的主题,这些主题涉及的内容的深度、边界和组织方式;对读者而言,这些问题有助于判断是否值得购买和阅读本书。

本书的读者对象是对深度学习有一定经验的机器学习爱好者,包括在校大学生和从业者,最好有使用TensorFlow或者PyTorch训练深度神经网络模型的经验。本书对那些有搜广推经验、想转向大模型的读者和有自然语言处理经验、想快速掌握大模型的读者是非常友好的。对于没有自然语言处理经验的读者,建议在阅读本书之前,先阅读Hugging Face研发人员Lewis Tunstall等所著的 Natural Language Processing with Transformers 一书,这样会对Transformer网络架构有比较深入的理解,并学会如何利用Transformers库开发一些经典的大语言模型(BERT)应用(如命名实体识别、文本分类、摘要生成、问答系统等)。深度强化学习方面的经验不是必需的。只有在使用强化学习微调进行偏好对齐(第6章)时涉及深度强化学习,读者可以选择跳过。不过,在大模型落地实践方面,强化学习微调技术还是挺重要的。如果想很好地理解这方面的知识,建议阅读Miguel Morales的经典之作 Grokking Deep Reinforcement Learning

本书不是理论教材,而是侧重于行业实践。希望读者通过阅读本书,可以快速上手开发行业智能助手,在实际场景中落地。不过本书也会对涉及的相关理论、框架原理进行一定深度的讲解,作者深信这将有助于读者理解实践的内容,并在此基础上得到更好的实践效果。同时,在每一章末尾都列出了参考文献,以供读者查阅细节。

本书内容组织如下:第2章介绍基于Transformer的端到端预训练模型架构,还涉及像MoE、长上下文扩展等高级主题。第3章介绍大语言模型分布式训练的优化技术和框架以及如何使用DeepSpeed进行高效的大模型训练;第4~6章深入介绍预训练、指令微调、强化学习微调技术,教会你如何打造一个行业大模型;第7章全面介绍大模型推理优化技术以及如何选择合适的推理平台进行模型部署;第8章深入讲解多模态大模型的关键技术和技术路线,并对业界有代表性的多模态大模型进行详细介绍;第9章对AI智能体这一前沿的领域进行初步介绍。 z11mR2weQklZiRrMxBGNuJJzTIsD0yo8ooZv6yPwIYSfY7w6im6vDwa527QiuuVc

点击中间区域
呼出菜单
上一章
目录
下一章
×

打开