当前位置:   article > 正文

好书推荐《ChatGPT原理与架构:大模型的预训练、迁移和中间件编程 》_大模型 好书推荐

大模型 好书推荐

一本书讲透 ChatGPT,实现从理论到实践的跨越!大模型技术工程师必读

OpenAI 在 2022 年 11 月推出了人工智能聊天应用—ChatGPT。它具有广泛的应用场景,在多项专业和学术基准测试中表现出的智力水平,不仅接近甚至有时超越了人类的平均水平。这使得 ChatGPT 在推出之初就受到广大用户的欢迎,被科技界誉为人工智能领域的新里程碑。

人们在为生成式人工智能所带来的多模态内容创作效率的提升而欢呼时,常常低估 ChatGPT 的推理能力。这种能力使 ChatGPT 不仅能作为新一代人机交互的核心,还能作为智能代理来构建自动化和半自动化的工作流程,甚至使它能与工业控制或机器人领域相结合,引发深刻的社会变革。

许多人低估了这种变革的影响力。以当前研发和商业应用的迭代速度来看,预计在未来三至五年内,这种变革将逐渐渗透到人类生活和生产的各个方面,极大地提升现有的生产力。若要追溯上一个被称为 “巨大技术变革” 的时代,很多人都会毫不犹豫地说是互联网开创期。这次变革也将重塑内容生产相关的商业模式,改变现有的工作方式,甚至推动生产方式的变革。当然,这还需要依赖下一代大语言模型在内容输出的可控性方面的突破。

image-20240305220434029

内容简介

这是一本深入阐述 ChatGPT 等大模型的工作原理、运行机制、架构设计和底层技术,以及预训练、迁移、微调和中间件编程的著作。它将帮助我们从理论角度全面理解大模型,从实践角度更好地应用大模型,是作者成功训练并部署大模型的过程复盘和经验总结。
第 1 章介绍了 ChatGPT 等大模型的发展历程、技术演化和技术栈等基础知识;
第 2~5 章深入讲解了 Transformer 的架构原理,并从 GPT-1 的生成式预训练到 GPT-3 的稀疏注意力机制详细描述了 GPT 系列的架构演进;
第 6~8 章从底层技术实现的角度讲解了大模型的训练策略、数据处理方法,以及如何利用策略优化和人类反馈来进一步提升模型的表现;
第 9~10 章首先详细讲解了大模型在垂直领域的低算力迁移方法,并给出了医疗和司法领域的迁移案例,然后讲解了大模型的中间件编程;
第 11 章对 GPT 的未来发展趋势进行预测,探讨数据资源、自回归模型的局限性,以及大模型时代具身智能的可行路线。

作者简介

程戈
博士生导师,湘潭大学计算机学院 · 网络空间安全学院教授,湘潭大学技术转移中心副主任,湘潭市京东智能城市与大数据研究院副院长,智慧司法与数字治理湖南省重点实验室副主任,CCF 计算法学会执委。
大模型领域技术专家和布道者,作为两项科技部国家重点研发子课题的负责人,与成都数之联等多家企业合作推动人工智能在司法领域的落地,带领团队开发了 JusticeGPT 司法大模型,不同于其他的以提升司法领域知识问答能力为核心的司法大模型,该大模型致力于提升司法文献检索增强生成以及司法文档的多跳信息聚合能力,并通过特定的多任务表征与控制指令生成框架重构司法信息化系统的业务中台,实现司法业务编排以及工作流自动化。
连续创业者,先后创立湘潭安道致胜信息科技有限公司等多家企业,曾经作为共同创始人加盟美国 WiFi Free llc. ,开发了 WiFi Free、WiFi Analyzer? 等项目,其中 WiFi Free 在 2014 到 2015 年是 Google Play 市场相关 WiFi 分享类应用下载的前三名。作为技术顾问,先后服务于北京捷通华声等多家企业,提供知识表示学习的技术解决方案,为某知名私募开发了基于深度学习的股票趋势预测系统,成为该私募公司的主要量化工具。

专家推荐

作者结合科研和实践经验,用朴实无华的语言,扎实、严谨地剖析了 ChatGPT 的技术原理和大模型的关键技术。全书内容丰富翔实,图文并茂,任何想要真正理解 ChatGPT 的读者,都会从本书中获益匪浅,深刻领会这项里程碑式的技术成果。
—— 陈峰 北京滴普科技有限公司合伙人 &《ClickHouse 性能之巅》作者

创业不易,比较幸运的是,我在北大做研究时,和团队一起成功地开发了 ChatLaw——国内首个在法律领域应用的大模型。本书的作者和团队也成功训练出法律行业的大模型,这本书分享了他们的成功经验。如果你对类似 ChatGPT 大模型的训练感兴趣,那么本书将是你不容错过的力作。
—— 崔家熙  ChatLaw

本书不仅能让你站在巨人的肩膀上俯瞰大语言模型的全貌,还带领你深入洞察其背后的原理与架构设计。不仅是一本理论与实践并重的参考书,更是一部引领人工智能领域创新发展的启示录。它将为你揭示大语言模型如何改变我们的生活,并展示如何在这一领域挖掘无限可能。
—— 黄剑  Google 工程师 / 抖音 “剑哥聊技术” 博主(仅代表个人观点,与任何公司无关)

本书系统地剖析了支撑 ChatGPT 的关键技术,包括 Transformer 模型、注意力机制、生成式预训练等理论基础,以及模型优化、低算力部署、人机交互等关键问题。全书内容丰富翔实,图文并茂,任何想要真正理解 ChatGPT 的读者都能从中获益。作者结合科研和实践经验,用平实的语言娓娓道来,让这个高深的主题变得触手可及。
—— 刘聪 南京云问科技首席算法架构师 / 知乎博主:@刘聪 NLP/《ChatGPT 原理与实践》作者

这是一本细致入微地剖析 ChatGPT 内在技术原理的佳作。内容严谨,结构清晰,层层深入地剖析了大语言模型背后的关键技术,如 Transformer、注意力机制、生成式预训练等。这是一本质量上乘的技术专著,它不仅系统全面,而且深入浅出,将 ChatGPT 这一复杂系统娓娓道来,让读者获益匪浅。
—— 刘树春 阿里巴巴高级算法专家
对于任何渴望深入了解大语言模型的人来说,本书是一本无价之宝。它是进入大语言模型训练和微调世界的敲门砖,同时也是您在人工智能领域取得成就的助推器。通过本书,您将掌握大语言模型的工作原理、技术挑战与发展趋势,从而为自己在人工智能时代的角色定位提供有力支持。
—— 占冰强  AIGCLINK 发起人 / 行行 AI 合伙人

读者对象

  • 人工智能领域的产品经理。对于希望在自家产品中引入 AI 功能的产品经理来说,了解 ChatGPT 等大语言模型的基本原理和运行机制是至关重要的。从本书中,他们可以学习大语言模型的设计思想、构造方式,以及如何将这些模型整合到产品中去。他们也可以借此更好地理解产品的性能瓶颈,从而进行更为精确的产品规划。

  • 人工智能相关专业的研究人员。AI 研究者可以将本书作为一本深入了解大语言模型的教科书。无论是 Transformer 模型的细节,还是 GPT 模型训练和优化的技巧,书中都进行了详细的介绍。更重要的是,书中还探讨了一些最前沿的研究领域,比如人类反馈强化学习、指令自举标注算法等。

  • 大规模数据处理和分析的工程师。对于面临如何高效处理大规模数据、如何构建分布式训练架构等问题的工程师来说,本书可以提供许多宝贵的建议和思路。例如,第 6 章对数据处理和分布式训练模式进行了深入的讨论。

  • AI 技术的爱好者和使用者。如果你是一个 AI 技术的爱好者,或者是一个善于运用技术改善生活的人,本书同样适合你。书中对大语言模型的介绍通俗易懂,可以让你对这个强大的技术有个全面的了解。此外,书中还提供了许多实用的使用技巧和案例,可以将它们直接应用到你的生活或工作中去。

目录

上拉下滑查看目录 ↓
前言

第 1 章 人工智能的新里程碑——ChatGPT  /  1

1.1   ChatGPT 的发展历程 /  1

1.2   ChatGPT 的能力 /  3

1.3  大语言模型的技术演化 /  6

1.3.1  从符号主义到连接主义 /  6

1.3.2   Transformer 模型 /  7

1.3.3  无监督预训练 /  10

1.3.4  有监督微调 /  11

1.3.5  人类反馈强化学习 /  11

1.4  大语言模型的技术栈 /  12

1.5  大语言模型带来的影响 /  13

1.6  大语言模型复现的壁垒 /  16

1.6.1  算力瓶颈 /  16

1.6.2  数据瓶颈 /  17

1.6.3  工程瓶颈 /  18

1.7  大语言模型的局限性 /  19

1.8  小结 /  20

第 2 章 深入理解 Transformer 模型 /  21

2.1   Transformer 模型简介 /  21

2.2  自注意力机制 /  23

2.2.1  自注意力机制的计算过程 /  23

2.2.2  自注意力机制的本质 /  26

2.2.3  自注意力机制的优势与局限性 /  28

2.3  多头注意力机制 /  29

2.3.1  多头注意力机制的实现 /  29

2.3.2  多头注意力机制的作用 /  31

2.3.3  多头注意力机制的优化 /  32

2.4  前馈神经网络 /  33

2.5  残差连接 /  35

2.6  层归一化 /  36

2.7  位置编码 /  38

2.7.1  位置编码的设计与实现 /  38

2.7.2  位置编码的变体 /  40

2.7.3  位置编码的优势与局限性 /  41

2.8  训练与优化 /  41

2.8.1  损失函数 /  41

2.8.2  优化器 /  42

2.8.3  学习率调整策略 /  42

2.8.4  正则化 /  43

2.8.5  其他训练与优化技巧 /  44

2.9  小结 /  46

第 3 章 生成式预训练 /  47

3.1  生成式预训练简介 /  47

3.2   GPT 的模型架构 /  48

3.3  生成式预训练过程 /  50

3.3.1  生成式预训练的目标 /  52

3.3.2  生成式预训练的误差反向传播过程 /  53

3.4  有监督微调 /  55

3.4.1  有监督微调的原理 /  55

3.4.2  有监督微调的特定任务 /  56

3.4.3  有监督微调的步骤 /  58

3.5  小结 /  59

第 4 章 无监督多任务与零样本学习 /  61

4.1  编码器与解码器 /  61

4.2   GPT-2 的模型架构 /  64

4.2.1  层归一化 /  65

4.2.2  正交初始化 /  66

4.2.3  可逆的分词方法 /  67

4.2.4  可学习的相对位置编码 /  71

4.3  无监督多任务 /  72

4.4  多任务学习与零样本学习的关系 /  74

4.5   GPT-2 的自回归生成过程 /  76

4.5.1  子词单元嵌入 /  76

4.5.2  自回归过程 /  77

4.6  小结 /  79

第 5 章 稀疏注意力与基于内容的学习 /  80

5.1   GPT-3 的模型架构 /  81

5.2  稀疏注意力模式 /  83

5.2.1   Sparse Transformer 的特点 /  83

5.2.2  局部带状注意力 /  85

5.2.3  跨层稀疏连接 /  85

5.3  元学习和基于内容的学习 /  86

5.3.1  元学习 /  87

5.3.2  基于内容的学习 /  87

5.4  概念分布的贝叶斯推断 /  90

5.4.1  隐式微调 /  90

5.4.2  贝叶斯推断 /  93

5.5  思维链的推理能力 /  95

5.6  小结 /  99

第 6 章 大语言模型的预训练

策略 /  100

6.1  预训练数据集 /  100

6.2  预训练数据的处理 /  102

6.3  分布式训练模式 /  104

6.3.1  数据并行 /  105

6.3.2  模型并行 /  106

6.4  分布式训练的技术路线 /  110

6.4.1   Pathways  /  111

6.4.2   Megatron-LM  /  113

6.4.3   ZeRO  /  116

6.5  训练策略案例 /  120

6.5.1  训练框架 /  120

6.5.2  参数稳定性 /  120

6.5.3  训练设置的调整 /  121

6.5.4   BF16 优化 /  121

6.5.5  其他因素 /  122

6.6  小结 /  123

第 7 章 近端策略优化算法 /  124

7.1  传统的策略梯度方法 /  125

7.1.1  策略梯度方法的基本原理 /  125

7.1.2  重要性采样 /  127

7.1.3  优势函数 /  128

7.2   Actor-Critic 算法 /  129

7.2.1   Actor-Critic 算法的基本步骤 /  130

7.2.2  值函数与策略更新 /  131

7.2.3   Actor-Critic 算法的问题与挑战 /  131

7.3  信任域策略优化算法 /  132

7.3.1   TRPO 算法的目标 /  132

7.3.2   TRPO 算法的局限性 /  133

7.4   PPO 算法的原理 /  134

7.5  小结 /  137

第 8 章 人类反馈强化学习 /  138

8.1  强化学习在 ChatGPT 迭代中的作用 /  138

8.2   InstructGPT 训练数据集 /  140

8.2.1  微调数据集的来源 /  141

8.2.2  标注标准 /  142

8.2.3  数据分析 /  143

8.3  人类反馈强化学习的训练阶段 /  145

8.3.1  有监督微调阶段 /  145

8.3.2  奖励建模阶段 /  147

8.3.3  强化学习阶段 /  148

8.4  奖励建模算法 /  149

8.4.1  算法思想 /  149

8.4.2  损失函数 /  150

8.5   PPO 算法在 InstructGPT 中的应用 /  151

8.6  多轮对话能力 /  153

8.7  人类反馈强化学习的必要性 /  154

8.8  小结 /  156

第 9 章 大语言模型的低算力领域迁移 /  157

9.1  指令自举标注 /  157

9.2  人工智能反馈 /  161

9.3  低秩自适应 /  163

9.3.1  模型训练与部署 /  164

9.3.2  秩的选择 /  165

9.4  量化:降低部署的算力要求 /  166

9.5   SparseGPT 剪枝算法 /  168

9.6  开源大语言模型的低算力迁移案例 /  170

9.6.1  基座模型 /  170

9.6.2  自举指令微调的羊驼系列 /  171

9.6.3  中文解决方案 /  172

9.6.4  医疗领域的迁移实例 /  174

9.6.5  司法领域的迁移实例 /  175

9.7  小结 /  178

第 10 章 中间件编程 /  180

10.1  补齐短板—LangChain 恰逢

其时 /  180

10.2  多模态融合中间件 /  184

10.2.1  任务规划 /  185

10.2.2  模型选择 /  187

10.2.3  任务执行 /  188

10.2.4  响应生成 /  189

10.3   AutoGPT 自主代理与任务

规划 /  189

10.4  中间件框架的竞品 /  192

10.5  小结 /  194

第 11 章 大语言模型的未来

之路 /  195

11.1  强人工智能之路 /  195

11.2  数据资源枯竭 /  198

11.3  自回归模型的局限性 /  200

11.4  具身智能 /  202

11.4.1  具身智能的挑战 /  203

11.4.2   PaLM-E  /  204

11.4.3   ChatGPT for Robotics  /  205

11.5  小结 /  210

限时五折购买链接:https://item.jd.com/14316580.html

直播预告

3 月 7 日周四 19:00,大模型领域技术专家,湖南国家应用数学中心副主任,湘潭市京东智能城市与大数据研究院副院长,湘潭大学计算机学院. 网络空间学院教授 程戈老师与您分享 “世界模型改变世界:从 GPT 到 Sora”,点击预约观看!

image-20240305220901565

本书概览

限时五折购买链接:https://item.jd.com/14316580.html

image-20240305220655336

限时五折购买链接:https://item.jd.com/14316580.html

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/620807
推荐阅读
相关标签
  

闽ICP备14008679号