当前位置:   article > 正文

【图书推荐】《PyTorch深度学习与计算机视觉实践》_pytorch最新书籍

pytorch最新书籍

本书重点

掌握深度学习基本原理、算法与PyTorch框架用法

实战人脸识别、图像识别、图像生成、目标检测、图像分割、图像迁移应用

完整的案例实现可以作为课题研究素材、毕业论文素材,适合相关人士收藏

典型案例

  • PyTorch卷积层的MNIST分类实战
  • PyTorch数据处理与模型可视化
  • 基于深度可分离膨胀卷积的MNIST手写体识别
  • ResNet实战CIFAR-10数据集分类
  • 基于OpenCV与PyTorch的人脸发现与识别实战
  • 基于循环神经网络的中文情感分类实战
  • 基于注意力机制的图像识别实战
  • 基于Diffusion Model的从随机到可控图像生成实战
  • 基于注意力的单目摄像头目标检测实战
  • 基于注意力与Unet的全画幅适配图像全景分割实战
  • 基于预训练模型的可控零样本图像迁移合成实战

内容简介

在人工智能的浩瀚星空中,深度学习犹如一颗耀眼的明星,引领着计算机视觉技术的发展。《PyTorch深度学习与计算机视觉实践》带领读者领略深度学习在计算视觉领域的魅力,详解使用PyTorch 2.0进行计算机视觉应用实战的技巧。本书配套示例源码、PPT课件。

《PyTorch深度学习与计算机视觉实践》共分15章,内容包括深度学习与计算机视觉、PyTorch 2.0深度学习环境搭建、从0开始PyTorch 2.0、一学就会的深度学习基础算法、基于PyTorch卷积层的MNIST分类实战、PyTorch数据处理与模型可视化、残差神经网络实战、基于OpenCV与PyTorch的人脸识别实战、词映射与循环神经网络、注意力机制与注意力模型详解、基于注意力机制的图像识别实战、基于Diffusion Model的从随机到可控的图像生成实战、基于注意力的单目摄像头目标检测实战、基于注意力与Unet的全画幅适配图像全景分割实战、基于预训练模型的可控零样本图像迁移合成实战。

适合读者

本书既适合深度学习初学者、PyTorch初学者、PyTorch深度学习计算机视觉应用开发人员阅读,也可作为高等院校或高职高专计算机技术、人工智能、智能科学与技术、数据科学与大数据技术等相关专业的教材。

作者简介

王晓华,高校计算机专业讲师,研究方向为云计算、大数据与人工智能。著有图书部分包括:
《ChatGLM3大模型本地化部署、应用开发与微调》《PyTorch语音识别实战》《从零开始大模型开发与微调:基于PyTorch与ChatGLM》《PyTorch 2.0深度学习从零开始学》《Spark 3.0大数据分析与挖掘:基于机器学习》《TensorFlow深度学习应用实践》《OpenCV+TensorFlow深度学习与计算机视觉实战》《TensorFlow语音识别实战》《TensorFlow 2.0卷积神经网络实战》《深度学习的数学原理与实现》。

前言

在人工智能的浩瀚星空中,深度学习犹如一颗耀眼的明星,引领着计算机视觉技术的发展。在这个充满变革与机遇的时代,希望本书能够带领读者领略深度学习应用于计算视觉领域的魅力,并掌握使用PyTorch进行计算视觉应用实战的技巧。

本书关注的是计算机视觉领域的重要分支—计算视觉,它涉及图像分类、目标检测、图像分割、图像生成等一系列核心问题。通过本书的学习,读者将了解深度学习和计算视觉的基本概念,掌握使用PyTorch进行图像处理、特征提取、模型训练和推理实践的技能。同时,本书还将通过完整的项目实战,让读者将所学知识应用到实际场景中,培养解决实际问题的能力。

本书构思

本书以实战为核心,以实际项目为导向。在阐述理论的基础上,带领读者踏上深度学习与计算机图像处理的探索之旅。本书不仅涵盖了基础知识,更有最新的研究成果和模型架构。通过阅读本书,读者将紧跟学术前沿,提升自身水平。

相比其他同类书籍,本书更强调理论的融会贯通。书中的所有知识点都不是孤立的,而是相互关联,构建成一个完整的知识体系。读者可根据章节顺序,由浅入深地逐步掌握各个知识点,最终形成自己的深度学习框架。

本书以解决图像处理实战项目为出发点,结合PyTorch 2.0深度学习框架进行深入浅出的讲解和演示。以多角度、多方面的方式手把手地教会读者编写代码,同时结合实际案例深入剖析其中的设计模式和模型架构。

本书特点

本书致力于引领读者掌握深度学习与PyTorch框架在计算机视觉处理领域的应用,不仅关注理论,更注重实践,提供一站式的实战指南。本书的突出优势体现在以下几个方面:

?系统性与实践性:本书从基础知识开始,逐步引导读者深入到实际项目中,对于可能遇到的问题,给出相应的解决方案。每个章节都以实际案例为依托,详细阐述相关知识点,让读者在实践中掌握深度学习和图像处理的核心技能。

?PyTorch与图像处理的完美结合:本书不仅介绍了PyTorch框架的基础知识和使用方法,还结合图像处理的实际应用进行深入探讨,以便读者更好地理解深度学习在计算机视觉领域的应用,并能够迅速将所学知识应用于实际项目中。

?多领域应用案例:本书通过多种领域的案例,展示深度学习在图像处理方面的广泛应用。这些案例涵盖图像识别、场景分割、图像生成以及目标检测等多个领域,使读者可以更好地了解深度学习在图像处理领域的应用前景。

?作者实战经验丰富:本书作者是深度学习领域的专家,具有深厚的学术背景和丰富的实践经验。作者在撰写本书的过程中以实际项目中遇到的问题为导向,注重知识体系的完整性和实用性,使本书更具参考价值。

资源下载

本书配套示例源代码、PPT课件,需要用微信扫描下面的二维码获取。如果阅读中发现问题或疑问,请发送邮件至booksaga@163.com,邮件主题写“PyTorch深度学习与计算机视觉实践”。

适合的读者

本书既适合深度学习初学者、PyTorch初学者、PyTorch计算机视觉应用开发人员阅读,也可作为高等院校或高职高专计算机技术、人工智能、智能科学与技术、数据科学与大数据技术等相关专业的教材。

致  谢

笔者在写作本书的过程中得到了家人和朋友的大力支持,在此表示感谢。本书的顺利出版,离不开清华大学出版社的编辑们的辛勤工作,在此表示感谢。

笔  者

2024年5月

目录

  1. 目 录
  2. 1章 深度学习与计算机视觉 1
  3. 1.1 深度学习的历史与发展 1
  4. 1.1.1 深度学习的起源 2
  5. 1.1.2 深度学习的发展脉络 3
  6. 1.1.3 为什么是PyTorch 2.0 3
  7. 1.2 计算机视觉之路 4
  8. 1.2.1 计算机视觉的基本概念 4
  9. 1.2.2 计算机视觉深度学习的主要任务 5
  10. 1.2.3 计算机视觉中的深度学习方法 6
  11. 1.2.4 深度学习在计算机视觉中的应用 7
  12. 1.3 本章小结 8
  13. 2章 PyTorch 2.0深度学习环境搭建 9
  14. 2.1 环境搭建1:安装Python 9
  15. 2.1.1 Miniconda的下载与安装 9
  16. 2.1.2 PyCharm的下载与安装 12
  17. 2.1.3 Python代码小练习:计算softmax函数 16
  18. 2.2 环境搭建2:安装PyTorch 2.0 17
  19. 2.2.1 NVIDIA 10/20/30/40系列显卡选择的GPU版本 17
  20. 2.2.2 PyTorch 2.0 GPU NVIDIA运行库的安装 17
  21. 2.2.3 Hello PyTorch 19
  22. 2.3 Unet图像降噪—第一个深度学习项目实战 20
  23. 2.3.1 MNIST数据集的准备 20
  24. 2.3.2 MNIST数据集特征介绍 22
  25. 2.3.3 Hello PyTorch 2.0—模型的准备和介绍 23
  26. 2.3.4 对目标的逼近—模型的损失函数与优化函数 25
  27. 2.3.5 Let’s do it!—基于深度学习的模型训练 26
  28. 2.4 本章小结 28
  29. 3章 从0开始PyTorch 2.0 30
  30. 3.1 实战MNIST手写体识别 30
  31. 3.1.1 数据图像的获取与标签的说明 30
  32. 3.1.2 实战基于PyTorch 2.0的手写体识别模型 32
  33. 3.2 PyTorch 2.0常用函数解析与使用指南 36
  34. 3.2.1 数据加载和预处理 36
  35. 3.2.2 张量的处理 37
  36. 3.2.3 模型的参数与初始化操作 40
  37. 3.3 本章小结 42
  38. 4章 一学就会的深度学习基础算法 43
  39. 4.1 反向传播神经网络的发展历程 43
  40. 4.2 反向传播神经网络的两个基础算法详解 46
  41. 4.2.1 最小二乘法 46
  42. 4.2.2 随机梯度下降算法 49
  43. 4.2.3 最小二乘法的梯度下降算法及其Python实现 52
  44. 4.3 反馈神经网络反向传播算法介绍 58
  45. 4.3.1 深度学习基础 58
  46. 4.3.2 链式求导法则 59
  47. 4.3.3 反馈神经网络原理与公式推导 60
  48. 4.3.4 反馈神经网络原理的激活函数 65
  49. 4.3.5 反馈神经网络原理的Python实现 66
  50. 4.4 本章小结 70
  51. 5章 基于PyTorch卷积层的MNIST分类实战 71
  52. 5.1 卷积运算的基本概念 71
  53. 5.1.1 基本卷积运算示例 72
  54. 5.1.2 PyTorch中卷积函数实现详解 73
  55. 5.1.3 池化运算 76
  56. 5.1.4 softmax激活函数 77
  57. 5.1.5 卷积神经网络原理 78
  58. 5.2 基于卷积的MNIST手写体分类 80
  59. 5.2.1 数据的准备 81
  60. 5.2.2 模型的设计 81
  61. 5.2.3 基于卷积的MNIST分类模型 82
  62. 5.3 PyTorch的深度可分离膨胀卷积详解 83
  63. 5.3.1 深度可分离卷积的定义 84
  64. 5.3.2 深度的定义以及不同计算层待训练参数的比较 86
  65. 5.3.3 膨胀卷积详解 86
  66. 5.3.4 PyTorch中基于深度可分离膨胀卷积的MNIST手写体识别 87
  67. 5.4 本章小结 89
  68. 6章 PyTorch数据处理与模型可视化 90
  69. 6.1 用于自定义数据集的torch.utils.data工具箱的用法 91
  70. 6.1.1 使用torch.utils.data. Dataset封装自定义数据集 91
  71. 6.1.2 改变数据类型的Dataset类中的transform详解 93
  72. 6.1.3 批量输出数据的DataLoader类详解 97
  73. 6.2 基于tensorboardX的训练可视化展示 99
  74. 6.2.1 PyTorch 2.0模型可视化组件tensorboardX的安装 99
  75. 6.2.2 tensorboardX可视化组件的使用 100
  76. 6.2.3 tensorboardX对模型训练过程的展示 102
  77. 6.3 本章小结 105
  78. 7章 残差神经网络实战 106
  79. 7.1 ResNet的原理与程序设计基础 107
  80. 7.1.1 ResNet诞生的背景 107
  81. 7.1.2 不要重复造轮子—PyTorch 2.0中的模块 110
  82. 7.1.3 ResNet残差模块的实现 111
  83. 7.1.4 ResNet的实现 113
  84. 7.2 ResNet实战:CIFAR-10数据集分类 116
  85. 7.2.1 CIFAR-10数据集简介 116
  86. 7.2.2 基于ResNet的CIFAR-10数据集分类 119
  87. 7.3 本章小结 121
  88. 8章 基于OpenCV与PyTorch的人脸识别实战 122
  89. 8.1 找到人脸—人脸识别数据集的建立 123
  90. 8.1.1 LFW数据集简介 123
  91. 8.1.2 Dlib库简介 124
  92. 8.1.3 OpenCV简介 125
  93. 8.1.4 使用Dlib检测人脸位置 125
  94. 8.1.5 使用Dlib和OpenCV制作人脸检测数据集 129
  95. 8.1.6 基于人脸定位制作适配深度学习的人脸识别数据集地址路径 131
  96. 8.2 人脸是谁—基于深度学习的人脸识别模型基本架构 135
  97. 8.2.1 人脸识别的基本模型SiameseModel 135
  98. 8.2.2 基于PyTorch 2.0的SiameseModel的实现 136
  99. 8.2.3 人脸识别的Contrastive Loss详解与实现 137
  100. 8.2.4 基于PyTorch 2.0的人脸识别模型 138
  101. 8.3 本章小结 141
  102. 9章 词映射与循环神经网络 142
  103. 9.1 樱桃-红色+紫色=?—有趣的词映射 142
  104. 9.1.1 什么是词映射 143
  105. 9.1.2 PyTorch中embedding的处理函数详解 144
  106. 9.2 循环神经网络与情感分类实战 145
  107. 9.2.1 基于循环神经网络的中文情感分类实战的准备工作 145
  108. 9.2.2 基于循环神经网络的中文情感分类实战 147
  109. 9.3 循环神经网络理论讲解 150
  110. 9.3.1 什么是GRU 150
  111. 9.3.2 单向不行,那就双向 152
  112. 9.4 本章小结 153
  113. 10章 注意力机制与注意力模型详解 154
  114. 10.1 注意力机制与模型详解 154
  115. 10.1.1 注意力机制详解 155
  116. 10.1.2 自注意力机制 156
  117. 10.1.3 ticks和LayerNormalization 162
  118. 10.1.4 多头注意力 163
  119. 10.2 注意力机制的应用实践—编码器 166
  120. 10.2.1 编码器总体架构 166
  121. 10.2.2 回到输入层—初始词向量层和位置编码器层 167
  122. 10.2.3 前馈层的实现 170
  123. 10.2.4 编码器的实现 171
  124. 10.3 实战编码器—自然语言转换模型 174
  125. 10.3.1 汉字拼音数据集处理 174
  126. 10.3.2 汉字拼音转换模型的确定 176
  127. 10.3.3 模型训练部分的编写 179
  128. 10.3.4 补充说明 181
  129. 10.4 本章小结 182
  130. 11章 开局一幅图—基于注意力机制的图像识别实战 183
  131. 11.1 基于注意力的图像识别模型Vision Transformer 183
  132. 11.1.1 Vision Transformer 整体结构 183
  133. 11.1.2 Patch Embedding 185
  134. 11.1.3 Transformer Encoder层 187
  135. 11.1.4 完整的Vision Transformer架构设计 190
  136. 11.2 基于Vision Transformer的mini_ImageNet实战 191
  137. 11.2.1 mini_ImageNet数据集的简介与下载 191
  138. 11.2.2 mini_ImageNet数据集的处理—基于PyTorch 2.0专用数据处理类 193
  139. 11.2.3 Vision Transformer模型设计 195
  140. 11.2.4 Vision Transformer模型的训练 196
  141. 11.2.5 基于现有Vision Transformer包的模型初始化 198
  142. 11.3 提升Vision Transformer模型准确率的一些技巧 198
  143. 11.3.1 模型的可解释性—注意力热图的可视化实现 198
  144. 11.3.2 PyTorch 2.0中图像增强方法详解 201
  145. 11.4 本章小结 206
  146. 12章 内容全靠编—基于Diffusion Model的从随机到可控的图像生成实战 207
  147. 12.1 Diffusion Model实战MNIST手写体生成 207
  148. 12.1.1 Diffusion Model的传播流程 208
  149. 12.1.2 直接运行的DDPM的模型训练实战 209
  150. 12.1.3 DDPM的基本模块说明 212
  151. 12.1.4 DDPM加噪与去噪详解 215
  152. 12.1.5 DDPM的损失函数 220
  153. 12.2 可控的Diffusion Model生成实战—指定数字生成MNIST手写体 221
  154. 12.2.1 Diffusion Model可控生成的基础—特征融合 221
  155. 12.2.2 Diffusion Model可控生成的代码实战 221
  156. 12.3 加速的Diffusion Model生成实战—DDIM 223
  157. 12.3.1 直接运行的少步骤的DDIM手写体生成实战 224
  158. 12.3.2 DDIM的预测传播流程 226
  159. 12.4 本章小结 228
  160. 13章 认清物与位—基于注意力的单目摄像头目标检测实战 230
  161. 13.1 目标检测基本概念详解 231
  162. 13.1.1 基于注意力机制的目标检测模型DETR 231
  163. 13.1.2 目标检测基本概念(注意力机制出现之前) 232
  164. 13.1.3 目标检测基本概念(注意力机制出现之后) 233
  165. 13.2 基于注意力机制的目标检测模型DETR详解 237
  166. 13.2.1 基于预训练DETR模型实现的实用化目标检测网页 237
  167. 13.2.2 基于注意力的目标检测模型DETR 239
  168. 13.3 DETR模型的损失函数 243
  169. 13.3.1 一看就会的二分图匹配算法 243
  170. 13.3.2 基于二分图匹配算法的目标检测的最佳组合 245
  171. 13.3.3 DETR中的损失函数 250
  172. 13.3.4 解决batch中tensor维度不一致的打包问题 253
  173. 13.4 基于DETR的目标检测自定义数据集实战 254
  174. 13.4.1 VOC数据集简介与数据读取 254
  175. 13.4.2 基于PyTorch中的Dataset的数据输入类 257
  176. 13.4.3 基于DETR的自定义目标检测实战 259
  177. 13.5 本章小结 261
  178. 14章 凝思辨真颜—基于注意力与Unet的全画幅适配图像全景分割实战 262
  179. 14.1 图像分割的基本形式与数据集处理 262
  180. 14.1.1 图像分割的应用 263
  181. 14.1.2 基于预训练模型的图像分割预测示例 264
  182. 14.2 基于注意力与Unet的图像分割模型SwinUnet 267
  183. 14.2.1 基于全画幅注意力的 Swin Transformer详解 268
  184. 14.2.2 经典图像分割模型Unet详解 270
  185. 14.3 基于SwinUnet的图像分割实战 271
  186. 14.3.1 图像分割的label图像处理 271
  187. 14.3.2 图像分割的VOC数据集处理 274
  188. 14.3.3 图像分割损失函数DiceLoss详解 276
  189. 14.3.4 基于SwinUnet的图像分割实战 278
  190. 14.4 本章小结 279
  191. 15章 谁还用GAN—基于预训练模型的可控零样本图像迁移合成实战 281
  192. 15.1 基于预训练模型的可控零样本图像风格迁移实战 281
  193. 15.1.1 实战基于预训练模型的可控零样本图像风格迁移 282
  194. 15.1.2 详解可控零样本图像风格迁移模型 283
  195. 15.2 基于预训练模型的零样本图像风格迁移实战 284
  196. 15.2.1 Vision Transformer架构的DINO模型 285
  197. 15.2.2 风格迁移模型Splicing详解 287
  198. 15.2.3 逐行讲解风格迁移模型Splicing的损失函数 291
  199. 15.3 本章小结 296

正版购买

《【2024新书】PyTorch深度学习与计算机视觉实践 王晓华 人工智能技术丛书 目标检测图像处理深度学习教材书 清华社 9787302665144 PyTorch深度学习与计算机视觉实践》【摘要 书评 试读】- 京东图书 (jd.com)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/1002992
推荐阅读
相关标签
  

闽ICP备14008679号