赞
踩
关注我们丨文末赠书
太赞了!最近,著名的深度学习框架PyTorch的官方网站宣布PyTorch 1.11正式发布。该版本自1.10版本以来有超过3300次代码提交,由434位贡献者协同完成。
同时,PyTorch还发布了两个新库TorchData和functorch的beta版本,引起无数程序员狂欢热议。
小异为你总结了本次更新的要点:
● TorchData,这是一个通用模块化数据加载原语的新库,用于轻松构建灵活和高性能的数据管道。
● functorch,这是一个将可组合函数转换添加到PyTorch的新库,现已推出beta版。
● 分布式数据并行 (DDP) 静态图形优化稳定可用。
大家都知道,PyTorch是Facebook在2017年开源的一个针对深度学习的张量库。它凭借容易上手、功能强大、性能高和用途广泛等优点,成为了当前主流的深度学习框架之一,无论是在学术界还是在工业界都受到了深度学习爱好者和从行者的青睐。
如果你也想学习PyTorch,小异推荐你从这本经常受到国外程序员安利的入门书开始。
PyTorch的共同创造者Soumith Chintala还将这本书描述为 "PyTorch的权威论文"。
相信接下来的很长时间你将被这本书刷屏,它将出现在各大畅销书排行榜内,这本书就是《PyTorch深度学习实战》。
▲购买《PyTorch深度学习实战》每买100减50元
— 01 —
这不是一本简单的深度学习入门书
这不是一本简单的深度学习入门书籍,而是基于PyTorch的深度学习入门书籍,这能让我们的学习更有目的性。
我们都知道,通过将模型应用到例证,深度学习能允许我们执行很多复杂任务。
例如,机器翻译、玩战略游戏以及在杂乱无章的场景中识别物体等。为了在实践中做到这一点, 我们需要灵活且高效的工具,以便能够适用于这些复杂任务,能够在合理的时间内对大量数据进行训练。我们需要已被训练过的模型在输入变量变化的情况下正确执行。
而PyTorch能完美地契合我们的需求。
这里具体说说为什么我们要使用PyTorch:
● PyTorch很容易被推广,因为它很简单。
许多研究人员和实践者发现它易于学习、使用、扩展和调试。它是Python化的,对于以前使用过Python的开发人员来说,使用该库和使用其他Python库一样。
● PyTorch具备2个特性,使得它与深度学习关联紧密。
首先,它使用GPU加速计算,通常比在CPU上执行相同的计算速度快50倍。其次,PyTorch提供了支持通用数学表达式数值优化的工具,该工具用于训练深度学习模型。
● PyTorch设计的驱动因素之一是表现力。
它允许开发人员实现复杂的模型,PyTorch可以说是最无缝地将深度学习领域的思想转化为Python代码的软件之一。
总而言之,虽然很多深度学习工具都使用Python,但PyTorch 库是真正具备Python风格的。对于任何了解NumPy 和scikit-learn 等工具的人来说,上手PyTorch 轻而易举。
PyTorch 在不牺牲高级特性的情况下简化了深度学习,它非常适合构建快速模型,并且可以平稳地从个人应用扩展到企业级应用。
并且,像苹果、Facebook和摩根大通这样的公司都使用PyTorch,所以当你掌握了PyTorth,就会拥有更多的职业选择。
而本书是教你使用 PyTorch 创建神经网络和深度学习系统的实用指南,所以说,你不选选择它作为入门深度学习的参考书籍,还能选择谁?
— 02—
理论与实战并重,讲解方式新颖有效!
这本书指导读者使用Python和PyTorch实现深度学习算法,主要提供了以下让深度学习爱好者特别感兴趣的内容:
(1)训练深层神经网络;
(2)实现模块和损失函数;
(3)使用 PyTorch Hub 预先训练的模型;
(4)探索在 Jupyter Notebooks 中编写示例代码。
当然,其书名中的“实战”二字也是名副其实的。全书通过模拟近乎真实的场景,从场景描述开始,逐步对问题进行剖析,然后利用PyTorch解决问题。
阅读本书,读者不仅能够全面掌握PyTorch相关的API的使用方法以及系统掌握深度学习的理论和方法,而且能够轻松学会使用PyTorch实现各种神经网络模型来解决具体的深度学习问题。
例如,在书中,我们将首先学习PyTorch的核心知识,然后体验一个真实的案例研究项目:构建能够使用CT扫描检测恶性肺肿瘤的算法。
我们将学习用有限的输入训练网络,并处理数据,以获得一些结果。
我们将筛选出不可靠的初始结果,并专注于诊断和修复神经网络中的问题。
最后,我们将研究通过增强数据训练、改进模型体系结构和执行其他微调来改进结果的方法。
通过这个真实的案例,我们会发现PyTorch是多么有效和有趣,并掌握在生产中部署PyTorch模型的技能。
并且,这本书不是直接给出解决问题的完整代码,而是在场景描述、问题分析、技术选型等方面给予更多的篇幅。
书中的代码示例也有很好的注释,提供了每个部分功能的关键解释。对于那些只想浏览代码而不需要逐行查看的人来说,这是一个非常有用的附加功能。这种方式更能帮助读者真正深入地掌握相关技术的要领,正所谓“授人以鱼,不如授人以渔”。
此外,令很多国外的程序员称赞的是这本书对Python深度学习的实用方法的讲解。
这本书在教我们在手动创建深度神经网络之前,就提前介绍了一个可以集成到应用程序中的预训练深度学习模型库TorchVision。
因此,我们在创建自己的模型之前,就可以学习如何使用其他人已经经历过痛苦的东西来创建,这是深度学习领域的常见做法。事实上,我们还可以利用一个预先训练好的生成对抗网络,把一匹马变成一匹斑马。
这种讲解方式,让我们轻松实战,学习成就感十足!
— 03 —
三位大有来头的作者是这本书质量的坚实保障!
给这本声名远扬的书籍增光添彩的三位作者,皆大有来头。
《PyTorch深度学习实战》由Eli Stevens、Luca Antiga和Thomas Viehmann合著而成,这三位工程师曾为PyTorch项目做出过贡献,并拥有开发深度学习解决方案的丰富经验。
● Eli Stevens
Eli Stevens职业生涯的大部分时间都在美国硅谷的初创公司工作,从软件工程师(网络设备制造业)到首席技术官(开发肿瘤放疗软件)。在英文原版书籍出版时,他正在汽车自动驾驶行业从事机器学习相关工作。
● Luca Antiga
21世纪初,Luca Antiga担任生物医学工程研究员。2010年到2020年间,他是一家人工智能工程公司的联合创始人和首席技术官。
他参与了多个开源项目,包括PyTorch的核心模块。最近,他作为联合创始人创建了一家总部位于美国的初创公司,专注于数据定义软件的基础设施。
● Thomas Viehmann
Thomas Viehmann是一名德国慕尼黑的机器学习和PyTorch的专业培训师和顾问,也是PyTorch核心开发人员。拥有数学博士学位的他不畏惧理论,擅长将理论应用于实际的计算挑战。
当PyTorch的第1个版本在2017年1月18日发布时,三位作者都非常兴奋。
Luca Antiga从那时开始成为PyTorch的核心贡献者。而Eli Stevens很早就成为PyTorch社区的一员,负责提交一些错误修复文档, 实现新特性或对文档进行更新。Thomas为PyTorch贡献了大量的特性,修复了很多错误,并最终成为一名独立的核心贡献者。
在组织了几次PyTorch研讨会之后,三位作者便决定写一本书。于是,《PyTorch深度学习实战》应运而生。
他们写这本书的目的是为大家介绍PyTorch深度学习的基础知识,并以一个实际项目来展示。他们力图介绍深度学习底层的核心思想,并向读者展示PyTorch如何将其实现。
在这本书中,他们试图提供直观印象以帮助大家进一步探索, 同时,他们选择性地深入细节,以解剖其背后的奥妙。
这本书的创作目标用作者原话描述便是:“写一本能够吸引曾经的自己(刚开始学习PyTorch深度学习时的我们)的书。”
由此可见,《PyTorch深度学习实战》是一本特别适合深度学习初学者入门的书籍!
— 04 —
国内外读者好评如潮!
一本书值不值得我们学习,看读者评价就对了。
而《PyTorch深度学习实战》也不负众望,全文干货满满,收到了无数读者点赞!
你可以看看下面的亚马逊读者和豆瓣读者评论:
生命不息,学习不止,快去拿起这本上手PyTorch的不二之选——《PyTorch深度学习实战》,学习深度学习吧!
《PyTorch深度学习实战》
作者: [美]Eli Stevens ,[意]Luca Antiga ,[德]Thomas Viehmann
译者:牟大恩
本书主要内容:(1)训练深层神经网络;(2)实现模块和损失函数;(3)使用 PyTorch Hub 预先训练的模型;(4)探索在 Jupyter Notebooks 中编写示例代码。本书适用于对深度学习感兴趣的 Python 程序员。了解深度学习的基础知识对阅读本书有一定的帮助,但读者无须具有使用 PyTorch 或其他深度学习框架的经验。
文章编辑:罗梦婷 审校:桐希 郭媛
参考来源:
①《PyTorch深度学习实战》前言、序、译者序、第一章
②PyTorch 1.11, TorchData, and functorch are now available | PyTorch
向上滑动阅览
—END—
今天我们将《PyTorch深度实战》这本书赠送给大家,你只需要在评论区留言,其中点赞最多的5位读者,我们将免费赠送。想要的朋友们,抓紧赶快集赞吧!
截止时间:3月28日 12:00整
获奖的朋友直接加我的微信领书即可
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。