赞
踩
为了支持云开发人员从云端到边缘的旅程,我们构建了多个加速器。我们将在本博文中介绍其中三个加速器。您可以使用 AWS SageMaker 在 AWS 云中构建和训练模型,然后使用 OpenVINO™ 工具套件模型优化器优化这些模型。优化后,您将能够在英特尔® DevCloud 中,跨英特尔® DevCloud 的所有英特尔® 硬件对模型进行性能指标评测。最后,我们将介绍如何为英特尔® OpenVINO™ 工具套件分发版和 AWS Greengrass 设置边缘环境,以及如何使用 Greengrass Python Lambda 部署应用,该软件可在边缘利用英特尔® OpenVINO™ 工具套件分发版执行图像分类和对象检测。
英特尔® OpenVINO™ 工具套件分发版概述
得益于 AI 领域的最新发展,开发人员如今在框架、模型和硬件方面有多种选择。然而,在与正确的硬件加速器及其相关软件一起使用时,基础硬件可以帮助开发人员提高性能。英特尔® OpenVINO™ 工具套件分发版就是这样一款加速器,借助预优化的模型,它可帮助开发人员最大限度提高推理性能。
具体而言,英特尔® OpenVINO™ 工具套件分发版是一款全面的工具套件,支持快速开发可模拟人类视觉的应用和解决方案。该工具套件基于卷积神经网络(CNN),可在英特尔® 硬件中扩展 CV 工作负载,实现卓越性能。
更多信息请访问 OpenVINO™ 工具套件概述。
至于可提高性能的硬件选项,英特尔拥有 CPU、VPU 和 FPGA 等可扩展产品组合,能够满足您推理解决方案的需求。表 1 向我们展示了英特尔® 酷睿® i7 处理器的高性能输出。您可以看到使用英特尔® OpenVINO™ 工具套件分发版的优势,对于某些模型,您可借助该分发版实现高达每秒 1200 帧的性能。更多信息请访问系统配置和更多性能指标评测。
了 解 如 何 在 AWS SageMaker 中 使 用OpenVINO™ 工具套件模型优化器
现在,我们将介绍如何在 AWS SageMaker 中使用 OpenVINO™ 工具套件模型优化器轻松优化模型。为帮助您轻松进行模型优化,我们开发了 python 函数, 该函数简化并实现了内联模型转换。它使用 OpenVINO™ 工具套件 docker 容器来转换 TensorFlow 和 Keras 模型 1。通过 OpenVINO IR 转换,您只需编写一次推理代码,然后以 IR 格式使用不同框架的模型。为方便起见,我们提供了支持的 TFHub 模型及其输入形状。
立即开始
1.创建一个 SageMaker Notebook 并将 Github repo 克隆到您的 SageMaker Notebook 实例
2.打开 SageMaker Notebook,转向 aws / mo-utility 目录
3.转向 aws / mo-utility 目录后,您将看到以下文件:
将 Keras 应用模型转换为 OpenVINO™ IR的流程一览;将 Tensorflow Hub 应 用 模 型 转 换 为OpenVINO™ IR 的流程一览;将对象检测模型转换为 OpenVINO™ IR 的流程一览
下一步:
在下一节中,我们将探讨如何在众多英特尔® 硬件中使用面向边缘的英特尔®
DevCloud 对模型进行性能指标评测。
英特尔® DevCloud,一键 – 0 成本,用于在英特尔® 硬件中评估深度学习模型的性能
您是否想知道您的模型在不同英特尔® 硬件上的性能如何?英特尔提供了设备沙盒英特尔® DevCloud,可帮助您在最新的英特尔® 硬件系列中免费开发、测试
和运行您的工作负载。在能够一站式访问所有最新的英特尔® 硬件后,您可能希望了解哪款英特尔® 硬件最适合您。我们带来了如此强大的功能,能够帮助您明确哪款硬件最适合您的深度学习模型。
在上一节中,您了解了如何将 TensorFlow 和 Keras 图像分类模型,以及TensorFlow 对象检测模型转换为 OpenVINO IR 格式,并将其存储在 S3 存储桶中。
在本节中,您将了解如何直接从 S3 存储桶中获取 OpenVINO IR 模型,并使用提供的示例 Jupyter notebook,在英特尔® DevCloud 中和不同硬件上对这些模型进行一键式性能指标评测。
准备在您的模型上尝试一下吗?请查看在面向边缘的英特尔® DevCloud 上对示
例进行性能指标评测。您只需提供 AWS 凭证和 S3 存储桶,我们就会为您从
S3 存储桶中提取模型。
示例 Jupyter Notebook 概览
在运行 Jupyter Notebook 中的所有单元之后,您将通过详细的表格输出了解模型在哪种硬件上可实现最佳性能,类似于以下内容:
下一步:
在下一节中,我们将讨论如何使用英特尔® 边缘软件中心部署推理应用和
OpenVINO™ 模型。
使用英特尔® 边缘软件中心部署推理应用和OpenVINO™ 模型
在多个不同的英特尔® 硬件上对模型进行性能指标评测后,您必须等待在边缘部署模型。这正是英特尔® 边缘软件中心的用武之地。英特尔® 边缘软件中心能够
帮助像您这样的开发人员更快速、更自信地定制、验证和部署用例特定解决方案。
英特尔的边缘软件中心拥有多个用例,能够为您带来更便捷的体验。Amazon
Web Services(AWS)* 云端到边缘管道就是这样的一个用例。该用例支持一
键部署即用型云端到边缘推理管道,以便在边缘使用 AWS IoT Greengrass 和
OpenVINO™ 工具套件,并在云端使用 AWS IoT。通过使用 AWS Greengrass 中包含的功能,您可以部署到多个边缘设备。该用例还包括用于图像分类和对象检测的示例 AWS IoT Greengrass Lambda。
工作原理
该用例使用了英特尔® OpenVINO™ 工具套件分发版中包含的推理引擎,能够帮助云开发人员使用加速器在英特尔物联网边缘设备上部署推理功能。
这些功能可使用 AWS Greengrass 将视觉分析从云端安全无缝地迁移到边缘。
立即开始
准备好在边缘进行推理?从英特尔® 边缘软件中心下载 Amazon Web Services
(AWS)* 云端到边缘管道。下载此用例后,请遵循文档建立云端到边缘的管道
并进行边缘推理。
脚注
当前,英特尔® OpenVINO™ 工具套件分发版仅支持部分 TFHub 和 Keras 模型
通知和免责声明
在性能测试过程中使用的软件及工作负载可能仅针对英特尔® 微处理器进行了性能优化。
性能测试(如 SYSmark 和 MobileMark)使用特定的计算机系统、组件、软件、操作和功能进行测量。 上述任何要素的变动都有可能导致测试结果的变化。 您应该参考其他信息和性能测试以帮助您全面评估正在考虑的采购,包括产品在与其他产品结合使用时的性能。 有关详细的完整信息,请访问 www.intel.com/benchmarks。
性能结果基于截至配置中所示日期的测试,可能并不反映所有公开发布的安全更新。 有关配置详细信息,请参阅备份页。 没有任何产品或组件是绝对安全的。您的成本或结果可能有所差异。
英特尔技术可能需要启用硬件、软件或激活服务。
©英特尔公司版权所有。 特尔、英特尔标识以及其他英特尔商标是英特尔公司或其子公司在美国和/或其他国家的商标。 其他的名称和品牌可能是其他所有者的资产。
英特尔编译器针对英特尔微处理器的优化程度可能与针对非英特尔微处理器的优化程度不同。这些优化包括 SSE2、SSE3 和 SSSE3 指令集和其他优化。对于在非英特尔制造的微处理器上进行的优化,英特尔不对相应的可用性、功能或有效性提供担保。此产品中依赖于处理器的优化仅适用于英特尔微处理器。某些不是专门面向英特尔微体系结构的优化保留专供英特尔微处理器使用。请参阅相应的产品用户和参考指南,以了解关于本通知涉及的特定指令集的更多信息。
英特尔尊重人权,坚决与侵犯人权的行为划清界限。请参阅英特尔《全球人权原则》。. 英特尔的产品和软件仅限用于不会导致违反国际公认人权或成为侵权推手的应用。
关注英特尔边缘计算社区,表示您确认您已年满 18 岁,并同意向英特尔分享个人信息,以便通过电子邮件和电话随时了解最新英特尔技术和行业趋势。您可以随时取消订阅。英特尔网站和通信内容遵守我们的隐私声明和使用条款。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。