赞
踩
英特尔®人工智能分析工具包(ai Kit)为数据科学家、人工智能开发人员和研究人员提供了熟悉的Python*工具和框架来加速基于英特尔架构的端到端数据科学和分析管道。这些组件是使用oneAPI库构建的,用于低级计算优化。该工具包最大限度地提高了从预处理到机器学习的性能,并提供了高效的互操作性模型的发展。你可以在Al Kit上找到更多信息。用户可以学习如何运行Al Kit中不同组件的样本与那些入门样本。
TensorFlow*是深度学习领域广泛使用的机器学习框架,要求高效的计算资源利用。为了充分利用英特尔架构并提取最大性能,TensorFlow*框架已使用英特尔®oneDNN原语进行了优化。本文演示了如何训练示例神经网络,并展示了英特尔优化的TensorFlow*如何默认启用英特尔®oneDNN调用。英特尔优化的TensorFlow*可作为英特尔®人工智能分析工具包(ai Kit)的一部分。这个示例代码展示了如何开始使用Intel®优化TensorFlow*。实现了一个具有一个卷积层和一个ReLU层的示例神经网络。您可以使用简单的Python代码构建和训练TensorFlow*神经网络。此外,通过控制内置环境变量,本文试图明确演示如何调用Intel @ oneDNN原语,并显示其在神经网络训练期间的性能。
默认情况下,ai工具包安装在intel/oneapi文件夹中,需要root权限来管理它。
conda activate tensorflow
1. 切换到示例目录。2. 运行Python脚本。
python TensorFlow_HelloWorld.py
1. 在Linux*系统上打开终端。2. 登录Intel®DevCloud。
ssh devcloud
3.切换到示例目录。4. 为适当的节点配置示例。您可以使用单行脚本指定节点。5. 运行所提供的脚本,其中包含运行此工作负载所需的所有指令。
./q ./run.sh
6. 检查输出。7. 断开与Int
el®DevCloud的连接。
exit
1. 在初始运行时,您应该看到类似于以下的结果:
- 0 0.4147554
- 1 0.3561021
- 2 0.33979267
- 3 0.33283564
- 4 0.32920069
- [CODE_SAMPLE_COMPLETED_SUCCESSFULLY]
2. 在命令行中将ONEDNN_VERBOSE导出为1。oneDNN运行时详细跟踪应该类似于以下内容:
- export ONEDNN_VERBOSE=1
- Windows: set ONEDNN_VERBOSE=1
3.再次运行样本。您应该看到类似以下的详细结果:
- 2022-04-24 16:56:02.497963: I tensorflow/core/platform/cpu_feature_guard.cc:151] This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations: AVX2 AVX512F FMA
- To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags.
- onednn_verbose,info,oneDNN v2.5.0 (commit N/A)
- onednn_verbose,info,cpu,runtime:OpenMP
- onednn_verbose,info,cpu,isa:Intel AVX-512 with Intel DL Boost
- onednn_verbose,info,gpu,runtime:none
- onednn_verbose,info,prim_template:operation,engine,primitive,implementation,prop_kind,memory_descriptors,attributes,auxiliary,problem_desc,exec_time
- onednn_verbose,exec,cpu,reorder,jit:uni,undef,src_f32::blocked:cdba:f dst_f32:p:blocked:Acdb16a:f,,,10x4x3x3,0.00195312
- onednn_verbose,exec,cpu,convolution,brgconv:avx512_core,forward_training,src_f32::blocked:acdb:f wei_f32:p:blocked:Acdb16a:f bia_f32::blocked:a:f dst_f32::blocked:acdb:f,attr-post-ops:eltwise_relu ,alg:convolution_direct,mb,4.96411
- onednn_verbose,exec,cpu,convolution,jit:avx512_common,backward_weights,src_f32::blocked:acdb:f wei_f32:p:blocked:Acdb16a:f bia_undef::undef::f dst_f32::blocked:acdb:f,,alg:convolution_direct,mb,0.567871
- ...
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。