当前位置:   article > 正文

人工智能之Tensorflow程序结构

人工智能之Tensorflow程序结构

TensorFlow作为分布式机器学习平台,主要架构如下:
在这里插入图片描述
网络层:远程过程调用(gRPC)和远程直接数据存取(RDMA)作为网络层,主要负责传递神经网络算法参数
设备层:CPU、GPU等设备,主要负责神经网络算法中具体的运算操作
运行时核心:为Tensorflow中算法操作的具体实现,如卷积操作、激活操作等。

  • 分布运行时:主机(Master)用于构建子图,切割子图为多个分片,不同子图分片运行在不同的设备上。Master还负责分发子图切片到Worker。Worker在设备上调度执行子图操作,并负责向其他执行器发送和接收图操作的运行结果。

API: API 把TensorFlow分割为前端和后端,前端(Python/C++/Java Client/Go)基于API触发TensorFlow后端程序运行。
训练库和推理库:是模型训练和推导的库函数,为用户开发应用模型使用。
在这里插入图片描述
TensorFlow的数据流图是由节点和边组成的有向无环图Tensor代表数据流图中的Flow代表数据流图中节点所做的操作
TensorFlow将程序分为两个独立的部分:

  1. 定义并构建神经网络结构图:包括激活函数定义、损失函数定义、分类模型定义等。
  2. 执行神经网络模型,包括数据集输入、初始赋值及通过会话编译运行等。

示例如下:
(1)定义各种张量结构的变量,然后建立一个数据流图,在数据流图中规定各个变量之间的计算关系,最后对数据流图进行编译,编译之后把需要计算的输入放进去,形成数据流,从而形成输出值

import tensorflow as tf
t=tf.add(8,9)
print(t) 
#数据流图中节点对应的是一个API中操作,并没有真正去运行
  • 1
  • 2
  • 3
  • 4

(2)TensorFlow涉及的运算都要放在图中,而图的运行只发生在会话中,开启会话后,就可以用数据去填充节点,进行运算,关闭会话后就不能进行计算。

会话提供了操作运行和Tensor求值的环境。

import tensorflow as tf
tf.compat.v1.disable_eager_execution()
#创建图
one=tf.constant([1.0,2.0])
two=tf.constant([3.0,4.0])
oper=one*two

#创建会话
sess=tf.compat.v1.Session()
#计算oper
print(sess.run(oper))
sess.close()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

神经完了结构图的定义和执行分开设计,所以TensorFlow能够多平台工作以并行执行。
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/171261
推荐阅读
相关标签
  

闽ICP备14008679号