当前位置:   article > 正文

Linux下用TensorFlow搭建神经网络_在linux上跑神经网络模型需要下编译器吗

在linux上跑神经网络模型需要下编译器吗

一、Linux常用 指令

      桌面点击右键 ,选择 Open Terminal 打开终端 
      pwd :打印当前在哪个目录
      ls :列出当前路径下的文件和目录 
      mkdir 目录名: 新建目录
      cd 目录名 :进到指定目录 进到指定目录

      python :运行 Python 解释器 


      使用 cd 目录名 进到指定目录,如果指定的“目录名”是
            .    表示当前目录
            ..   表示当前目录的上一级
            -   表示上一次所在目录
           ~  表示当前用户的 home 目录(即刚 login 时所在的目录)
      如:
           cd .. 返回上级目录
           cd ../.. 返回上两级目录
           cd ~ 进入用户主目录 home 目

二、 vim 编辑器

      vim 文件名 :打开或新建文本 
      在 vimvim 中 点击 i 进入插模式 ,可往文本里写内容 
      ESC+ :+q +回车:退出 vim
      ESC +:+wq+回车:保存更改退出 vim

      ESC +:+q!+回车:不保存更改退出 vim vim

      python b.py :运行文件



三、搭建神经网络

      神经网络的搭建课分四步完成:准备工作、 神经网络的搭建课分四步完成:准备工作、 前向传播、反和循环迭代 。

      神经网络原理见:https://blog.csdn.net/pumpkin_love/article/details/79892874



      举例

      随机产生 32 组生产出的零件体积和重量,训练 3000 轮,每 500 轮输出一次损 失函数。下面我们 通过源代码进一步理解神经网络的实现程 :


  1. #coding:utf-8
  2. #0导入模块,生成模拟数据集。
  3. import tensorflow as tf
  4. import numpy as np
  5. BATCH_SIZE=8
  6. seed=23455
  7. #基于seed产生随机数
  8. rng=np.random.RandomState(seed)
  9. #随机数返回32行2列的矩阵,表示32组体积和质量,作为输入数据集
  10. X=rng.rand(32,2)
  11. #从X这个32行2列的矩阵中取出一行,判断如果和小于1,给Y赋值1;如果和不小于1,给Y赋值0
  12. #作为输入数据集的标签(正确答案)
  13. Y=[[int(x0+x1<1)] for (x0,x1) in X]
  14. print "X:\n",X
  15. print"Y:\n",Y
  16. #1定义神经网络的输入,参数和输出,定义前向传播过程
  17. x=tf.placeholder(tf.float32,shape=(None,2))
  18. y_=tf.placeholder(tf.float32,shape=(None,1))
  19. w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))
  20. w2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))
  21. a=tf.matmul(x,w1)
  22. y=tf.matmul(a,w2)
  23. #2定义损失函数及反向传播方法
  24. loss=tf.reduce_mean(tf.square(y-y_))
  25. train_step=tf.train.GradientDescentOptimizer(0.001).minimize(loss)
  26. #train_step=tf.train.MomentumOptimzer(0.001,0.9).minimize(loss)
  27. #train_step=tf.train.AdamOptimizer(0.001).minimize(loss)
  28. #3生成会话,训练STEPS轮
  29. with tf.Session() as sess:
  30. init_op=tf.global_variables_initializer()
  31. sess.run(init_op)
  32. #输出未经训练的参数取值
  33. print"w1:\n",sess.run(w1)
  34. print"w2:\n",sess.run(w2)
  35. print"\n"
  36. #训练模型
  37. STEPS=3000
  38. for i in range(STEPS)
  39. start=(i*BATCH_SIZE)%32
  40. end=start+BATCH_SIZE
  41. sess.run(train_step,feed_dict={x: X[start:end],y_: Y[start:end]})
  42. if i % 500==0:
  43. total_loss=sess.run(loss,feed_dict={x: X,y_: Y})
  44. print("After %d training step(s),loss on all data is %g" % (i,total_loss))
  45. #输出训练后的参数取值
  46. print"\n"
  47. print"w1:\n",sess.run(w1)
  48. print"w2:\n",sess.run(w2)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/142479
推荐阅读
相关标签
  

闽ICP备14008679号