当前位置:   article > 正文

pytorch快速搭建神经网络--pytorch基本操作学习_pytorch神经网络

pytorch神经网络

序言:最近准备一直在用pytorch,特地总结一下如何快速用pytorch搭建神经网络学习人工智能。

目录

1.pytorch入门

1.1pytorch是什么

1.2安装pytorch

2. pytorch基本操作元素

2.1 Tensors张量

2.2 张量运算

2.3 张量索引

2.4 Torch tensor与Numpy ndarray转换

2.5 cpu与gpu的tensor相互转换

3.总结


1.pytorch入门

1.1pytorch是什么

  • 2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。

  • 基于Python的可续计算包,提供两个高级功能:

    • 具有强大的GPU加速的张量计算(如NumPy)。

    • 包含自动求导系统的深度神经网络。

1.2安装pytorch

  • 这里建议pycharm和anaconda一起使用,anaconda用来管理环境,pycharm写代码

  • 访问PyTorch,根据自己电脑配置选择选项,然后将生成的复制command到cmd窗口进行安装

conda install pytorch torchvision torchaudio cpuonly -c pytorch

  • 安装完成后,查看pytorch是否安装成功

  1. import torch
  2. print("pytorch版本",torch.__version__)
  3. print("是否支持gpu", torch.cuda.is_available())】

2. pytorch基本操作元素

2.1 Tensors张量

  • Tensors张量类似于Numpy中的ndarray数据结构, 最大的区别在于Tensor可以利用GPU的加速功能.

  • 创建一个空矩阵

  1. x=torch.empty(5,3)
  2. print(x)

  • 创建随机分布的矩阵,标准高斯分布

  1. #创建随机分布的矩阵,标准高斯分布
  2. x=torch.rand(5,3)
  3. print(x)

  • 创建全零矩阵,数据元素类型long
  1. x = torch.zeros(5, 3, dtype=torch.long)
  2. print(x)

  • 直接赋值创建张量
  1. x=torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
  2. print(x)

  • 通过已有的一个张量创建相同尺寸的新张量

  1. x = torch.ones(5,3,dtype=torch.double)
  2. print(x)
  3. y = torch.randn_like(x, dtype=torch.float)
  4. print(y)

  •  张量的尺寸
  1. print(x.size())
  2. a,b=x.size()
  3. print("a:",a)
  4. print("b:",b)

2.2 张量运算

  • +,-,*,/

  1. # +,-,*,/
  2. x = torch.tensor([1.0, 2, 4, 8])
  3. y = torch.tensor([2, 2, 2, 2])
  4. x + y, x - y, x * y, x / y, x ** y  # **运算符是求幂运算

  • 转换张量形状reshape和view

  1. ## 转换张量形状
  2. x=torch.arange(12,dtype=torch.float32).reshape(3,4)
  3. print(x)
  4. x=x.reshape(4,3)
  5. print(x)
  6. y=x.view(3,4)
  7. print(y)

 torch的view()与reshape()方法都可以用来重塑tensor的shape,区别就是使用的条件不一样。view()方法只适用于满足连续性条件的tensor,并且该操作不会开辟新的内存空间,只是产生了对原存储空间的一个新别称和引用,返回值是视图。而reshape()方法的返回值既可以是视图,也可以是副本,当满足连续性条件时返回view,否则返回副本[ 此时等价于先调用contiguous()方法在使用view() ]。因此当不确能否使用view时,可以使用reshape。如果只是想简单地重塑一个tensor的shape,那么就是用reshape,但是如果需要考虑内存的开销而且要确保重塑后的tensor与之前的tensor共享存储空间,那就使用view()。
————————————————
原文链接:https://blog.csdn.net/flag_ing/article/details/109129752

  • 沿着行或者列的方向联结,dim=0是行,1是列。

  1. #沿着行或者列的方向联结
  2. y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
  3. x = torch.arange(12, dtype=torch.float32).reshape((3,4))
  4. print(x)
  5. print("行:",torch.cat((x, y), dim=0))#行
  6. print("列:",torch.cat((x, y), dim=1))#列
  7. print(x[:, 1])#所有行的第2列

2.3 张量索引

  • 初始数据

x = torch.arange(12, dtype=torch.float32).reshape((3,4))

  • x[-1], x[1:3]

  • 指定位置写入元素 x[1, 2] = 9

2.4 Torch tensor与Numpy ndarray转换

  •  torch张量和numpy数组将共享它们的底层内存,简单说就是操作更改一个张量也会同时更改另一个张量。
  • 所有在CPU上的Tensors, 除了CharTensor, 都可以转换为Numpy array并可以反向转换.
  1. a = torch.ones(5)
  2. print(type(a),a)
  3. b=a.numpy()
  4. print(type(b),b)
  5. c=torch.tensor(b)
  6. print(type(c),c)

  

2.5 cpu与gpu的tensor相互转换

  • 在实际计算中,传入cpu与gpu的变量不一样,需要相互转换类型才能一起运算

  • 使用.to 方法实现

  1. if torch.cuda.is_available():
  2.    # 定义一个设备对象, 这里指定成CUDA, 即使用GPU,如果有多个gpu可以用cuda0,cuda1表示
  3.    device = torch.device("cuda")
  4.    # 直接在GPU上创建一个Tensor
  5.    y = torch.ones_like(x, device=device)
  6.    # 将在CPU上面的x张量移动到GPU上面
  7.    x = x.to(device)
  8.    # x和y都在GPU上面, 才能支持加法运算
  9.    z = x + y
  10.    # 此处的张量z在GPU上面
  11.    print(z)
  12.    # 也可以将z转移到CPU上面, 并同时指定张量元素的数据类型
  13.    print(z.to("cpu", torch.double))

3.总结

  • 矩阵的初始化
    • torch.empty()
    • torch.rand(n, m)
    • torch.zeros(n, m, dtype=torch.long)
    • torch.ones(n,m,dtype=torch.double)
  • 矩阵运算
    • x + y
    •  x - y,
    • x * y,
    • x / y,
    • x ** y
  • 矩阵转换形状
    • reshape()
    • view()
  • 矩阵索引
  • 方向联结
    • torch.cat((x, y), dim=0)行
    • torch.cat((x, y), dim=1)列
  • Torch Tensor和Numpy Array之间的相互转换
    • b=a.numpy()
    • c=torch.tensor(b)
  • cpu与gpu的tensor相互转换
    • x = x.to(device)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/123542
推荐阅读
相关标签
  

闽ICP备14008679号