当前位置:   article > 正文

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_张量点乘

张量点乘

作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客-人工智能-深度学习,通信-4G&5G,人工智能-PyTorch领域博主

本文网址:[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_文火冰糖(王文兵)的博客-CSDN博客


目录

 第1章 Tensor运算概述

1.1 概述

1.3  “in place“运算 

1.4 Tensor的广播机制: 不同维度的张量运算

1.5 环境准备

1.6 张量的线性代数运算

第2章 向量的点乘(是基础):dot()

2.1 定义

2.2 向量内积的几何意义

2.3 代码示例

第3章 向量的叉乘

3.1 定义

3.2 几何意义

3.3 代码示例

第4章  矩阵的内积运算(对应):inner()

4.1 矩阵内积的定义

4.2 代码示例

第5章 矩阵的外积运算: matmul()

5.1 矩阵外积(矩阵乘积)的定义 (矩阵相乘)

5.2代码示例



 第1章 Tensor运算概述

1.1 概述

PyTorch提供了大量的张量运算,基本上可以对标Numpy多维数组的运算,以支持对张量的各种复杂的运算。

这些操作运算中大多是对数组中每个元素执行相同的函数运算,并获得每个元素函数运算的结果序列,这些序列生成一个新的同维度的数组。

NumPy 线性代数 | 菜鸟教程

1.2 运算分类

(1)算术运算:加、减、系数乘、系数除

(2)函数运算:sin,cos

(3)取整运算:上取整、下取整

(4)统计运算:最大值、最小值、均值

(5)比较运算:大于,等于,小于、排序

(6)线性代数运算:矩阵、点乘、叉乘

1.3  “in place“运算 

“in place“运算不是某个特定的函数运算,而是每个函数都有自己的“in place“运算的版本。

xxx_():执行完该操作,直接修改tensor自身的值。

基本上,每个函数都有自己的in place版本。

torch.cos() =》torch.cos_()

torch.floor() =》torch.floor_()

1.4 Tensor的广播机制: 不同维度的张量运算

1.5 环境准备

  1. import numpy as np
  2. import torch
  3. print("Hello World")
  4. print(torch.__version__)
  5. print(torch.cuda.is_available())

1.6 张量的线性代数运算

(1)点乘:dot(a,b)

(2)内积: inner(a,b)

(3)叉乘:matmul(a,b)

备注:

点乘与内积的异同:

  • 相同点:点乘与内积的基本操作相同:每个元素相乘后再相加。
  • 不同点:点乘只支持两个一维张量点乘,而内积支持多维张量的内积

点乘与叉乘:

  • 相同点:点乘是基础,即对应元素相乘后相加。
  • 不同点:点乘只支持两个一维张量点乘,而叉乘支持多维张量,每一个维度上的数据都是一次点乘。

第2章 向量的点乘(是基础):dot()

2.1 定义

概括地说,向量的内积(点乘/数量积)。

对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b:

 

注意:

  •  这里要求一维向量a和向量b的行列数相同。
  • 点乘的结果是一个标量(数量而不是向量)

2.2 向量内积的几何意义

(1)可用于计算计算两个向量之间的夹角.

   θ=arccos⁡(a∙b/|a||b|)

(2)b向量在a向量方向上的投影与a相乘

 |a| = 所有元素的平方和开根号,实际上就是向量a的长度。

 |b| = 所有元素的平方和开根号,实际上就是向量b的长度。

a.b = a1*b1 + a2*b2 ..... an*bn

(3)是否正交指示:

如果点乘的结果为0,则表示a在b上的投影为0,表示a和b是正交的。

如果正交,表示这两个向量不相干。

2.3 代码示例

  1. #向量的点乘(点积)运算
  2. a = torch.Tensor([1,2,3])
  3. b = torch.Tensor([1,1,1])
  4. print(a)
  5. print(b)
  6. print(torch.dot(a,b)) # 等价于 1*0+2*1+3*0
  1. 输出:
  2. tensor([1., 2., 3.])
  3. tensor([1., 1., 1.])
  4. tensor(6.)

  1. #向量的点乘(点积)运算
  2. a = torch.Tensor([1,2,3])
  3. b = torch.Tensor([1,1,1])
  4. print(a)
  5. print(b)
  6. print(torch.vdot(a,b)) # 等价于 1*0+2*1+3*0
  1. 输出:
  2. tensor([1., 2., 3.])
  3. tensor([1., 1., 1.])
  4. tensor(6.)

第3章 向量的叉乘

3.1 定义

两个向量的外积,又叫叉乘、叉积向量积,其运算结果是一个向量而不是一个标量。

并且两个向量的外积与这两个向量组成的坐标平面垂直

定义:向量ab的外积a×b是一个向量,其长度等于|a×b| = |a||b|sin∠(a,b),其方向正交于ab。并且,(a,b,a×b)构成右手系。 
特别地,0×a = a×0 = 0.此外,对任意向量a,自身相乘a×a=0

对于向量a和向量b:

a和b的外积公式为(得到的是原先维度的向量):

3.2 几何意义

在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。

在3D图像学中,外积的概念非常有用,可以通过两个向量的外积,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。如下图所示:

3.3 代码示例

  1. # 向量的叉乘(乘积)运算
  2. a = torch.Tensor([1,2,3])
  3. b = torch.Tensor([1,1,1])
  4. print(a)
  5. print(b)
  6. print(torch.multiply(a,b))
  1. 输出:
  2. tensor([1., 2., 3.])
  3. tensor([1., 1., 1.])
  4. tensor([1., 2., 3.])

第4章  矩阵内积运算(对应):inner()

4.1 矩阵内积的定义

两个相同维度的矩阵a和b,a和b矩阵的内积时相同位置的向量的内积

(1)向量向量内积

 (2)向量矩阵的内积:

 

4.2 代码示例

  1. # 矩阵的内积运算
  2. a = torch.Tensor([1,2,3])
  3. b = torch.Tensor([0,1,0])
  4. print(a)
  5. print(b)
  6. print(torch.inner(a,b)) # 等价于 1*0+2*1+3*0
  7. print("")
  8. a = torch.Tensor([[0,1,0], [0,2,0]])
  9. b = torch.Tensor([[0,3,0], [0,4,0]])
  10. print(a)
  11. print(b)
  12. print(torch.inner(a,b)) # 等效于每个向量两两内积
  1. 输出:
  2. tensor([1., 2., 3.])
  3. tensor([0., 1., 0.])
  4. tensor(2.)
  5. tensor([[0., 1., 0.],
  6. [0., 2., 0.]])
  7. tensor([[0., 3., 0.],
  8. [0., 4., 0.]])
  9. tensor([[3., 4.],
  10. [6., 8.]])

第5章 矩阵的外积运算: matmul()

5.1 矩阵外积(矩阵乘积)的定义 (矩阵相乘)

矩阵相乘最重要的方法是一般矩阵乘积。它只有在第一个矩阵的列数(column)和第二个矩阵的行数(row)相同时才有意义。

(1)向量的乘积

(2)矩阵的乘积

5.2代码示例

  1. # 外积
  2. a = torch.Tensor([1,2,3]) # 相当于1* N
  3. b = torch.Tensor([0,1,0]) # 相当于N * 1
  4. print(a)
  5. print(b)
  6. print(torch.matmul(a,b)) # 等价于 1*0+2*1+3*0
  7. print("")
  8. a = torch.Tensor([[1,2,3], [4,5,6]])
  9. b = torch.Tensor([[0,1], [1,1], [1,1]])
  10. print(a)
  11. print(b)
  12. print(torch.matmul(a,b)) # X * N VS N * Y => X * Y
  1. 输出:
  2. tensor([1., 2., 3.])
  3. tensor([0., 1., 0.])
  4. tensor(2.)
  5. tensor([[1., 2., 3.],
  6. [4., 5., 6.]])
  7. tensor([[0., 1.],
  8. [1., 1.],
  9. [1., 1.]])
  10. tensor([[ 5., 6.],
  11. [11., 15.]])



作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客-人工智能-深度学习,通信-4G&5G,人工智能-PyTorch领域博主

本文网址:[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_文火冰糖(王文兵)的博客-CSDN博客

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/176451
推荐阅读
相关标签
  

闽ICP备14008679号