赞
踩
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客-人工智能-深度学习,通信-4G&5G,人工智能-PyTorch领域博主
本文网址:[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_文火冰糖(王文兵)的博客-CSDN博客
目录
PyTorch提供了大量的张量运算,基本上可以对标Numpy多维数组的运算,以支持对张量的各种复杂的运算。
这些操作运算中大多是对数组中每个元素执行相同的函数运算,并获得每个元素函数运算的结果序列,这些序列生成一个新的同维度的数组。
1.2 运算分类
(1)算术运算:加、减、系数乘、系数除
(2)函数运算:sin,cos
(3)取整运算:上取整、下取整
(4)统计运算:最大值、最小值、均值
(5)比较运算:大于,等于,小于、排序
(6)线性代数运算:矩阵、点乘、叉乘
“in place“运算不是某个特定的函数运算,而是每个函数都有自己的“in place“运算的版本。
xxx_():执行完该操作,直接修改tensor自身的值。
基本上,每个函数都有自己的in place版本。
如
torch.cos() =》torch.cos_()
torch.floor() =》torch.floor_()
- import numpy as np
- import torch
-
- print("Hello World")
- print(torch.__version__)
- print(torch.cuda.is_available())
(1)点乘:dot(a,b)
(2)内积: inner(a,b)
(3)叉乘:matmul(a,b)
备注:
点乘与内积的异同:
点乘与叉乘:
概括地说,向量的内积(点乘/数量积)。
对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b:
注意:
(1)可用于计算计算两个向量之间的夹角.
θ=arccos(a∙b/|a||b|)
(2)b向量在a向量方向上的投影与a相乘
|a| = 所有元素的平方和开根号,实际上就是向量a的长度。
|b| = 所有元素的平方和开根号,实际上就是向量b的长度。
a.b = a1*b1 + a2*b2 ..... an*bn
(3)是否正交指示:
如果点乘的结果为0,则表示a在b上的投影为0,表示a和b是正交的。
如果正交,表示这两个向量不相干。
- #向量的点乘(点积)运算
- a = torch.Tensor([1,2,3])
- b = torch.Tensor([1,1,1])
- print(a)
- print(b)
-
- print(torch.dot(a,b)) # 等价于 1*0+2*1+3*0
- 输出:
-
- tensor([1., 2., 3.])
- tensor([1., 1., 1.])
- tensor(6.)
- #向量的点乘(点积)运算
- a = torch.Tensor([1,2,3])
- b = torch.Tensor([1,1,1])
- print(a)
- print(b)
-
- print(torch.vdot(a,b)) # 等价于 1*0+2*1+3*0
- 输出:
-
- tensor([1., 2., 3.])
- tensor([1., 1., 1.])
- tensor(6.)
两个向量的外积,又叫叉乘、叉积向量积,其运算结果是一个向量而不是一个标量。
并且两个向量的外积与这两个向量组成的坐标平面垂直。
定义:向量a与b的外积a×b是一个向量,其长度等于|a×b| = |a||b|sin∠(a,b),其方向正交于a与b。并且,(a,b,a×b)构成右手系。
特别地,0×a = a×0 = 0.此外,对任意向量a,自身相乘a×a=0。
对于向量a和向量b:
a和b的外积公式为(得到的是原先维度的向量):
在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。
在3D图像学中,外积的概念非常有用,可以通过两个向量的外积,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。如下图所示:
- # 向量的叉乘(乘积)运算
- a = torch.Tensor([1,2,3])
- b = torch.Tensor([1,1,1])
- print(a)
- print(b)
-
- print(torch.multiply(a,b))
- 输出:
-
- tensor([1., 2., 3.])
- tensor([1., 1., 1.])
- tensor([1., 2., 3.])
两个相同维度的矩阵a和b,a和b矩阵的内积时相同位置的向量的内积。
(1)向量向量内积
(2)向量矩阵的内积:
- # 矩阵的内积运算
- a = torch.Tensor([1,2,3])
- b = torch.Tensor([0,1,0])
- print(a)
- print(b)
-
- print(torch.inner(a,b)) # 等价于 1*0+2*1+3*0
- print("")
-
- a = torch.Tensor([[0,1,0], [0,2,0]])
- b = torch.Tensor([[0,3,0], [0,4,0]])
- print(a)
- print(b)
- print(torch.inner(a,b)) # 等效于每个向量两两内积
- 输出:
-
- tensor([1., 2., 3.])
- tensor([0., 1., 0.])
- tensor(2.)
-
- tensor([[0., 1., 0.],
- [0., 2., 0.]])
- tensor([[0., 3., 0.],
- [0., 4., 0.]])
- tensor([[3., 4.],
- [6., 8.]])
矩阵相乘最重要的方法是一般矩阵乘积。它只有在第一个矩阵的列数(column)和第二个矩阵的行数(row)相同时才有意义。
(1)向量的乘积
(2)矩阵的乘积
- # 外积
- a = torch.Tensor([1,2,3]) # 相当于1* N
- b = torch.Tensor([0,1,0]) # 相当于N * 1
- print(a)
- print(b)
- print(torch.matmul(a,b)) # 等价于 1*0+2*1+3*0
-
- print("")
-
- a = torch.Tensor([[1,2,3], [4,5,6]])
- b = torch.Tensor([[0,1], [1,1], [1,1]])
-
- print(a)
- print(b)
- print(torch.matmul(a,b)) # X * N VS N * Y => X * Y
- 输出:
-
- tensor([1., 2., 3.])
- tensor([0., 1., 0.])
- tensor(2.)
-
- tensor([[1., 2., 3.],
- [4., 5., 6.]])
- tensor([[0., 1.],
- [1., 1.],
- [1., 1.]])
- tensor([[ 5., 6.],
- [11., 15.]])
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客-人工智能-深度学习,通信-4G&5G,人工智能-PyTorch领域博主
本文网址:[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_文火冰糖(王文兵)的博客-CSDN博客
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。