当前位置:   article > 正文

08-向量的内积_向量运算法则_内积的运算法则

内积的运算法则

运算法则

交换律: A ⃗ + B ⃗ = B ⃗ + A ⃗ 交换律:\vec{A} + \vec{B} = \vec{B} + \vec{A} 交换律:A +B =B +A
结合律: A ⃗ + B ⃗ + C ⃗ = A ⃗ + ( B ⃗ + C ⃗ ) 结合律:\vec{A}+\vec{B}+\vec{C}=\vec{A}+(\vec{B}+\vec{C}) 结合律:A +B +C =A +(B +C )
( K c ) u ⃗ = K ( c u ⃗ ) (Kc)\vec{u}=K(c\vec{u}) (Kc)u =K(cu )
分配律: K ∗ ( X ⃗ + Y ⃗ ) = K X ⃗ + K Y ⃗ 分配律:K*(\vec{X}+\vec{Y})=K\vec{X}+K\vec{Y} 分配律:K(X +Y )=KX +KY
( K + c ) u ⃗ = K u ⃗ + c u ⃗ (K+c)\vec{u}=K\vec{u}+c\vec{u} (K+c)u =Ku +cu

向量的内积(点乘)

两个列向量, (X^T)Y,X带个上标T表示转置后的向量 等于对应位置相乘再相加

  • (X^T)Y是个线性回归的模型表达式, y=X1Y1+X2Y2+X3Y3+…+XnYn
  • 在这个表达式中,模型参数和特征的对应关系如下:
    1. 目标变量(y):表示我们要预测的值。
    2. 模型参数(Y1, Y2, Y3, … Yn):表示线性回归模型中的权重参数,也称为系数。
    3. 特征(X1, X2, X3, … Xn):表示输入的特征变量,对应于每个Y参数的权重。
  • 其中,Y1, Y2, Y3, …, Yn 是模型参数(系数),而 X1, X2, X3, …, Xn 是特征。我们的目标是通过训练模型,找到最优的参数值(Y1, Y2, Y3, …, Yn),使得预测值 y 尽可能接近实际观测值。
  • y=X1Y1+X2Y2+X3Y3+…+XnYn 就可以看作(X1, X2, X3, …, Xn)向量和(Y1, Y2, Y3, …, Yn )向量的内积, X^T代表转置后的列向量

两个向量的内积的本质是变成一个标量
向量的内积(也称为点积或数量积)是两个向量之间的一种运算,它将两个向量投影到彼此方向上并相乘,得到一个标量(数值)结果。在 NumPy 中,可以使用 numpy.dot() 方法或 @ 符号来计算向量的内积。

两个向量(一维数组)的内积得到的值才是一个标量, 如果内积的两个数组其中一个是矩阵(二维数组), 那么最后的结果将是一个数组

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/87016

推荐阅读
相关标签