赞
踩
交换律:
A
⃗
+
B
⃗
=
B
⃗
+
A
⃗
交换律:\vec{A} + \vec{B} = \vec{B} + \vec{A}
交换律:A
+B
=B
+A
结合律:
A
⃗
+
B
⃗
+
C
⃗
=
A
⃗
+
(
B
⃗
+
C
⃗
)
结合律:\vec{A}+\vec{B}+\vec{C}=\vec{A}+(\vec{B}+\vec{C})
结合律:A
+B
+C
=A
+(B
+C
)
(
K
c
)
u
⃗
=
K
(
c
u
⃗
)
(Kc)\vec{u}=K(c\vec{u})
(Kc)u
=K(cu
)
分配律:
K
∗
(
X
⃗
+
Y
⃗
)
=
K
X
⃗
+
K
Y
⃗
分配律:K*(\vec{X}+\vec{Y})=K\vec{X}+K\vec{Y}
分配律:K∗(X
+Y
)=KX
+KY
(
K
+
c
)
u
⃗
=
K
u
⃗
+
c
u
⃗
(K+c)\vec{u}=K\vec{u}+c\vec{u}
(K+c)u
=Ku
+cu
两个列向量, (X^T)Y,X带个上标T表示转置后的向量 等于对应位置相乘再相加
- (X^T)Y是个线性回归的模型表达式, y=X1Y1+X2Y2+X3Y3+…+XnYn
- 在这个表达式中,模型参数和特征的对应关系如下:
- 目标变量(y):表示我们要预测的值。
- 模型参数(Y1, Y2, Y3, … Yn):表示线性回归模型中的权重参数,也称为系数。
- 特征(X1, X2, X3, … Xn):表示输入的特征变量,对应于每个Y参数的权重。
- 其中,Y1, Y2, Y3, …, Yn 是模型参数(系数),而 X1, X2, X3, …, Xn 是特征。我们的目标是通过训练模型,找到最优的参数值(Y1, Y2, Y3, …, Yn),使得预测值 y 尽可能接近实际观测值。
- y=X1Y1+X2Y2+X3Y3+…+XnYn 就可以看作(X1, X2, X3, …, Xn)向量和(Y1, Y2, Y3, …, Yn )向量的内积, X^T代表转置后的列向量
两个向量的内积的本质是变成一个标量
向量的内积(也称为点积或数量积)是两个向量之间的一种运算,它将两个向量投影到彼此方向上并相乘,得到一个标量(数值)结果。在 NumPy 中,可以使用 numpy.dot()
方法或 @
符号来计算向量的内积。
两个向量(一维数组)的内积得到的值才是一个标量, 如果内积的两个数组其中一个是矩阵(二维数组), 那么最后的结果将是一个数组
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。