赞
踩
《机器学习:公式推导与代码实践》鲁伟著读书笔记。在机器学习的学习过程中,相信大家首先要学习的就是线性模型。而线性模型中,线性回归(Linear Regression)是一种非常经典方法。现在我从线性回归的数学原理出发,手推数学公式,并结合python代码,对线性回归模型进行系统性的总结。
线性回归从实质上说为通过训练进而得到一个线性模型来根据输入数据
X
X
X来拟合输出
y
y
y。面对多元化的线性回归问题,设训练模型的输入矩阵为
X
∈
R
m
×
d
X \in \mathbb{R}^{m \times d}
X∈Rm×d,其中
m
m
m为训练集输入数据的组数,
d
d
d为变量
X
X
X的特征维数。输出
y
∈
R
m
×
1
y \in \mathbb{R}^{m \times1}
y∈Rm×1为了方便矩阵化的最小二乘法的推导,可以设权重为
ω
∈
R
d
×
1
\omega\in \mathbb{R}^{d \times 1}
ω∈Rd×1与偏置为
b
∈
R
m
×
1
b\in \mathbb{R}^{m\times 1}
b∈Rm×1。我采用均方误差来度量预测与标签之间的损失,所以我们的线性回归任务的优化目标便为使线性回归模型的预测值和输出的真实值之间的均方误差最小化。
参数优化的目标函数为:
(
ω
∗
,
b
∗
)
=
arg
min
(
y
−
(
X
ω
+
b
)
)
T
(
y
−
(
X
ω
+
b
)
)
({\omega}^{*}, b^{*})=\arg \min (y-(X \omega+b))^{T}(y-(X \omega+b))
(ω∗,b∗)=argmin(y−(Xω+b))T(y−(Xω+b))令
L
=
(
y
−
(
X
ω
+
b
)
)
T
(
y
−
(
X
ω
+
b
)
)
L=(y-(X \omega+b))^{T}(y-(X \omega+b))
L=(y−(Xω+b))T(y−(Xω+b)),并就参数优化的目标函数对
ω
\omega
ω进行求导,求得权重的梯度。推导过程如下:
L
=
y
T
y
−
y
T
(
X
ω
+
b
)
−
(
ω
T
X
T
+
b
T
)
y
+
ω
T
X
T
X
ω
+
ω
T
X
T
b
+
b
T
X
ω
+
b
T
b
L=y^{T} y-y^{T}(X \omega+b)-\left(\omega^{T} X^{T}+b^{T}\right) y+\omega^{T} X^{T} X \omega+\omega^{T} X^{T} b+b^{T} X \omega+b^{T} b
L=yTy−yT(Xω+b)−(ωTXT+bT)y+ωTXTXω+ωTXTb+bTXω+bTb又因为矩阵微分公式:
∂
a
T
x
∂
x
=
∂
x
T
a
∂
x
=
a
\frac{\partial a^{T}x}{\partial x}=\frac{\partial x^{T}a}{\partial x}=a
∂x∂aTx=∂x∂xTa=a,
∂
x
T
A
x
∂
x
=
(
A
+
A
T
)
x
\frac{\partial x^{T}Ax}{\partial x}=(A+A^{T})x
∂x∂xTAx=(A+AT)x。
∂
L
∂
ω
=
∂
y
T
y
∂
ω
−
∂
y
T
(
X
ω
+
b
)
∂
ω
−
∂
(
ω
T
X
T
+
b
T
)
y
∂
ω
+
∂
ω
T
X
T
X
ω
∂
ω
+
∂
ω
T
X
T
b
∂
ω
+
∂
b
T
X
ω
∂
ω
+
∂
b
T
b
∂
ω
\frac{\partial L}{\partial {\omega}}=\frac{\partial y^{T} y}{\partial {\omega}}-\frac{\partial y^{T}(X \omega+b)}{\partial {\omega}}-\frac{\partial \left(\omega^{T} X^{T}+b^{T}\right) y}{\partial {\omega}}+\frac{\partial {\omega}^{T} X^{T} X {\omega}}{\partial {\omega}}+\frac{\partial {\omega}^{T} X^{T} b}{\partial {\omega}}+\frac{\partial b^{T}X{\omega}}{\partial {\omega}}+\frac{\partial b^{T}b}{\partial {\omega}}
∂ω∂L=∂ω∂yTy−∂ω∂yT(Xω+b)−∂ω∂(ωTXT+bT)y+∂ω∂ωTXTXω+∂ω∂ωTXTb+∂ω∂bTXω+∂ω∂bTb通过化简得到:
∂
L
∂
ω
=
0
−
X
T
y
−
X
T
y
+
(
X
T
X
+
X
T
X
)
ω
+
X
T
b
+
X
T
b
+
0
\frac{\partial L}{\partial {\omega}}=0- X^{T}y-X^{T}y+(X^{T}X+X^{T}X)\omega+X^{T}b+X^{T}b+0
∂ω∂L=0−XTy−XTy+(XTX+XTX)ω+XTb+XTb+0
∂
L
∂
ω
=
2
X
T
(
X
ω
+
b
−
y
)
\frac{\partial L}{\partial {\omega}}=2X^{T}(X\omega+b-y)
∂ω∂L=2XT(Xω+b−y)即:
∂
L
∂
ω
=
2
X
T
(
y
^
−
y
)
\frac{\partial L}{\partial {\omega}}=2X^{T}(\hat{y}-y)
∂ω∂L=2XT(y^−y)下一步对偏置进行求导,得到偏置的梯度。
∂
L
∂
b
=
∂
y
T
y
∂
b
−
∂
y
T
(
X
ω
+
b
)
∂
b
−
∂
(
ω
T
X
T
+
b
T
)
y
∂
b
+
∂
ω
T
X
T
X
ω
∂
b
+
∂
ω
T
X
T
b
∂
b
+
∂
b
T
X
ω
∂
b
+
∂
b
T
b
∂
b
\frac{\partial L}{\partial b}=\frac{\partial y^{T} y}{\partial b}-\frac{\partial y^{T}(X \omega+b)}{\partial b}-\frac{\partial \left(\omega^{T} X^{T}+b^{T}\right) y}{\partial b}+\frac{\partial {\omega}^{T} X^{T} X {\omega}}{\partial b}+\frac{\partial {\omega}^{T} X^{T} b}{\partial b}+\frac{\partial b^{T}X{\omega}}{\partial b}+\frac{\partial b^{T}b}{\partial b}
∂b∂L=∂b∂yTy−∂b∂yT(Xω+b)−∂b∂(ωTXT+bT)y+∂b∂ωTXTXω+∂b∂ωTXTb+∂b∂bTXω+∂b∂bTb
∂
L
∂
b
=
0
−
y
−
y
+
X
ω
+
X
ω
+
2
b
\frac{\partial L}{\partial b}=0-y-y+X\omega+X\omega+2b
∂b∂L=0−y−y+Xω+Xω+2b
∂
L
∂
b
=
2
(
X
ω
+
b
−
y
)
\frac{\partial L}{\partial b}=2(X\omega+b-y)
∂b∂L=2(Xω+b−y)即:
∂
L
∂
b
=
2
(
y
^
−
y
)
\frac{\partial L}{\partial b}=2(\hat{y}-y)
∂b∂L=2(y^−y)最后便可以运用权重和偏置的梯度值完成在训练过程中参数的更新,例如:
ω
∗
=
ω
−
l
e
a
r
n
i
n
g
r
a
t
e
∗
∂
L
∂
ω
\omega^{*}=\omega-learningrate*\frac{\partial L}{\partial {\omega}}
ω∗=ω−learningrate∗∂ω∂L;
b
∗
=
b
−
l
e
a
r
n
i
n
g
r
a
t
e
∗
∂
L
∂
b
b^{*}=b-learningrate*\frac{\partial L}{\partial b}
b∗=b−learningrate∗∂b∂L。
按照推理得出的参数更新梯度,线性回归模型主体部分的实现如下:
def init_params(train_dim):
'''
输入:
train_dim:样本特征数
输出:
w:初始化后的权重
b:初始化后的偏置
'''
w = np.zeros((train_dim,1))
b = 0
return w,b
def linear_regress(X,y,w,b): ''' 输入: X:输入数据 y:输出标签 w:权重 b:偏置 输出: y_hat:预测值 loss:预测值与真实值的均方误差 dw:权重的一阶梯度 db:偏置的一阶梯度 ''' num_train = X.shape[0] num_feature = X.shape[1] y_hat = np.dot(X,w) + b loss = np.sum((y_hat-y)**2)/num_train dw = np.dot(X.T,(y_hat-y))/num_train db = np.sum((y_hat-y))/num_train return y_hat, loss, dw, db
采用梯度下降的方法对参数进行更新。
def train(X, y, learning_rate=0.01, epochs=10000): ''' 输入: X:输入数据 y:输出标签 learning_rate:学习率 epochs:迭代次数 输出: loss_his:每一代的误差 params:参数字典 grads:优化后的梯度 ''' loss_his = [] w, b = init_params(X.shape[1]) for i in range(epochs): y_hat, loss, dw, db = linear_regress(X, y, w, b) w += -learning_rate*dw b += -learning_rate*db loss_his.append(loss) params = {'w':w, 'b':b} grads = {'dw':dw,'db':db} return loss_his, params, grads
def predict(X, params):
'''
输入:
X:测试数据集
params:模型训练参数
输出:
y_pre:预测值
'''
w = params['w']
b = params['b']
y_pre = np.dot(X, w) + b
return y_pre
我们采用sklearn中的diabetes数据集进行测试。其一共有442个样本量,每组样本有10个特征。将数据集按照8:2 的比例进行划分训练集和测试集。具体训练过程如下:
导入数据并划分数据集
from sklearn.datasets import load_diabetes from sklearn.utils import shuffle # 打乱数据的函数 import numpy as np diabetes = load_diabetes() data,target = diabetes.data, diabetes.target X, y = shuffle(data, target, random_state=13) # 固定random_state后,每次打乱的数据集都是一样的 train_data = int(X.shape[0]*0.8) X_train, y_train = X[:train_data], y[:train_data] X_test, y_test = X[train_data:], y[train_data:] y_train = y_train.reshape((-1,1)) # 将target从(1,m)转变为(m,1),其实就是转置了一下 y_test = y_test.reshape((-1,1)) # train model loss_his, params, grads = train(X_train, y_train, 0.01, 10000) # predict model y_pre = predict(X_test, params) # 评价模型 def r2_score(y_test, y_pre): y_avg = np.mean(y_test) ss_tot = np.sum((y_test-y_avg)**2) # 总离差平方和 ss_res = np.sum((y_test-y_pre)**2) # 残差平方和 r2 = 1-(ss_res/ss_tot) return r2 pre_r2 = r2_score(y_test, y_pre) print(pre_r2)
最后计算得到的线性回归模型 R 2 R^2 R2系数为0.5334188778093094。预测精准度不是很高,说明线性回归的预测性能不高。下一个章节,我将总结对数几率回归模型,即logistic regression。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。