赞
踩
本文作者是Yu欸,目前在华中科技大学攻读博士学位,定期记录并分享所学知识,博客关注者5w+。
主成分分析(PCA,Principal Component Analysis)是一项在高维数据中,寻找最重要特征的降维技术,大大减少数据的维度,而不显著损失信息量。本文将通过基于飞桨框架的实际代码示例,来展示所提供的高效、灵活的线性代数API,如何简化机器学习和深度学习中的数据处理和分析工作,为高维数据集的处理和分析提供了有效工具。主成分分析在人脸识别项目中完整代码及数据集已上传至飞桨星河社区:
https://aistudio.baidu.com/projectdetail/8055072
在现代计算框架中,为了高效地处理和存储大规模的数据集,尤其是在这些数据集中存在大量零值的情况下,采用稀疏数据结构变得尤为重要。飞桨是一个领先的深度学习平台,提供了强大的稀疏计算能力,支持从基本的稀疏张量操作到构建复杂的稀疏神经网络。这些工具主要通过 paddle.sparse 命名空间来实现,使得开发者能够高效处理大量包含零值的数据集,从而优化内存使用和计算速度。
本文使用的是ORL官方数据集,下载网址:
http://www.cl.cam.ac.uk/Research/DTG/attarchive/pub/data/att_faces.tar.Z
该数据集包含40个人的人脸图像,其中每一个人有10张人脸图像。相应的PGM文件为说明。
安装cv2的库:
pip install opencv-python
安装飞桨框架的库:(cpu版本的即可)
pip install paddle
import cv2
import paddle
# 图片矢量化
def img2vector(image):
img = cv2.imread(image, 0) # 读取图片
imgVector = paddle.reshape(paddle.to_tensor(img, dtype='float32'), [1, -1]) # 重塑为1行多列
return imgVector
import os import numpy as np class ORLDataset: def __init__(self, data_path, k, train=True): self.data_path = data_path self.k = k self.train = train def load_orl(self): train_images = [] train_labels = [] test_images = [] test_labels = [] sample = np.random.permutation(10) + 1 # 生成随机序列 for i in range(40): # 共有40个人 people_num = i + 1 for j in range(10): # 每人10张照片 image_path = os.path.join(self.data_path, 's' + str(people_num), str(sample[j]) + '.pgm') img = img2vector(image_path) # 读取图片并进行矢量化 if j < self.k: # 构成训练集 train_images.append(img) train_labels.append(people_num) else: # 构成测试集 test_images.append(img) test_labels.append(people_num) if self.train: return paddle.concat(train_images, axis=0), paddle.to_tensor(train_labels, dtype='int64') else: return paddle.concat(test_images, axis=0), paddle.to_tensor(test_labels, dtype='int64')
data = paddle.cast(data, 'float32')
rows, cols = data.shape
2) 计算均值并进行数据中心化:计算数据的均值,并将数据进行中心化处理。数据中心化是指将数据的每一维都减去该维的均值,使得数据的均值为0。
data_mean = paddle.mean(data, axis=0) # 计算均值
A = data - paddle.tile(data_mean, repeat_times=[rows, 1]) # 数据中心化
数据中心化的公式为:
$$A = X - \bar{X}$$
其中,
X
X
X为原始数据矩阵,
X
ˉ
\bar{X}
Xˉ为数据的均值。
3) 计算协方差矩阵:计算中心化后的数据矩阵
A
A
A的协方差矩阵
C
C
C。
C = paddle.matmul(A, A, transpose_y=True)
协方差矩阵的公式为:
C
=
A
A
T
C = AA^T
C=AAT
4) 计算特征值和特征向量:使用协方差矩阵
C
C
C计算特征值
λ
\lambda
λ和特征向量
v
⃗
\vec{v}
v
。
eig_vals, eig_vects = paddle.linalg.eigh(C)
特征值和特征向量的公式为:
C
v
⃗
=
λ
v
⃗
C\vec{v} = \lambda\vec{v}
Cv
=λv
5) 选取前r个特征向量:选取特征值最大的前
r
r
r个特征向量,并将这些特征向量构成矩阵
V
r
V_r
Vr。
eig_vects = paddle.matmul(A.T, eig_vects[:, :r])
特征向量矩阵的构成公式为:
$$Vr = [\vec{v}1, \vec{v}2, \ldots, \vec{v}r]$$
6) 特征向量标准化:对选取的每个特征向量进行标准化,使其长度为1。
for i in range(r):
eig_vects[:, i] = eig_vects[:, i] / paddle.norm(eig_vects[:, i])
特征向量标准化的公式为:
$$\hat{\vec{v}}i = \frac{\vec{v}i}{|\vec{v}_i|}$$
7) 计算降维后的数据:将中心化的数据矩阵$A$投影到特征向量矩阵$V_r$上,得到降维后的数据矩阵$Y$。
final_data = paddle.matmul(A, eig_vects) # 降维后的数据
return final_data, data_mean, eig_vects
降维后的数据计算公式为:
$$Y = AV_r$$
(2) 代码实现
将上述步骤综合起来,实现完整的PCA降维操作函数:
def PCA(data, r): # 降低到r维 data = paddle.cast(data, 'float32') rows, cols = data.shape data_mean = paddle.mean(data, axis=0) # 计算均值 A = data - paddle.tile(data_mean, repeat_times=[rows, 1]) # 数据中心化 # 计算协方差矩阵 C = paddle.matmul(A, A, transpose_y=True) # 计算特征值和特征向量 eig_vals, eig_vects = paddle.linalg.eigh(C) # 选取前r个特征向量 eig_vects = paddle.matmul(A.T, eig_vects[:, :r]) for i inrange(r): eig_vects[:, i] = eig_vects[:, i] / paddle.norm(eig_vects[:, i]) # 特征向量标准化 final_data = paddle.matmul(A, eig_vects) # 降维后的数据 return final_data, data_mean, eig_vects
通过以上步骤,我们成功实现了PCA降维操作,将高维数据映射到一个低维空间中,并且尽可能保留了数据的方差信息。这种方法在数据压缩、特征提取、以及数据可视化等方面非常有用,能够帮助我们更好地理解和分析数据集的本质特性。
4. 训练与测试
最后,进行初次训练,随机选取每个人的7张图片作为训练图片,查看不同维数下的训练效果:
def face_recognize(data_path): for r in range(10, 41, 10): print(f"当降维到{r}时:") dataset_train = ORLDataset(data_path, k=7, train=True) dataset_test = ORLDataset(data_path, k=7, train=False) train_data, train_labels = dataset_train.load_orl() test_data, test_labels = dataset_test.load_orl() data_train_new, data_mean, V_r = PCA(train_data, r) temp_face = test_data - data_mean data_test_new = paddle.matmul(temp_face, V_r) true_num = 0 for i in range(len(test_labels)): diffMat = data_train_new - data_test_new[i] sqDiffMat = paddle.square(diffMat) sqDistances = paddle.sum(sqDiffMat, axis=1) sortedDistIndices = paddle.argsort(sqDistances) if train_labels[sortedDistIndices[0]] == test_labels[i]: true_num += 1 accuracy = float(true_num) / len(test_labels) print(f'当每个人选择7张照片进行训练时,The classify accuracy is: {accuracy:.2%}')
公式:
1) 数据标准化:KaTeX parse error: Expected 'EOF', got '_' at position 11: \text{temp_̲face} = X - \ba… 其中,
X
X
X为测试数据,
X
ˉ
\bar{X}
Xˉ为训练数据的均值。
2) 降维后的测试数据:KaTeX parse error: Expected 'EOF', got '_' at position 11: \text{data_̲test_new} = \te… 其中,
V
r
Vr
Vr为前r个特征向量。
3) 计算欧氏距离:
dist
(
x
i
,
x
j
)
=
∑
k
=
1
r
(
x
i
k
−
x
j
k
)
2
\text{dist}(xi, xj) = \sqrt{\sum{k=1}^r (x{ik} - x_{jk})^2}
dist(xi,xj)=∑k=1r(xik−xjk)2
5. 结果
最终训练得到的结果如下:
当降维到10时:
当每个人选择7张照片进行训练时,The classify accuracy is: 67.50%
当降维到20时:
当每个人选择7张照片进行训练时,The classify accuracy is: 35.00%
当降维到30时:
当每个人选择7张照片进行训练时,The classify accuracy is: 67.50%
当降维到40时:
当每个人选择7张照片进行训练时,The classify accuracy is: 40.00%
以上是基于飞桨框架实现PCA的人脸识别算法的完整代码和结果。
基于飞桨框架的paddle.linalg API为进行数据降维和特征提取提供了强大的支持,这对于机器学习和深度学习应用来说是非常重要的。特别是,paddle.linalg.eig和paddle.linalg.svd函数允许用户有效地计算数据的特征值和特征向量,这是执行主成分分析(PCA)和奇异值分解(SVD)等降维方法的关键。此外,paddle.linalg.matmul可以用于矩阵乘法,帮助将数据从高维空间映射到低维空间,保留了数据中最重要的信息。
这些功能的广泛应用不仅限于PCA相关的任务,还包括数据压缩、特征选择和提高学习算法的效率等领域。通过降维,可以显著减少模型训练的计算资源需求,提高模型的泛化能力,减少过拟合的风险。飞桨通过提供这些高效、灵活的线性代数API,极大地简化了机器学习和深度学习中的数据处理和分析工作,为高维数据集的处理和分析提供了有效工具。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。