当前位置:   article > 正文

测试集数据语义特征t_SNE降维可视化_df['标注类别名称'].unique()

df['标注类别名称'].unique()

        在图像分类通用步骤中,第一步是训练数据集,第二步是测试数据集,而无论是训练还是测试,对我们而言都是黑盒子。我们只知道模型从训练数据中学习到了特征,然后应用到测试集数据集中,最终得出测试集数据的分类结果。对于其中的细节,我们就不得而知了。因此本文将在训练好模型的基础上,在测试集进行数据降维可视化,观察模型将不同数据划分到什么位置,有助于我们理解模型在面对图像是进行了怎样的判断。来源:同济子豪兄

        本文在原代码的数据上,实现了复现。使用的网络是VGG16,使用的测试数据是ImageNet随机抽取100个类别。代码是在jupyter notebook上运行的。

载入训练好的模型,对测试集图像进行分类

  1. import os
  2. from tqdm import tqdm
  3. import numpy as np
  4. import pandas as pd
  5. import cv2
  6. from PIL import Image
  7. from model12_BNsigdctest2 import vgg
  8. import torch
  9. import torch.nn.functional as F
  10. # 有 GPU 就用 GPU,没有就用 CPU
  11. device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
  12. print('device', device)

数据预处理,采用ImageNet的预处理方式

  1. from torchvision import transforms
  2. # 训练集图像预处理:缩放裁剪、图像增强、转 Tensor、归一化
  3. train_transform = transforms.Compose([transforms.RandomResizedCrop(224),
  4. transforms.RandomHorizontalFlip(),
  5. transforms.ToTensor(),
  6. transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
  7. ])
  8. # 测试集图像预处理-RCTN:缩放、裁剪、转 Tensor、归一化
  9. test_transform = transforms.Compose([transforms.Resize(256),
  10. transforms.CenterCrop(224),
  11. transforms.ToTensor(),
  12. transforms.Normalize(
  13. mean=[0.485, 0.456, 0.406],
  14. std=[0.229, 0.224, 0.225])
  15. ])

载入数据:1是载入测试的数据集,方法和训练数据集的载入方式一样;2是载入类别索引标签

  1. # 数据集文件夹路径
  2. dataset_dir = 'E:\imageN2012'
  3. test_path = os.path.join(dataset_dir, 'val')
  4. from torchvision import datasets
  5. # 载入测试集
  6. test_dataset = datasets.ImageFolder(test_path, test_transform)
  7. print('测试集图像数量', len(test_dataset))
  8. print('类别个数', len(test_dataset.classes))
  9. print('各类别名称', test_dataset.classes)
  10. # 载入类别名称 和 ID索引号 的映射字典
  11. # 获得类别名称
  12. json_path = './class_indices100s.json'
  13. assert os.path.exists(json_path), "file: '{}' dose not exist.".format(json_path)
  14. with open(json_path, "r") as f:
  15. classes = json.load(f)
  16. print(classes[str(0)])

导入模型:模型怎么写的,就怎么载入权重

  1. model=vgg("vgg16",num_classes=100,num=1)
  2. m1="sigdctestimg10_1_s"
  3. weight_path = "./vgg16_12_BN{}_best.pth".format(m1)
  4. model.load_state_dict(torch.load(weight_path, map_location=device))
  5. model = model.eval().to(device)

创建存储表格1

  1. df = pd.DataFrame()
  2. df['图像路径'] = img_paths
  3. df['标注类别ID'] = test_dataset.targets
  4. df['标注类别名称'] = [paths.split('\\')[3] for paths in img_paths]

创建记录表格2:记录各图像的分类和置信度

  1. n=3
  2. df_pred = pd.DataFrame()
  3. for idx, row in tqdm(df.iterrows()):
  4. img_path = row['图像路径']
  5. img_pil = Image.open(img_path).convert('RGB')
  6. input_img = test_transform(img_pil).unsqueeze(0).to(device) # 预处理
  7. pred_logits = model(input_img) # 执行前向预测,得到所有类别的 logit 预测分数
  8. pred_softmax = F.softmax(pred_logits, dim=1) # 对 logit 分数做 softmax 运算
  9. pred_dict = {}
  10. top_n = torch.topk(pred_softmax, n) # 取置信度最大的 n 个结果
  11. pred_ids = top_n[1].cpu().detach().numpy().squeeze() # 解析出类别
  12. # top-n 预测结果
  13. for i in range(1, n+1):
  14. pred_dict['top-{}-预测ID'.format(i)] = pred_ids[i-1]
  15. pred_dict['top-{}-预测名称'.format(i)] = classes[str(pred_ids[i-1])]
  16. pred_dict['top-n预测正确'] = row['标注类别ID'] in pred_ids
  17. # 每个类别的预测置信度
  18. for idx, each in enumerate(classes):
  19. pred_dict['{}-预测置信度'.format(each)] = pred_softmax[0][idx].cpu().detach().numpy()
  20. df_pred = df_pred.append(pred_dict, ignore_index=True)

处理完成后会得到如下表格:

 拼接表格1和表格2

df = pd.concat([df, df_pred], axis=1)

结果如下:

保存完整表格:

df.to_csv('测试集预测结果.csv', index=False)

 计算图像的语义特征:

从载入的模型中抽取中间层的输出作为图像的语义特征:
我的模型定义如下:

 我的模型最后是全连接层,所以抽取第二个全连接层的输出作为图像的语义特征。

  1. from torchvision.models.feature_extraction import create_feature_extractor
  2. model_trunc = create_feature_extractor(model, return_nodes={'classifier.4': 'semantic_feature'})

载入图像分类结果,以获取图像和图像路径、名称等信息:

df = pd.read_csv('测试集预测结果.csv')

计算每张图像的语义特征并存储:

  1. encoding_array = []
  2. img_path_list = []
  3. for img_path in tqdm(df['图像路径']):
  4. img_path_list.append(img_path)
  5. img_pil = Image.open(img_path).convert('RGB')
  6. input_img = test_transform(img_pil).unsqueeze(0).to(device) # 预处理
  7. feature = model_trunc(input_img)['semantic_feature'].squeeze().detach().cpu().numpy() # 执行前向预测,得到 avgpool 层输出的语义特征
  8. encoding_array.append(feature)
  9. encoding_array = np.array(encoding_array)

结果如下:最终得到5000个,4096维度的语义特征,即每张图像的语义特征使用一个4096维度的特征来表示。5000是图像的数量。

 保存结果:

np.save('测试集语义特征.npy', encoding_array)

使用t_SNE方法对数据降维可视化

载入语义特征

encoding_array = np.load('测试集语义特征.npy', allow_pickle=True)

载入图像分类结果,类别名称:

  1. df = pd.read_csv('测试集预测结果.csv')
  2. classes = df['标注类别名称'].unique()

可视化配置:

  1. import seaborn as sns
  2. marker_list = ['.', ',', 'o', 'v', '^', '<', '>', '1', '2', '3', '4', '8', 's', 'p', 'P', '*', 'h', 'H', '+', 'x', 'X', 'D', 'd', '|', '_', 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11]
  3. class_list = np.unique(df['标注类别名称'])
  4. n_class = len(class_list) # 测试集标签类别数
  5. palette = sns.hls_palette(n_class) # 配色方案
  6. sns.palplot(palette)
  7. # 随机打乱颜色列表和点型列表
  8. import random
  9. random.seed(1234)
  10. random.shuffle(marker_list)
  11. random.shuffle(palette)

t_SNE将至二维:

1 t-SNE 算法概述

全称为 t-distributed Stochastic Neighbor Embedding,翻译为 t分布-随机邻近嵌入

怎么理解这个名字?

首先,t-分布是关于样本(而非总体)的t 变换值的分布,它是对u 变换变量值的标准正态分布的估计分布,是一位学生首先提出的,所以 t-分布全称:学生t-分布。

其次,t-SNE本质是一种嵌入模型,能够将高维空间中的数据映射到低维空间中,并保留数据集的局部特性。t-SNE 可以算是目前效果很好的数据降维和可视化方法之一。

缺点主要是占用内存较多、运行时间长。

t-SNE变换后,如果在低维空间中具有可分性,则数据是可分的;如果在低维空间中不可分,则可能是因为数据集本身不可分,或者数据集中的数据不适合投影到低维空间。

该算法在论文中非常常见,主要用于高维数据的降维和可视化

Visualizing Data using t-SNE,2008年发表在Journal of Machine Learning Research,大神Hinton的文章:

http://www.jmlr.org/papers/v9/vandermaaten08a.html

2 t-SNE 原理描述

t-SNE将数据点之间的相似度转化为条件概率,原始空间中数据点的相似度由高斯联合分布表示,嵌入空间中数据点的相似度由学生t分布 表示。

通过原始空间和嵌入空间的联合概率分布的KL散度(用于评估两个分布的相似度的指标,经常用于评估机器学习模型的好坏)来评估嵌入效果的好坏。

也就是,将有关KL散度的函数作为损失函数(loss function),通过梯度下降算法最小化损失函数,最终获得收敛结果。

3 t-SNE 精华所在

t-SNE的精华都在以下这些文字:

在文中提到的论文中,主要讨论降维出现的拥挤问题,解决的方法也很巧妙,一旦理解它后就明白为什么叫t-分布随机近邻嵌入。

如果想象在一个三维的球里面有均匀分布的点,不难想象,如果把这些点投影到一个二维的圆上一定会有很多点是重合的。

所以,为了在二维的圆上想尽可能表达出三维里的点的信息,大神Hinton采取的方法:

把由于投影所重合的点用不同的距离(差别很小)表示。

这样就会占用原来在那些距离上的点,原来那些点会被赶到更远一点的地方。

t分布是长尾的,意味着距离更远的点依然能给出和高斯分布下距离小的点相同的概率值。

从而达到高维空间和低维空间对应的点概率相同的目的。

  1. # 降维到二维
  2. from sklearn.manifold import TSNE
  3. tsne = TSNE(n_components=2, n_iter=20000)
  4. X_tsne_2d = tsne.fit_transform(encoding_array)

结果如下:

可视化结果:

  1. # 不同的 符号 表示 不同的 标注类别
  2. show_feature = '标注类别名称'
  3. import matplotlib.pyplot as plt
  4. plt.figure(figsize=(14, 14))
  5. for idx, fruit in enumerate(class_list): # 遍历每个类别
  6. # 获取颜色和点型
  7. color = palette[idx]
  8. marker = marker_list[idx%len(marker_list)]
  9. # 找到所有标注类别为当前类别的图像索引号
  10. indices = np.where(df[show_feature]==fruit)
  11. plt.scatter(X_tsne_2d[indices, 0], X_tsne_2d[indices, 1], color=color, marker=marker, label=fruit, s=150)
  12. plt.legend(fontsize=16, markerscale=1, bbox_to_anchor=(1, 1))
  13. plt.xticks([])
  14. plt.yticks([])
  15. plt.savefig('语义特征t-SNE二维降维可视化.pdf', dpi=300) # 保存图像
  16. plt.show()

 plotply交互式可视化

  1. import plotly.express as px
  2. df_2d = pd.DataFrame()
  3. df_2d['X'] = list(X_tsne_2d[:, 0].squeeze())
  4. df_2d['Y'] = list(X_tsne_2d[:, 1].squeeze())
  5. df_2d['标注类别名称'] = df['标注类别名称']
  6. df_2d['预测类别'] = df['top-1-预测名称']
  7. df_2d['图像路径'] = df['图像路径']
  8. df_2d.to_csv('t-SNE-2D.csv', index=False)
  9. fig = px.scatter(df_2d,
  10. x='X',
  11. y='Y',
  12. color=show_feature,
  13. labels=show_feature,
  14. symbol=show_feature,
  15. hover_name='图像路径',
  16. opacity=0.8,
  17. width=1000,
  18. height=600
  19. )
  20. # 设置排版
  21. fig.update_layout(margin=dict(l=0, r=0, b=0, t=0))
  22. fig.show()
  23. fig.write_html('语义特征t-SNE二维降维plotly可视化.html')

 t-SNE降维至三维,并可视化

  1. # 降维到三维
  2. from sklearn.manifold import TSNE
  3. tsne = TSNE(n_components=3, n_iter=10000)
  4. X_tsne_3d = tsne.fit_transform(encoding_array)
  5. show_feature = '标注类别名称'
  6. df_3d = pd.DataFrame()
  7. df_3d['X'] = list(X_tsne_3d[:, 0].squeeze())
  8. df_3d['Y'] = list(X_tsne_3d[:, 1].squeeze())
  9. df_3d['Z'] = list(X_tsne_3d[:, 2].squeeze())
  10. df_3d['标注类别名称'] = df['标注类别名称']
  11. df_3d['预测类别'] = df['top-1-预测名称']
  12. df_3d['图像路径'] = df['图像路径']
  13. df_3d.to_csv('t-SNE-3D.csv', index=False)
  14. fig = px.scatter_3d(df_3d,
  15. x='X',
  16. y='Y',
  17. z='Z',
  18. color=show_feature,
  19. labels=show_feature,
  20. symbol=show_feature,
  21. hover_name='图像路径',
  22. opacity=0.6,
  23. width=1000,
  24. height=800)
  25. # 设置排版
  26. fig.update_layout(margin=dict(l=0, r=0, b=0, t=0))
  27. fig.show()
  28. fig.write_html('语义特征t-SNE三维降维plotly可视化.html')

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/343712
推荐阅读
相关标签
  

闽ICP备14008679号