赞
踩
卷积输出特征图维度计算公式:
F
o
u
t
F_{out}
Fout=
F
i
n
−
k
+
2
p
s
t
r
i
d
e
+
1
\frac {F_{in} - k + 2p}{stride} + 1
strideFin−k+2p+1
连接数量计算公式:
F
o
u
t
F_{out}
Fout =
F
i
n
p
u
t
×
(
K
s
×
K
s
)
×
K
n
+
K
b
a
i
s
F_{input} \times (K_s \times K_s) \times K_n + K_{bais}
Finput×(Ks×Ks)×Kn+Kbais
F i n p u t F_{input} Finput:前一层Feature Map的channel数。
K s K_s Ks:卷积核的大小
K n K_n Kn:卷积核的数量
K b a i s K_{bais} Kbais:偏置的数量=卷积核的数量
深度学习的宏观框架——训练(training)和推理(inference)及其应用场景
json.loads()加载json数据的方法:用于将str类型的数据转成dict。
打个比方,你现在想要训练一个能区分苹果还是橘子的模型,你需要搜索一些苹果和橘子的图片,这些图片放在一起称为训练数据集(training dataset),训练数据集是有标签的,苹果图片的标签就是苹果,橘子亦然。一个初始神经网络通过不断的优化自身参数,来让自己变得准确,可能开始10张苹果的照片,只有5张被网络认为是苹果,另外5张认错了,这个时候通过优化参数,让另外5张错的也变成对的。这整个过程就称之为训练(Traning)。
你训练好了一个模型,在训练数据集中表现良好,但是我们的期望是它可以对以前没看过的图片进行识别。你重新拍一张图片扔进网络让网络做判断,这种图片就叫做现场数据(live data),如果现场数据的区分准确率非常高,那么证明你的网络训练的是非常好的。我们把训练好的模型拿出来遛一遛的过程,称为推理(Inference)。
想要把一个训练好的神经网络模型应用起来,需要把它放在某个硬件平台上并保证其能运行,这个过程称之为部署(deployment)。
LSVRC大规模图像识别挑战赛/2012官网
ImageNet官网
那Top-1 Accuracy和Top-5 Accuracy是指什么呢?区别在哪呢?
- 首先是TOP-5正确率,
举个例子,比如你训练好了一个网络,你要用这个网络去进行图片分类任务,假设要分类的数目有50类,那么当我们进行测试时,输入一张图片,网络会依次输出这50个类别的概率,当所有图片测试完成后,那么:
TOP-5正确率就是说,在测试图片的50个分类概率中,取前面5个最大的分类概率,正确的标签(分类)有没有在里面,就是它是不是这前5个中的一个,如果是,就是分类成功.
- TOP-5正确率=(所有测试图片中正确标签包含在前五个分类概率中的个数)除以(总的测试图片数)
- TOP-5错误率=(所有测试图片中正确标签不在前五个概率中的个数)除以(总的测试图片数)
同理,TOP-1错误率就是正确标记的样本数不是最佳概率的样本数除以总的样本数
其中**SIFT+FVs
是2012年的季军,7CNNs*
是2012年的AlexNet冠军模型,其中2个AlexNet用于预训练微调和训练5个AlexNet取平均值。5CNNs
**是当时的亚军,也是AlexNet。
# hard code
# 通过ImageNet数据统计得到,RGB三个通道的mean和std
norm_mean = [0.485, 0.456, 0.406] # Through the ImageNet statistics, it is RGB three channels(mean and std).
norm_std = [0.229, 0.224, 0.225]
# transforms.Compose():Pytorch中的图像预处理包,将多个步骤整合到一起
inference_transform = transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop((224, 224)),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
transforms.Compose()
下面介绍transforms中的函数:
[0,225]
的PIL图像或形状为[H,W,C]
的数组,转换成形状为[C,H,W]
,取值范围是[0,1.0]
的张量(torch.FloadTensor) # path --> img
# Loading pictures
#如果不使用.convert('RGB')进行转换的话,读出来的图像是RGBA四通道的,A通道为透明通道
img_rgb = Image.open(path_img).convert('RGB')
# img --> tensor
img_tensor = img_transform(img_rgb, inference_transform)
img_tensor.unsqueeze_(0) # [c,h,w] 增维成 [b,c,h,w]
# to(device):最开始读取数据时的tensor变量copy一份到device所指定的GPU上去,之后的运算都在GPU上进行。
img_tensor = img_tensor.to(device)
return img_tensor, img_rgb
PIL图像处理标准库——convert(‘RGB’)
pytorch中unsqueeze_(增加维度)的用法
Pytorch 学习笔记–to(device)的用法
nn.AdaptiveAvgPool2d()
Pytorch中的AlexNet更改了原论文中的一些卷积核的数量
代码中AlexNet的模型参数与论文中有所改动,具体如下:并且代码中忽略了LRN(局部响应归一化)
代码如下:
class AlexNet(nn.Module): def __init__(self, num_classes: int = 1000) -> None: super(AlexNet, self).__init__() self.features = nn.Sequential( # conv1 nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2), # 96 --> 64 nn.ReLU(inplace=True), nn.MaxPool2d(kernel_size=3, stride=2), # 3 > 2 # conv2 nn.Conv2d(64, 192, kernel_size=5, padding=2),# 384 --> 256 nn.ReLU(inplace=True), nn.MaxPool2d(kernel_size=3, stride=2), # conv3 nn.Conv2d(192, 384, kernel_size=3, padding=1), nn.ReLU(inplace=True), # conv4 nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(inplace=True), # conv5 nn.Conv2d(256, 256, kernel_size=3, padding=1), nn.ReLU(inplace=True), nn.MaxPool2d(kernel_size=3, stride=2), ) # 自适应平均池化,指定输出(H,W) self.avgpool = nn.AdaptiveAvgPool2d((6, 6)) # trick self.classifier = nn.Sequential( nn.Dropout(), nn.Linear(256 * 6 * 6, 4096), nn.ReLU(inplace=True), nn.Dropout(), nn.Linear(4096, 4096), nn.ReLU(inplace=True), nn.Linear(4096, num_classes), ) def forward(self, x: torch.Tensor) -> torch.Tensor: x = self.features(x) x = self.avgpool(x) x = torch.flatten(x, 1) x = self.classifier(x) return x
Pytorch中model.eval的作用
在Pytorch上使用torchsummary中的summary
def get_model(path_state_dict, vis_model=False): """ 创建模型,加载参数 :param path_state_dict: :return: """ model = models.alexnet() pretrained_state_dict = torch.load(path_state_dict) model.load_state_dict(pretrained_state_dict) # 导入语预训练模型的参数 model.eval() # 因为我们不训练,所以用这个,保证模型参数不变。 if vis_model: from torchsummary import summary # summary打印显示网络结构和参数 summary(model, input_size=(3, 224, 224), device="cpu") model.to(device) return model
# 3/5 inference tensor --> vector
torch.no_grad():# 在前向传播中加入这个,可以加快运算速度,减少内存消耗,因为前向传播不需要计算梯度
with torch.no_grad():
time_tic = time.time()
outputs = alexnet_model(img_tensor) # 直接把图片传递给模型
time_toc = time.time()
# 4/5 index to class names
_, pred_int = torch.max(outputs.data, 1) # pred_int:Top-1对应的索引
_, top5_idx = torch.topk(outputs.data, 5, dim=1) # top5_idx:Top-5对应的索引
pred_idx = int(pred_int.cpu().numpy())
pred_str, pred_cn = cls_n[pred_idx], cls_n_cn[pred_idx] # 找出pred_idx:Top-5索引所对应标签的名字
print("img: {} is: {}\n{}".format(os.path.basename(path_img), pred_str, pred_cn))
print("time consuming:{:.2f}s".format(time_toc - time_tic))
# 5/5 visualization
plt.imshow(img_rgb)
plt.title("predict:{}".format(pred_str))
top5_num = top5_idx.cpu().numpy().squeeze()
text_str = [cls_n[t] for t in top5_num]
for idx in range(len(top5_num)):
plt.text(5, 15+idx*30, "top {}:{}".format(idx+1, text_str[idx]), bbox=dict(fc='yellow'))
plt.show()
Output As Following:
import torch.nn as nn from PIL import Image import torchvision.transforms as transforms from torch.utils.tensorboard import SummaryWriter import torchvision.utils as vutils import os import torch import sys hello_pytorch_DIR = os.path.abspath(os.path.dirname(__file__)+os.path.sep+".."+os.path.sep+"..") sys.path.append(hello_pytorch_DIR) from PYTORCH.Deep_eye.Pytorch_Camp_master.hello_pytorch.tools.common_tools import set_seed import torchvision.models as models set_seed(1) # 设置随机种子 # ----------------------------------- kernel visualization ----------------------------------- # flag = 0 flag = 1 if flag: writer = SummaryWriter(comment='test_your_comment', filename_suffix="_test_your_filename_suffix") alexnet = models.alexnet(pretrained=True) # 训练好的模型 kernel_num = -1 # 指示当前是第几个kernel vis_max = 1 # 最大可视化层,这里卷积到第一层,有0层和1层 # 避免pytorch1.7下的一个小bug,增加 torch.no_grad with torch.no_grad(): for sub_module in alexnet.modules(): #print(sub_module) #print("#"*40) if isinstance(sub_module, nn.Conv2d): # 如果是卷积层,就进行可视化 kernel_num += 1 if kernel_num > vis_max: break kernels = sub_module.weight """ print(kernels) # 输出以下两种卷积核的具体参数形式Parameter containing:tensor() 0_convlayer shape:(64, 3, 11, 11) 1_convlayer shape:(192, 64, 5, 5) """ c_out, c_int, k_w, k_h = tuple(kernels.shape) for o_idx in range(c_out): # c_out = 64,192 kernel_idx = kernels[o_idx, :, :, :].unsqueeze(1) # make_grid需要 BCHW,这里拓展C维度 """ # 解释 kernel_idx = kernels[o_idx, :, :, :].unsqueeze(1) # make_grid需要 BCHW,这里拓展C维度 norm = torch.randn(2,2,2,2) kernel_idx = norm[1, :, :, :].unsqueeze(1) print(norm) print(kernel_idx.shape) print(norm[1, :, :, :].shape) tensor([[[[ 1.0489, 0.5993], [-0.6188, -1.1799]], [[ 0.2048, -0.7116], [ 1.0134, 1.7053]]], [[[ 0.8014, 1.7095], [-0.1244, -0.5227]], [[ 0.1196, -2.1761], [ 0.7631, -1.2534]]]]) torch.Size([2, 1, 2, 2]) torch.Size([2, 2, 2]) """ kernel_grid = vutils.make_grid(kernel_idx, normalize=True, scale_each=True, nrow=c_int) # nrow每一行显示的图像数. 最终图标尺寸为(B / nrow, nrow). 默认为8. writer.add_image('{}_Convlayer_split_in_channel'.format(kernel_num), kernel_grid, global_step=o_idx) kernel_all = kernels.view(-1, 3, k_h, k_w) # 3, h, w #在torch里面,view函数相当于numpy的reshap """ kernels = torch.randn(192,64,5,5) c_out, c_int, k_w, k_h = tuple(kernels.shape) kernel_all = kernels.view(-1, 3, k_h, k_w) # 3, h, w print(kernel_all.shape) OUT: torch.Size([4096, 3, 5, 5]) """ kernel_grid = vutils.make_grid(kernel_all, normalize=True, scale_each=True, nrow=8) # c, h, w writer.add_image('{}_all'.format(kernel_num), kernel_grid, global_step=322) print("{}_convlayer shape:{}".format(kernel_num, tuple(kernels.shape))) writer.close()
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。