赞
踩
GradCAM是经典的特征图可视化工具,在CV任务中,能用于分析CNN学到了什么东西。先看一张图:
这就是GradCAM做出的效果,它直观地表示出咱们模型认为图片是Dog的是依据哪些地方。
GradCAM借用梯度来进行注意力表示,发表于ICCV2017,如今依然活跃在学术和工程界。
论文链接:https://arxiv.org/abs/1610.02391
对于视觉任务,包括图像分类、目标检测等,通常都是backbone+head的形式。如图1所示。所以,GradCAM可以无差别地对各种视觉任务进行可视化。
在操作上,GradCAM拿到backbone的输出梯度,一般是4维张量,将这一层梯度进行平均化作为权重,然后跟这一层的输出张量做一个加权平均(先乘再加),然后过一层relu去掉负值,最后等比例投影在调整过的原图上。
我以图像分类为例进行剖析:(假设我们做5分类)
第一步,前向传播得到特征图。需要进行一次前向计算,得到backbone的特征图输出。
第二步,反向传播得到梯度。模型的输出为一个5-d的向量res,假设我们要看类别1的可视化,咱们就把res[1]当作loss进行反向传播。这么做的原理:咱们需要知道模型识别出类别1会认为哪些特征图是重要的,而梯度直接表达了参数要调整的方向,假设参数调整方向为正向,那么这些特征图就应该是重要的。所以,在这一层的对应位置的平均梯度可以表示该特征图的重要性,即权重。再结合第一步得到的特征图,进行加权平均就可以了~
咱们看一下代码:(来自https://github.com/leftthomas/GradCAM)
import cv2 import numpy as np import torch import torch.nn.functional as F import torchvision.transforms as transforms from torch.autograd import Variable class GradCam: def __init__(self, model): self.model = model.eval() self.feature = None self.gradient = None def save_gradient(self, grad): self.gradient = grad def __call__(self, x): image_size = (x.size(-1), x.size(-2)) datas = Variable(x) heat_maps = [] for i in range(datas.size(0)): img = datas[i].data.cpu().numpy() img = img - np.min(img) if np.max(img) != 0: img = img / np.max(img) feature = datas[i].unsqueeze(0) for name, module in self.model.named_children(): print(name) if name == 'classifier' or name == 'fc': feature = feature.view(feature.size(0), -1) feature = module(feature) if name == 'features' or name == 'backbone': feature.register_hook(self.save_gradient) # get backbone gradients self.feature = feature classes = torch.sigmoid(feature) print(torch.argmax(F.softmax(classes), dim=-1)) one_hot, _ = classes.max(dim=-1) self.model.zero_grad() one_hot.backward() weight = self.gradient.mean(dim=-1, keepdim=True).mean(dim=-2, keepdim=True) mask = F.relu((weight * self.feature).sum(dim=1)).squeeze(0) mask = cv2.resize(mask.data.cpu().numpy(), image_size) mask = mask - np.min(mask) if np.max(mask) != 0: mask = mask / np.max(mask) heat_map = np.float32(cv2.applyColorMap(np.uint8(255 * mask), cv2.COLORMAP_JET)) cam = heat_map + np.float32((np.uint8(img.transpose((1, 2, 0)) * 255))) cam = cam - np.min(cam) if np.max(cam) != 0: cam = cam / np.max(cam) heat_maps.append(transforms.ToTensor()(cv2.cvtColor(np.uint8(255 * cam), cv2.COLOR_BGR2RGB))) heat_maps = torch.stack(heat_maps) return heat_maps
代码中通过register_hook来获取backbone的梯度,想进一步了解hook的可戳《python中的register_hook》
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。