1、原理
首先简单提下CAM,CAM原理如下图所示,其实就是将某层的激活图按权重进行加权和。我们关注两点:1)激活图,即某层的特征图。2)权重对应每层的重要程度。实际上在我所知的各种变形CAM方法中,都是基于激活图和权重值的加权和原理,只不过不同方法获取权重值的方法不一样,grad-cam就是利用梯度来计算权重值。那么在CAM中权重值就是全连接层中对应类的weights。
而grad-cam的原理和cam差不多,只不过获取权重的方法不同。grad-cam从名字可以看出,它是通过梯度来获取权重的。 首先,在前向推理时,获取某层的特征层F 和网络的预测值y (不进行softmax),在这一步我们就得到了激活图(特征图)
然后如果网络的最大输出类为cat,则以cat类别的预测值
y
c
a
t
y_{cat}
ycat?作为loss,在该loss上进行反向传播,得到特征层F 在类别cat 上的梯度值G 。
然后将G 计算每个通道上的均值,作为对应特征图通道的权重值,然后对特征图进行加权和,再通过ReLU(舍弃负值,论文中认为负值可能是帮助判断其他类的像素)即可。(当然为了更好的可视化效果,还要进行一些可视化上的操作,不过都不属于grad-cam的任务了)
2、代码实现
grad_block = []
feaure_block = []
def backward_hook(module, grad_in, grad_out):
grad_block.append(grad_out[0].detach())
def farward_hook(module, input, output):
feaure_block.append(output)
def cam_show_img(img, feature_map, grads):
cam = np.zeros(feature_map.shape[1:], dtype=np.float32)
grads = grads.reshape([grads.shape[0], -1])
weights = np.mean(grads, axis=1)
for i, w in enumerate(weights):
cam += w * feature_map[i, :, :]
cam = np.maximum(cam, 0)
cam = cam / cam.max()
cam = cv2.resize(cam, (W, H))
heatmap = cv2.applyColorMap(np.uint8(255 * cam), cv2.COLORMAP_JET)
cam_img = 0.3 * heatmap + 0.7 * img
cv2.imwrite("cam.jpg", cam_img)
model.features[18][1].register_forward_hook(farward_hook)
model.features[18][1].register_backward_hook(backward_hook)
output = model(inp)
max_idx = np.argmax(output.cpu().data.numpy())
print("predict:{}".format(max_idx))
model.zero_grad()
class_loss = output[0, max_idx]
class_loss.backward()
grads_val = grad_block[0].cpu().data.numpy().squeeze()
fmap = feaure_block[0].cpu().data.numpy().squeeze()
raw_img = cv2.imread("../3.jpg")
cam_show_img(raw_img, fmap, grads_val)
关于register_forward_hook的使用:热力图的关键:利用register_hook获取梯度,
关于
|