当前位置:   article > 正文

卷积网络的特征图可视化(keras自定义网络+VGG16)_可视化卷积特征图

可视化卷积特征图

参考博客:
卷积神经网络特征图可视化(自定义网络和VGG网络

https://blog.csdn.net/dcrmg/article/details/81255498

使用Keras来搭建VGG网络

https://blog.csdn.net/qq_34783311/article/details/84994351

深度神经网络可解释性:卷积核、权重和激活可视化(pytorch+tensorboard):

https://blog.csdn.net/Bit_Coders/article/details/117781090

代码:

# coding: utf-8

from keras.models import Model
import cv2
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers.convolutional import Convolution2D, MaxPooling2D
from keras.layers import Activation
from pylab import *
import keras


def get_row_col(num_pic):
    squr = num_pic ** 0.5
    row = round(squr)
    col = row + 1 if squr - row > 0 else row
    return row, col


def visualize_feature_map(img_batch):
    feature_map = np.squeeze(img_batch, axis=0)
    print(feature_map.shape)

    feature_map_combination = []
    plt.figure()

    num_pic = feature_map.shape[2]
    row, col = get_row_col(num_pic)

    for i in range(0, num_pic):
        feature_map_split = feature_map[:, :, i]
        feature_map_combination.append(feature_map_split)
        plt.subplot(row, col, i + 1)
        plt.imshow(feature_map_split)
        axis('off')
        title('feature_map_{}'.format(i))

    plt.savefig('feature_map.png')
    plt.show()

    # 各个特征图按1:1 叠加
    feature_map_sum = sum(ele for ele in feature_map_combination)
    plt.imshow(feature_map_sum)
    plt.savefig("feature_map_sum.png")
    plt.show()


def create_model():
    model = Sequential()

    # 第一层CNN
    # 第一个参数是卷积核的数量,第二三个参数是卷积核的大小
    model.add(Convolution2D(9, 5, 5, input_shape=img.shape))
    model.add(Activation('relu'))
    model.add(MaxPooling2D(pool_size=(4, 4)))

    # 第二层CNN
    model.add(Convolution2D(9, 5, 5, input_shape=img.shape))
    model.add(Activation('relu'))
    model.add(MaxPooling2D(pool_size=(3, 3)))

    # 第三层CNN
    model.add(Convolution2D(9, 5, 5, input_shape=img.shape))
    model.add(Activation('relu'))
    model.add(MaxPooling2D(pool_size=(2, 2)))

    # 第四层CNN
    model.add(Convolution2D(9, 3, 3, input_shape=img.shape))
    model.add(Activation('relu'))
    # model.add(MaxPooling2D(pool_size=(2, 2)))


    return model


if __name__ == "__main__":
    img = cv2.imread('001.jpg')

    model = create_model()
    model.summary()

    img_batch = np.expand_dims(img, axis=0)
    model = Model(inputs=model.input, outputs=model.get_layer('conv2d_1').output)  # 获取某层的输出
    conv_img = model.predict(img_batch)  # conv_img 卷积结果

    visualize_feature_map(conv_img)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86

这里定义了一个4层的卷积,每个卷积层分别包含9个卷积、Relu激活函数和尺度不等的池化操作,系数全部是随机初始化。
输入的原图如下:
在这里插入图片描述
第一层卷积后可视化的特征图:
feature_map_shape: (593, 667, 9)
(593x667)x 9
在这里插入图片描述
所有第一层特征图1:1融合后整体的特征图:
在这里插入图片描述
第二层卷积后可视化的特征图:
feature_map_shape: (144, 162, 9)
(144 x162) x 9
在这里插入图片描述
所有第二层特征图1:1融合后整体的特征图:
在这里插入图片描述
第三层卷积后可视化的特征图:
feature_map_shape: (44, 50, 9)
(44 x 50) x 9
在这里插入图片描述
所有第三层特征图1:1融合后整体的特征图:
在这里插入图片描述
第四层卷积后可视化的特征图:
feature_map_shape: (20, 23, 9)
(20 x 23) x 9
在这里插入图片描述
所有第四层特征图1:1融合后整体的特征图:
在这里插入图片描述
从不同层可视化出来的特征图大概可以总结出一点规律:

  1. 浅层网络提取的是纹理、细节特征
  2. 深层网络提取的是轮廓、形状、最强特征(如猫的眼睛区域)
  3. 浅层网络包含更多的特征,也具备提取关键特征(如第一组特征图里的第4张特征图,提取出的是猫眼睛特征)的能力
  4. 相对而言,层数越深,提取的特征越具有代表性
  5. 图像的分辨率是越来越小的

下面是VGG16的结构:

def create_model():
    model = Sequential()
    # VGG16
    # layer_1
    model.add(keras.layers.Conv2D(filters=64, kernel_size=3, strides=1,
                                  padding='same', activation='relu', kernel_initializer='uniform',
                                  input_shape=(48, 48, 3)))
    model.add(keras.layers.Conv2D(filters=64, kernel_size=3, strides=1,
                                  padding='same', activation='relu', kernel_initializer='uniform'))
    model.add(keras.layers.MaxPool2D(pool_size=2))

    # layer_2
    model.add(keras.layers.Conv2D(filters=128, kernel_size=3, strides=1,
                                  padding='same', activation='relu', kernel_initializer='uniform'))
    model.add(keras.layers.Conv2D(filters=128, kernel_size=3, strides=1,
                                  padding='same', activation='relu', kernel_initializer='uniform'))
    model.add(keras.layers.MaxPool2D(pool_size=2))
    # layer_3
    model.add(keras.layers.Conv2D(filters=256, kernel_size=3, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.Conv2D(filters=256, kernel_size=3, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.Conv2D(filters=256, kernel_size=1, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.MaxPool2D(pool_size=2))
    # layer_4
    model.add(keras.layers.Conv2D(filters=512, kernel_size=3, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.Conv2D(filters=512, kernel_size=3, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.Conv2D(filters=512, kernel_size=1, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.MaxPool2D(pool_size=2))
    # layer_5
    model.add(keras.layers.Conv2D(filters=512, kernel_size=3, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.Conv2D(filters=512, kernel_size=3, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.Conv2D(filters=512, kernel_size=1, strides=1,
                                  padding='same', activation='relu'))
    model.add(keras.layers.MaxPool2D(pool_size=2))


    model.add(keras.layers.Flatten())
    # model.add(keras.layers.AlphaDropout(0.5))
    model.add(keras.layers.Dense(4096, activation='relu'))
    model.add(keras.layers.Dense(4096, activation='relu'))
    model.add(keras.layers.Dense(1000, activation='relu'))
    model.add(keras.layers.Dense(8, activation='softmax'))
    return model
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50

原图:
48 x 48像素
在这里插入图片描述
layer_1层的输出:
conv2d_2 (48, 48, 64)
在这里插入图片描述

在这里插入图片描述

layer_2层的输出:
conv2d_4 (24, 24, 128)
在这里插入图片描述

在这里插入图片描述

layer_3层的输出:
conv2d_7 (12, 12, 256)
在这里插入图片描述

在这里插入图片描述

layer_4层的输出:
conv2d_10 (6, 6, 512)
在这里插入图片描述

在这里插入图片描述

layer_5层的输出:
conv2d_13 (3, 3, 512)
在这里插入图片描述

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/115998
推荐阅读
相关标签
  

闽ICP备14008679号