头图

我们在使用卷积神经网络或递归神经网络或其他变体时,通常都希望对模型的架构可以进行可视化的查看,因为这样我们可以 在定义和训练多个模型时,比较不同的层以及它们放置的顺序对结果的影响。还有可以更好地理解模型结构、激活函数、模型参数形状(神经元数量)等

keras 中有一些现成的包可以创建我们的神经网络模型的可视化表示。前三个包可以在模型训练之前使用(只需要定义和编译模型);但是Tensor Boards 要求用户在架构可视化之前根据准确的数据训练模型。

在开始进行可视化之前,我们先需要安装相应的包:

 pip install visualkeras
 pip install ann_visualizer
 pip install graphviz

然后我们创建一个模型,并用这4个包来进行可视化:

在实际使用时我们希望的是通过可视化来对比模型架构,所以这里定义三个具有不同超参数 CNN 模型。我们创建了用户定义的函数来分别构建具有不同数量的 CNN 层、池化层和最后的密集层的三个不同模型。

架构1:浅层CNN+分类头

 def construct_model():
     model = Sequential()
     model.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
     model.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     model.add(MaxPool2D((2, 2)))
     model.add(Flatten())
     model.add(Dense(256, activation=’relu’))model.add(Dense(12, activation=’softmax’))
     model.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘accuracy’])
     return model

架构2:深层CNN+mlp分类头

 def sconstruct_model():
     smodel = Sequential()
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 3), activation=’relu’))
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Flatten())
     smodel.add(Dense(256, activation=’relu’))
     smodel.add(Dense(12, activation=’softmax’))
     #optimizer = Adam(lr=0.001)
     smodel.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘accuracy’])
     #model.summary()
     return smodel

架构3:深层CNN+分类头

 def cconstruct_model(learningRate):
     smodel = Sequential()
     smodel.add(Conv2D(filters=32, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
     smodel.add(Conv2D(filters=32, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
     smodel.add(MaxPool2D((2, 2)))
     smodel.add(Flatten())
     smodel.add(Dense(256, activation=’relu’))
     smodel.add(Dense(256, activation=’relu’))
     smodel.add(Dense(12, activation=’softmax’))
     optimizer = Adam(lr=learningRate)
     smodel.compile(loss=’categorical_crossentropy’, optimizer=optimizer, metrics=[‘accuracy’])
     smodel.summary()
     return smodel

有了这3个模型,我们将使用4种方法来可视化cnn的结构

ANN Visualizer

ANN Visualizer 的 Python 模块可以通过几行代码来可视化神经网络。它使用 Keras 和 Python 的 Graphviz 模块来生成一个整洁的神经网络图。它是最早的几个可视化包之一,但是最近已经不更新了,我们先介绍他是因为它算是最早出现的,也是最有名的。

ANN Visualizer可视化需要首先编译模型

 model=construct_model()

主要参数如下:

ann_viz(model, view=True, filename=”network.gv”, title=”MyNeural Network”)

model—Keras的模型

view—在调用ann_viz()之后显示可视化图形

filename—文件名

title—自定义标题

 from ann_visualizer.visualize import ann_viz
 ann_viz(model, view=True, filename=”cconstruct_model”, title=”CNN — Model 1 — Simple Architecture”)

上面就是使用ANN Visualizer创建的construct_model()的可视化图。可以看到,如果模型太大显示效果不会太好,这可能也是ANN Visualizer被淘汰的一个原因。

Visual Keras

Visualkeras可以更容易地查看Keras的神经网络设计(可以单独查看,也可以作为TensorFlow的一部分)。

 model1=construct_model()
 model2=sconstruct_model()
 model3=cconstruct_model(0.009)
 
 import visualkeras
 from PIL import ImageFont
 visualkeras.layered_view(model1, legend=True)
 visualkeras.layered_view(model2, legend=True)
 visualkeras.layered_view(model3, legend=True)

可以通过可视化来对比出不同层的大小,这个还是很有用的

Keras Model Plot

keras.utils.plot_model是keras的内建绘制Keras模型函数,它使用了Graphviz和pydot包。从图上可,它不如上面使用的包直观,但它概述了顺序模型的基本体系结构。

 tf.keras.utils.plot_model(model1,to_file="model.png",show_shapes=True,show_dtype=False,show_layer_names=True,rankdir="TB",expand_nested=True,dpi=96,layer_range=None,show_layer_activations=True,)

一下是几个参数的介绍:

  • model: Keras编译后的模型或模型对象的实例
  • to_file:保存的文件名
  • Show_shapes:显示神经网络中每一层的尺寸和形状
  • show_layer_activation:显示神经元内部使用的激活函数

TensorBoard

TensorBoard 允许用户可视化不同模型运行的日志。日志的范围可以从跟踪任何模型验证度量(不同轮次的准确率、召回率、RMSE、MAPE 和 MSE)到创建模型的架构图。它是一个强大的工具,可以可视化预期模型是否与预期设计匹配,同时深入了解如何使用操作级图更改模型。

我们需要先加载 TensorBoard,然后创建一个日志目录。

 %load_ext tensorboard
 from datetime import datetime
 from tensorflow import keras
 
 logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")
 tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)

使用Keras TensorBoard回调函数,在训练前指定日志目录。然后通过向model.fit()提供这个回调来保证数据被记录在TensorBoard中。

 model.fit(X2_train, Y2_train,batch_size=64,epochs=5,callbacks=[tensorboard_callback])

X2_train和Y2_train是上面代码中没有反映的训练数据集。你可以用你自己的任何训练数据来替换它。

可以看到TensorBoard 始终会显示操作级别的图表,虽然对于每一层的架构并不明显,但是对于每一个操作缺失非常详细的。

还需要注意的是,与代码相比该图是上下颠倒的,因为数据从底部流向顶部。但是该图大致类似于 Keras 模型的描述,有额外的边通向其他计算节点。

https://avoid.overfit.cn/post/95ee9b5017e840fa85ac63921a9d0def

作者:Angel Das


deephub
111 声望89 粉丝