| 构造卷积神经网络CNN将形状为(高度,宽度,色彩通道数)的张量作为输入,忽略批次的大小。在本实例中,我们将配置CNN处理(32,32,3)的输入,通过参数input_shape传递给第一层来实现这个目的。
 model = models.Sequential()
 Sequential()方法是一个容器,描述了神经网络的网络结构,在Sequential()的输入参数中描述从输入层到输出层的网络结构。 第一层卷积层:32个3*3的卷积核,使用Relu作为激活函数 model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3)))
 第2层是2*2的最大池化层  model.add(layers.MaxPooling2D((2, 2)))
 第3层为卷积层 64个3*3的卷积核 RELU作为激活函数 model.add(layers.Conv2D(64, (3, 3), activation='relu'))
 第4层为2*2的最大池化层 model.add(layers.MaxPooling2D(2, 2))
 增加Dense层,Dense是全连接层, Flatten()层作为将2高维展平为1维,常用在卷积层到全连接层的过渡。所以在加全连接层之前要加Flatten层,将输入的图像展平到1维。 model.add(layers.Flatten())
 再加入两个全连接层,因为本例是一个10分类的问题,所以最后一层的全连接层输出为10。 model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(10))
 编译并训练模型model.compile()方法用于配置训练方法时,告知训练时用的优化器,损失函数和准确率评测标准。 model.compile(optimizer='adam',  
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),  
              
              metrics=['accuracy']  
              )
 训练模型,并将各个轮次的数据用history接收。 
history = model.fit(train_images, train_labels, epochs=10,
                    
                    validation_data=(test_images, test_labels))
 评估模型将训练集和测试集的精确度和训练轮次的对照关系折线图绘制出来。 plt.plot(history.history['accuracy'], label='accuracy')
plt.plot(history.history['val_accuracy'], label='val_accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.ylim([0.5, 1])
plt.legend(loc='lower right')
plt.show()
 详细的代码和效果参考博文:cnn实现图像分类 |