IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> CNN-VGG总结 -> 正文阅读

[人工智能]CNN-VGG总结

论文地址:
https://arxiv.org/abs/1409.1556

1. VGG的主要贡献

  1. VGG使用 2个3X3的卷积核 来代替 5X5的卷积核,3个3X3的卷积核 代替7X7的卷积核,在保证相同感受野的情况下,多个小卷积层堆积可以提升网络深度,增加特征提取能力;
  2. 相比于AlexNet,搭建了更深层次的神经网络。

2. VGG的主要结构

以最常用的VGG16为例:

自适应池化(AdaptiveAvgPool2d):
对输入信号,提供2维的自适应平均池化操作 对于任何输入大小的输入,可以将输出尺寸指定为H*W,但是输入和输出特征的数目不会变化。
https://blog.csdn.net/qq_41997920/article/details/98963215

3. 模型代码及训练过程

模型文件下载地址:
链接:https://pan.baidu.com/s/1h8r3_2HVqUKA_nIlXgOY5g
提取码:kov6

3.1 模型代码及加载权重

import torch
import torchvision.models
from torch import nn

vgg_types = {
    'VGG11': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'],
    'VGG13': [64, 64, 'M', 128, 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'],
    'VGG16': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 'M', 512, 512, 512, 'M', 512, 512, 512, 'M'],
    'VGG19': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 256, 'M', 512, 512, 512, 512, 'M', 512, 512, 512, 512, 'M'],
}


class VGG(nn.Module):
    def __init__(self, in_channels=3, num_classes=1000, vgg_type="VGG16"):
        super(VGG, self).__init__()
        self.in_channels = in_channels
        self.features = self.create_conv_layers(vgg_types[vgg_type])
        self.avgpool = nn.AdaptiveAvgPool2d(output_size=(7, 7))
        self.classifier = nn.Sequential(
            nn.Linear(512 * 7 * 7, 4096, bias=True),
            nn.ReLU(inplace=True),
            nn.Dropout(p=0.5),
            nn.Linear(4096, 4096, bias=True),
            nn.ReLU(inplace=True),
            nn.Dropout(p=0.5),
            nn.Linear(4096, num_classes, bias=True)
        )
        self.initialize_weights()

    def forward(self, x):
        x = self.features(x)
        x = self.avgpool(x)
        x = x.view(x.shape[0], -1)
        x = self.classifier(x)
        return x

    def create_conv_layers(self, architecture):
        layers = []
        in_channels = self.in_channels

        for x in architecture:
            if type(x) == int:
                out_channels = x

                layers += [
                    nn.Conv2d(in_channels=in_channels, out_channels=out_channels,
                              kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)),
                    # 如果要使用官网的预训练权重,需要注释掉下面这句
                    nn.BatchNorm2d(x),
                    nn.ReLU(inplace=True)
                ]
                in_channels = x
            elif x == 'M':
                layers += [nn.MaxPool2d(kernel_size=(2, 2), stride=(2, 2))]

        return nn.Sequential(*layers)

    # 参数初始化
    def initialize_weights(self):
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                nn.init.kaiming_uniform_(m.weight)

                if m.bias is not None:
                    nn.init.constant_(m.bias, 0)

            elif isinstance(m, nn.BatchNorm2d):
                nn.init.constant_(m.weight, 1)
                nn.init.constant_(m.bias, 0)

            elif isinstance(m, nn.Linear):
                nn.init.kaiming_uniform_(m.weight)
                nn.init.constant_(m.bias, 0)


def get_vgg_model(in_channels=3, num_classes=1000, vgg_type="VGG16", is_load_weights=False, model_path=None):
    vgg_type = vgg_type.upper()
    if is_load_weights:
        assert model_path is not None, "model path cannot be none"
        device = "cuda" if torch.cuda.is_available() else "cpu"
        model = VGG(in_channels=in_channels, num_classes=10, vgg_type=vgg_type)
        missing_keys, unexpected_keys = model.load_state_dict(torch.load(model_path, map_location=device), strict=False)
        print(f"missing keys: {missing_keys}")
        print(f"unexpected key: {unexpected_keys}")
        model.classifier[6] = nn.Linear(model.classifier[6].in_features, num_classes)
    else:
        model = VGG(in_channels=in_channels, num_classes=num_classes, vgg_type=vgg_type)
    return model


if __name__ == '__main__':
    model_path = "./VGG16_0.898.pth"
    model = get_vgg_model(num_classes=10, is_load_weights=True, model_path=model_path)
    input_x = torch.randn((3, 3, 224, 224))
    preds = model(input_x)
    print(preds.shape)

由于原始的VGG模型中没有BN层,所以使用上述代码加载Pytorch官方的预训练权重会出错;
如果要使用官方的预训练模型,需要注释掉BN层,并将第81行的num_classes=10修改为num_classes=1000;
VGG16_0.898.pth模型文件是我用上述网络结构在CIFAR10数据集训练的权重,可以作为练习使用。

3.2 使用CIFAR10数据集训练模型

import torch
from torch.utils.data import Dataset, DataLoader
from torch.utils.tensorboard import SummaryWriter
from torch import optim, nn, cuda
import torchvision
from torchvision import transforms
from model import get_vgg_model
import platform
from tqdm import tqdm
import numpy as np
import requests
import os

sysstr = platform.system()

device = "cuda" if torch.cuda.is_available() else "cpu"
num_workers = 0 if sysstr == "Windows" else 8
transform = transforms.Compose([
    transforms.Resize((224, 224)),
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.491, 0.482, 0.447], std=[0.247, 0.243, 0.262])
])

classes = ("airplane", "automobile", "bird", "cat", "deer", "dog", "frog", "horse", "ship", "truck")
train_dataset = torchvision.datasets.CIFAR10("./data/", train=True, download=True, transform=transform)
val_dataset = torchvision.datasets.CIFAR10("./data/", train=False, download=True, transform=transform)
batch_size = 64
train_dl = DataLoader(train_dataset, batch_size=batch_size, num_workers=num_workers, shuffle=True)
val_dl = DataLoader(val_dataset, batch_size=batch_size, num_workers=num_workers)

logs_dir = "/root/tf-logs/"
writer = SummaryWriter(logs_dir + "vgg")
writer_dict = {}
for i in range(10):
    writer_dict[f"writer_{i}"] = SummaryWriter(logs_dir + classes[i])

vgg_type = "VGG16"
model = get_vgg_model(vgg_type=vgg_type, num_classes=10)
num_epochs = 100
loss_fn = nn.CrossEntropyLoss().to(device)
optimizer = optim.Adam(model.parameters(), lr=1e-4)

# 混合精度计算
scaler = cuda.amp.GradScaler()

torch.backends.cudnn.benchmark = True

best_model_acc = 0
model.to(device)
for epoch in range(num_epochs):
    train_loop = tqdm(train_dl, leave=True, desc=f"Train Epoch: {epoch}/{num_epochs}")
    model.train()
    epoch_loss = 0.0
    for step, (imgs, labels) in enumerate(train_loop):
        imgs = imgs.to(device)
        labels = labels.to(device)

        with cuda.amp.autocast():
            preds = model(imgs)
            loss = loss_fn(preds, labels)

        optimizer.zero_grad()
        scaler.scale(loss).backward()
        scaler.step(optimizer)
        scaler.update()

        epoch_loss += loss.item()
        train_loop.set_postfix(loss=f"{np.round(loss.item(), 3)}")
    epoch_loss /= len(train_loop)

    # 模型的测试
    model.eval()
    acc_num = 0
    # 每个类别的分类正确的个数
    class_correct = list(0. for i in range(10))
    # 类别数
    class_total = list(0. for i in range(10))
    with torch.no_grad():
        val_loop = tqdm(val_dl, leave=True, desc=f"Val: ")
        for step, (imgs, labels) in enumerate(val_loop):
            mini_batch_size = len(imgs)
            imgs = imgs.to(device)
            labels = labels.to(device)
            output = model(imgs)

            _, preds = torch.max(output, 1)
            c = (preds == labels)
            c = c.squeeze()
            for i in range(mini_batch_size):
                label = labels[i]
                # 如果预测正确,则相应类别预测正确的数目加1(true)
                # 如果预测错误,则相应类别预测正确的数目加0(false)
                class_correct[label] += c[i]
                class_total[label] += 1

            # 总的分类准确率
            acc = c.sum().item()
            acc_num += acc

        accuracy = acc_num / len(val_dataset)

        for i in range(10):
            # tqdm.write(
            #     f"Accuracy of {classes[i]:>10} : "
            #     f"{np.round(100 * class_correct[i].item() / class_total[i], 2)}%")
            writer_dict[f"writer_{i}"].add_scalar(f"classes acc", class_correct[i].item() / class_total[i], epoch)

        # 保存模型
        if accuracy > best_model_acc:
            torch.save(model.state_dict(), f"./vgg_{vgg_type}_{np.round(accuracy, 3)}.pth")
            best_model_acc = accuracy
        tqdm.write(f"Val Accuracy: {np.round(accuracy * 100, 2)}%")

        writer.add_scalar("classes acc", accuracy, epoch)
        writer.add_scalar("loss", epoch_loss, epoch)
os.system("shutdown")

3.3 训练结果


  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-17 12:33:42  更:2022-10-17 12:33:51 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/20 0:34:01-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码