IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 《动手学深度学习》13.2 微调之训练CAFIR-10数据集 -> 正文阅读

[人工智能]《动手学深度学习》13.2 微调之训练CAFIR-10数据集

  • 导入功能包
import torch
import torchvision
from torch import nn
import MyFunction as MF
import sys
import datetime
import time
from tqdm import tqdm
  • 获取CAFIR-10数据
# 定义获取CIFAR-10数据集的函数
num_workers = 0 if sys.platform.startswith("win") else 4
def load_cifar10(is_train, augs, batch_size):
    dataset = torchvision.datasets.CIFAR10(root="./data", train=is_train,
                                           transform=augs, download=True)
    dataloader = torch.utils.data.DataLoader(dataset, batch_size=batch_size, shuffle=is_train,
                                            num_workers=num_workers)
    return dataloader
  • 图像增广方法
# 使用三个RGB通道的均值和标准偏差,以标准化每个通道
normalize = torchvision.transforms.Normalize([0.485, 0.456, 0.406],
                                             [0.229, 0.224, 0.225])
# 图像增广方法
# 叠加多个图像增广方法
train_augs = torchvision.transforms.Compose([
    # 随机高宽比剪裁
    torchvision.transforms.RandomResizedCrop(224),
    # 水平(左右)翻转
    torchvision.transforms.RandomHorizontalFlip(),
    # 先由HWC转置为CHW格式;
    # 再转为float类型;
    # 最后,每个像素除以255。
    torchvision.transforms.ToTensor(),
    # 标准化
    normalize])
test_augs = torchvision.transforms.Compose([
    # 对于PIL Image对象进行resize的运算。
    torchvision.transforms.Resize(256),
    # 在图片的中间区域进行裁剪
    torchvision.transforms.CenterCrop(224),
    torchvision.transforms.ToTensor(),
    # 和预训练时作同样的预处理
    normalize])
  • 定义和初始化预训练模型
# 定义和初始化模型
# 指定pretrained=True来自动下载并加载预训练的模型参数。
finetune_net = torchvision.models.resnet18(pretrained=True)
# 将最后的fc成修改我们需要的输出类别数
finetune_net.fc = nn.Linear(finetune_net.fc.in_features, 10)
nn.init.xavier_uniform_(finetune_net.fc.weight);
  • 训练函数
# 训练函数
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
def train_batch_ch13(net, X, y, loss, trainer, device):
    if isinstance(X, list):
        # 微调BERT中所需
        X = [x.to(device) for x in X]
    else:
        X = X.to(device)
    y = y.to(device)
    net.train()
    trainer.zero_grad()
    pred = net(X)
    l = loss(pred, y)
    l.sum().backward()
    trainer.step()
    train_loss_sum = l.sum()
    train_acc_sum = MF.accuracy(pred, y)
    return train_loss_sum, train_acc_sum

def train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs,device=device):
    print("Start Training...")
    nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
    print("==========" * 8 + "%s" % nowtime)
    print(f'training on {device}:{torch.cuda.get_device_name()}')
    net.to(device)
    timer = MF.Timer()
    for epoch in range(num_epochs):
        train_l_sum, train_acc_sum, n = 0.0, 0.0, 0
        start = time.time()
        with tqdm(train_iter) as t:
            for features, labels in t:
                timer.start()
                l, acc = train_batch_ch13(net, features, labels, loss, trainer,
                                          device=device)
                n += labels.shape[0]
                train_l_sum += l
                train_acc_sum += acc
                train_l = train_l_sum / n
                train_acc = train_acc_sum / n
                timer.stop()
                # 设置进度条左边显示的信息
                t.set_description(f"epoch:{epoch+1}/{num_epochs}")
                # 设置进度条右边显示的信息
                t.set_postfix(loss="%.3f" % train_l, train_acc="%.3f" % train_acc, epoch_time="%.3f sec" % (time.time() - start))
            # 保存模型参数
            torch.save(net.state_dict(), "C:/Users/52xj/Desktop/pytorch/data/finetuning88-%d.pth" %(epoch))
            test_acc = MF.evaluate_accuracy_ch13(net, test_iter)

    print(f'epoch:{epoch+1},loss {train_l:.3f}, train_acc {train_acc:.3f}, test_acc {test_acc:.3f}')
    print(f'{n * num_epochs / timer.sum():.1f} examples/sec on {str(device)}')
    nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
    print("==========" * 8 + "%s" % nowtime)
    print('Finished Training...')

  • 训练
# 微调模型
# 如果 `param_group=True`,输出层中的模型参数将使用十倍的学习率
def train_fine_tuning(net, learning_rate, num_epochs=20,param_group=True):
    batch_size = 256
    train_iter = load_cifar10(True, train_augs, batch_size)
    test_iter = load_cifar10(False, test_augs, batch_size)

    # reduction="none" 表示保留每一个样本的loss, 默认reduction="mean"
    loss = nn.CrossEntropyLoss(reduction="none")
    # 对模型的不同部分设置不同的学习参数
    if param_group:
        # 过滤出所有模型参数中不属于全连接层中的参数元素
        params_1x = [param for name, param in net.named_parameters()
                     if name not in ["fc.weight", "fc.bias"]]
        # 对模型的不同部分设置不同的学习参数
        trainer = torch.optim.SGD([{'params': params_1x},
                                   {'params': net.fc.parameters(),'lr': learning_rate * 10}],
                                   lr=learning_rate,
                                   weight_decay=0.001)
    else: # 使用统一的优化器学习参数
        trainer = torch.optim.SGD(net.parameters(), lr=learning_rate,
                                  weight_decay=0.001)
    train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, device=device)
# 使用较小的学习率,通过微调预训练获得的模型参数。
train_fine_tuning(finetune_net, 5e-5)
  • 训练结果
Start Training...
================================================================================2021-08-08 19:49:58
training on cuda:GeForce RTX 2060 SUPER
epoch:1/20: 100%|██████████| 196/196 [02:40<00:00,  1.22it/s, epoch_time=160.859 sec, loss=0.310, train_acc=0.891]
epoch:2/20: 100%|██████████| 196/196 [02:35<00:00,  1.26it/s, epoch_time=155.550 sec, loss=0.314, train_acc=0.890]
epoch:3/20: 100%|██████████| 196/196 [02:36<00:00,  1.25it/s, epoch_time=156.974 sec, loss=0.307, train_acc=0.892]
epoch:4/20: 100%|██████████| 196/196 [02:37<00:00,  1.25it/s, epoch_time=157.125 sec, loss=0.306, train_acc=0.891]
epoch:5/20: 100%|██████████| 196/196 [02:37<00:00,  1.24it/s, epoch_time=157.536 sec, loss=0.307, train_acc=0.893]
epoch:6/20: 100%|██████████| 196/196 [02:37<00:00,  1.24it/s, epoch_time=157.464 sec, loss=0.299, train_acc=0.894]
epoch:7/20: 100%|██████████| 196/196 [02:41<00:00,  1.22it/s, epoch_time=161.027 sec, loss=0.296, train_acc=0.896]
epoch:8/20: 100%|██████████| 196/196 [02:41<00:00,  1.21it/s, epoch_time=161.367 sec, loss=0.290, train_acc=0.898]
epoch:9/20: 100%|██████████| 196/196 [02:40<00:00,  1.22it/s, epoch_time=160.566 sec, loss=0.293, train_acc=0.898]
epoch:10/20: 100%|██████████| 196/196 [02:40<00:00,  1.22it/s, epoch_time=160.857 sec, loss=0.288, train_acc=0.899]
epoch:11/20: 100%|██████████| 196/196 [02:40<00:00,  1.22it/s, epoch_time=160.416 sec, loss=0.291, train_acc=0.898]
epoch:12/20: 100%|██████████| 196/196 [02:38<00:00,  1.24it/s, epoch_time=158.641 sec, loss=0.290, train_acc=0.900]
epoch:13/20: 100%|██████████| 196/196 [02:37<00:00,  1.24it/s, epoch_time=157.849 sec, loss=0.281, train_acc=0.901]
epoch:14/20: 100%|██████████| 196/196 [02:37<00:00,  1.24it/s, epoch_time=157.642 sec, loss=0.287, train_acc=0.900]
epoch:15/20: 100%|██████████| 196/196 [02:37<00:00,  1.25it/s, epoch_time=157.286 sec, loss=0.273, train_acc=0.903]
epoch:16/20: 100%|██████████| 196/196 [02:39<00:00,  1.23it/s, epoch_time=159.261 sec, loss=0.282, train_acc=0.901]
epoch:17/20: 100%|██████████| 196/196 [02:38<00:00,  1.23it/s, epoch_time=158.784 sec, loss=0.281, train_acc=0.902]
epoch:18/20: 100%|██████████| 196/196 [02:37<00:00,  1.24it/s, epoch_time=157.865 sec, loss=0.275, train_acc=0.903]
epoch:19/20: 100%|██████████| 196/196 [02:38<00:00,  1.24it/s, epoch_time=158.309 sec, loss=0.271, train_acc=0.905]
epoch:20/20: 100%|██████████| 196/196 [02:37<00:00,  1.24it/s, epoch_time=157.908 sec, loss=0.271, train_acc=0.905]
epoch:20,loss 0.271, train_acc 0.905, test_acc 0.956
482.4 examples/sec on cuda
================================================================================2021-08-08 20:48:34
Finished Training...
  • 预测
import torch
from torch import nn
import torchvision
from PIL import Image
import torchvision.transforms as transforms

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")


# 定义和初始化模型
# 指定pretrained=True来自动下载并加载预训练的模型参数。
finetune_net = torchvision.models.resnet18(pretrained=True)
# 将最后的fc成修改我们需要的输出类别数
finetune_net.fc = nn.Linear(finetune_net.fc.in_features, 10)
nn.init.xavier_uniform_(finetune_net.fc.weight);


def predict_(img):
    data_transform = transforms.Compose([transforms.Resize(32),
                                         transforms.ToTensor()])
    img = data_transform(img)
    img = torch.unsqueeze(img, dim=0)
    model = finetune_net
    model.load_state_dict(torch.load("./data/finetuning88-19.pth"))
    model.eval()
    classes = {'0': '飞机', '1': '汽车', '2': '鸟', '3': '猫', '4': '鹿', '5': '狗', '6': '青蛙', '7': '马', '8': '船', '9': '卡车'}
    with torch.no_grad():
        output = model(img)
        print("output",output)
        pred = output.argmax(axis=1)
        print(pred)
    return classes[str(pred.item())]
img = Image.open("./img/test3.jpg")
net = predict_(img)
print(net)

由于电脑显卡比较low,只训练了20个周期,发现对猫和鸟的识别效果比较好。

  • 测试图片1
    Alt
  • 输出结果
    Alt
  • 测试图片2
    Alt
  • 输出结果
    Alt
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-09 10:14:30  更:2021-08-09 10:16:54 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/16 4:34:12-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码