IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 「深度学习一遍过」必修10:pytorch 框架的使用 -> 正文阅读

[人工智能]「深度学习一遍过」必修10:pytorch 框架的使用

本专栏用于记录关于深度学习的笔记,不光方便自己复习与查阅,同时也希望能给您解决一些关于深度学习的相关问题,并提供一些微不足道的人工神经网络模型设计思路。
专栏地址:「深度学习一遍过」必修篇

目录

1?Tensor生成

2?Tensor基本操作

形状查看

形状更改

增加维度

压缩维度

3?Tensor其他操作

4?Pytorch网络定义与优化

4.1 基础网络定义接口

4.2 网络结构定义与前向传播

4.3?优化器定义

4.4 前向计算与反向传播

?????????4.5 Tensor 的自动微分 autograd

5 pytorch数据与模型接口

5.1 数据接口

5.2 计算机视觉数据集与模型读取

5.3 数据增强接口

5.4 模型保存


1?Tensor生成

Tensor?类似于 NumPy?的 ndarray?,可以使用 GPU?进行计算。

import torch

构造一个默认 Float?型的 5\times 3?张量

torch.Tensor(5, 3)

构造一个?5\times 3?矩阵,不初始?

torch.empty(5, 3)

?构造一个随机初始化的矩阵

torch.rand(5, 3)

构造一个矩阵全为 0,而且数据类型是?long

torch.zeros(5, 3, dtype=torch.long)

torch.long

基于已经存在的?tensor?创建一个?tensor

x = torch.zeros(5, 3, dtype=torch.long)
x.new_ones(5, 3, dtype=torch.double)

构造一个张量,为?[5.5\: \: 3],从数据中推断数据类型

torch.tensor([5.5, 3])

2?Tensor基本操作

在张量做加减乘除等运算时,需要保证张量的形状一致,往往需要对某些张量进行更改

import torch

构造一个默认?Float?型的 5\times 3?张量?

x = torch.Tensor(5, 3)
x

形状查看

x.size()

x.shape

x.dim()   # dim维度

形状更改

展为?3\times 5?矩阵,共享内存

x.view(3,5)

展为 1?维向量

x.view(-1)

?增加维度

torch.unsqueeze(x,1)

压缩维度

torch.squeeze(x,1)

3?Tensor其他操作

拼接与拆分,基本数学操作:对多个分支的张量加以融合或拆分

torch.cat()   #拼接 
torch.stack() #堆叠 
torch.chunk() #分块 
torch.split() #切分
z = x + y     # torch加法
z = torch.add(x, y)     # torch加法 
y.add_(x)     # 下划线版本,in-place加法,原地运算,结果存在y中

4?Pytorch网络定义与优化

4.1 基础网络定义接口

通过 torch.nn 包来构建网络, 包含?nn.modulenn.functional

  • nn.functional:纯函数,不包含可学习参数,如激活函数,池化层
  • nn.modulenn?的核心数据结构,可以是一个?layer?或者一个网络,其中?layer?自动提取可学习参数,适用于卷积层,全连接层等

4.2 网络结构定义与前向传播

通过 torch.nn?包来构建网络

import torch 
import torch.nn as nn 
import torch.nn.functional as F 

class Net(nn.Module): 
    def __init__(self): 
        super(Net, self).__init__() #继承Net类,并进行初始化 
        self.conv1 = nn.Conv2d(1, 6, 5) #继承nn.Module的需要实例化 
        self.conv2 = nn.Conv2d(6, 16, 5) 
        self.fc1 = nn.Linear(16 * 5 * 5, 120) 
        self.fc2 = nn.Linear(120, 84) 
        self.fc3 = nn.Linear(84, 10) 
        
    def forward(self, x): #前向传播函数 
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2)) #relu,max_pool2d,不需要实例化 
        x = F.max_pool2d(F.relu(self.conv2(x)), 2) 
        x = x.view(-1, self.num_flat_features(x)) 
        x = F.relu(self.fc1(x)) 
        x = F.relu(self.fc2(x)) 
        x = self.fc3(x) 
        return x
  1. nn.module?需要实例化,可以与 nn.Sequential?配合使用,nn.functional?不行,nn.functional?不需要实例化。
  2. nn.module不需要传入?weightbiasnn.functional不行。
  3. Dropout?层状态自动切换,nn.module可以实现, nn.functional不行。
import torch.nn as nn

# 创建一个Model类, 这个模型的功能就是给输入的数加上1
class Model(nn.Module):
    def __init__(self):
        super().__init__()

    def forward(self, input):
        output = input + 1
        print(output)

model = Model()         # 实例化
input = torch.tensor(1) # 输入为1
model(input)            # 输出为0

view()?和 flatten?都是和输入共享内存的,flatten?的好处是不用输入形状参数,直接指定维度,在这之后的都被拉平。view()则是更加灵活.

4.3?优化器定义

通过 torch.optim?包来构建(优化目标与方法定义)

import torch.optim as 

optim criterion = nn.CrossEntropyLoss() #交叉熵损失 
optimizer_ft = optim.SGD(modelclc.parameters(), lr=0.1, momentum=0.9) #SGD优化方法 
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_ft, step_size=100, gamma=0.1) #学习率

4.4 前向计算与反向传播(三个步骤)

前向计算

out = net(img) #自动执行forward函数 
loss = criterion(out,label) #计算损失

反向传播

optimizer.zero_grad() #清空梯度 
loss.backward()   #反向传播 
optimizer.step() #更新参数

4.5 Tensor 的自动微分 autograd

Tensor?和 Function?互相连接并构建一个非循环图,它保存完整计算过程。

完成自动求导的步骤:

  1. torch.Tensor?的属性 requires_grad?设置为?True,开始跟踪针对?Tensor?的所有操作。
  2. 完成计算后调用 backward() 自动计算所有梯度。
  3. 将该张量的梯度将累积到 grad?属性中。

z=wx+bwxb?是输入叶子结点,w?和 b?需要进行参数更新。

import torch 
import numpy as np 

x=torch.Tensor([2]) #定义输入张量x 
#初始化权重参数W,偏移量b、并设置require_grad为True, 为自动求导 
w=torch.randn(1,requires_grad=True) 
b=torch.randn(1,requires_grad=True) 
y=torch.mul(w,x) 
z=torch.add(y,b) #等价于y+b 
z.backward() #标量进行反向传播,向量则需要构建梯度矩阵 

print("x,w,b,y,z的require_grad属性分别为:{},{},{},{},{}".format(x.requires_grad, w.requires_grad,b.requires_grad,y.requires_grad,z.requires_grad)) 

如何取消求导?

  1. 调用 detach()?修改 requires_{_}grad?为 False,它将其与计算历史记录分离
  2. 调用?with\: \: torch.no_grad()?停止 autograd?模块的工作
# 推理案例 
torch.no_grad() #停止autograd模块的工作,加速和节省显存 
image = Image.open(imagepath) 
imgblob = data_transforms(img).unsqueeze(0) #填充数据维度 
imgblob = Variable(imgblob) 
predict = F.softmax(net(imgblob)) 
index = np.argmax(predict.detach().numpy())

5 pytorch数据与模型接口

5.1 数据接口

通过 torch.utils.data?包来构建数据集

读取数据的 3?个必须实现的函数:

  1. __init__:相关参数定义
  2. __len __:获取数据集样本总数
  3. ?__???????getitem __:读取每个样本及标签
class TestDataset(torch.utils.data.Dataset):
    #继承Dataset 
    def __init__(self): 
        self.Data=np.asarray([[1,2],[3,4],[2,1],[3,4],[4,5]])#数据 
        self.Label=np.asarray([0,1,0,1,2])#标签 
        
    def __getitem__(self, index): 
        data=torch.from_numpy(self.Data[index]) #把numpy转换为Tensor 
        label=torch.tensor(self.Label[index]) 
        return data,label 
    
    def __len__(self): 
        return len(self.Data)
# 使用index取数据 
Test=TestDataset() 
print(Test[2]) #结果是(tensor([2, 1]), tensor(0)) 
print(Test.__len__()) #结果是5

使用 DataLoader?迭代器提取数据(实现批量读取,打乱数据等)

# 获得数据指针 
test_loader = data.DataLoader(Test, batch_size=2,shuffle=False, num_workers=2)  
  • batch_size:batch大小
  • shuffle=False:是否打乱
  • num_workers=2:加载数据线程数

num\: \; workers?参数:

  • 当加载?batch?的时间 < 数据训练的时间,GPU?每次训练完都可以直接从 CPU?中取到next?batch?的数据 无需额外的等待,不需要多余的 worker,即使增加?worker?也不会影响训练速度
  • 当加载?batch?的时间 > 数据训练的时间,GPU?每次训练完都需要等待?CPU?完成数据的载入,若增加?worker, 即使 1?个?worker?还未就绪,GPU?也可以取其他?worker?的数据来训练

5.2 计算机视觉数据集与模型读取

通过 torchvision?包来读取已有的数据集和模型

torchvision.datasetsMNIST?等,ImageFolder?)

# 数据集读取
import torchvision.dataset as dataset 
data_dir = './data/'
data = datasets.ImageFolder('./data',data_transform) 
dataloader = data.DataLoader(data)

5.3 数据增强接口

每一次训练时,需要输入同样大小的图片进行训练,一般使用裁剪?+?缩放操作。

torchvision 数据增强接口

通过 torchvision?包的 transforms?进行数据预处理和增强:包括缩放,裁剪等数据增强函数,标准化等预处理函数

data_transforms = {
    'train': transforms.Compose([ 
        transforms.Scale(64),         # 缩放的图像大小:64*64
        transforms.RandomSizedCrop(48),      # 实际用于训练的图像大小:48*48,采用随机裁剪与缩放操作(此时Scale为冗余操作)
        transforms.RandomHorizontalFlip(), 
        transforms.ToTensor(), 
        transforms.Normalize([0.5,0.5,0.5], [0.5,0.5,0.5]) ]), 
    'val': transforms.Compose([ 
        transforms.Scale(64), 
        transforms.CenterCrop(48),       # 实际用于测试的图像大小:48*48,采用中心裁剪操作
        transforms.ToTensor(), 
        transforms.Normalize([0.5,0.5,0.5], [0.5,0.5,0.5]) ]), }

常见的数据预处理与增强相关的操作

CenterCrop,ColorJitter,FiveCrop,Grayscale,Pad,RandomAffine,RandomApply, RandomCrop,RandomGrayscale, RandomHorizontalFlip,RandomPerspective,RandomResizedCrop,RandomRotation, RandomSizedCrop, RandomVerticalFlip, Resize,Scale,TenCrop,GaussianBlur,RandomChoice,RandomOrder, LinearTransformation,Normalize,RandomErasing,ConvertImageDtype, ToPILImage,ToTensor,Lambda

通过 torchvision?包的 functional?接口,自定义数据增强函数

import torchvision.transforms.functional as TF 
import random 

def my_segmentation_transforms(image, segmentation): 
    if random.random() > 0.5: 
        angle = random.randint(-30, 30) 
        image = TF.rotate(image, angle) 
        segmentation = TF.rotate(segmentation, angle) 
        # more transforms ... 
        return image, segmentation

torchvision 模型接口

通过?torchvision?包来读取已有的模型,torchvision.modelsAlexNet等)

# 模型读取、导出
import torchvision.models as models 
model = models.alexnet(pretrained=True).cuda() 
torch.save(model.state_dict(),'models/model.ckpt') 
dummy_input = torch.randn(10, 3, 224, 224).cuda() 
torch.onnx.export(model, dummy_input, "alexnet.proto", verbose=True)

5.4 模型保存

保存或加载整个模型

#保存 
torch.save(model, '\model.pkl’) 

#加载 
model = torch.load('\model.pkl’)

保存或加载模型参数

# 保存 
torch.save(model.state_dict(), '\parameter.pkl') 

# 加载 
model = TheModelClass(...) 
model.load_state_dict(torch.load('\parameter.pkl’))

state_dict?是一个 Python?字典对象,将每个图层映射到其参数 tensor

只有具有可学习参数的层(卷积层,线性层等)和已注册的缓冲区(batchnorm?的?running_mean)才存在。

欢迎大家交流评论,一起学习

希望本文能帮助您解决您在这方面遇到的问题

感谢阅读
END

?

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-03 11:10:51  更:2021-08-03 11:11:24 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/4 14:38:13-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码