IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 神经网络 -> 正文阅读

[人工智能]神经网络

神经网络

可以使用 torch.nn 包来构建神经网络。
前面已经介绍了 autograd,nn 包则依赖于 autograd 包来定义模型并对它们求导。一个 nn.Module 包含了各个层和一个 forward(input) 方法,该方法返回 output。

例如,下面这个神经网络可以对数字进行分类:

在这里插入图片描述

这是一个简单的前馈神经网络(feed-forward network),它接受一个输入,然后将它送入下一层,一层接一层的传递,最后给出输出。

一个神经网络的典型训练过程如下:

  • 定义包含一些可学习参数(或者叫权重)的神经网络
  • 在输入数据集上迭代
  • 通过网络处理输入
  • 计算损失(输出和正确答案的距离)
  • 将梯度反向传播给网络的参数
  • 更新网络的权重,一般使用一个简单的规则:weight = weight - learning_rate * gradient

定义网络

定义这样一个网络:

import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(1, 6, (5, 5))  # 定义第一个卷积层,输入图像 channel 为 1,输出 channel 为 6,卷积核大小为 5*5
        self.conv2 = nn.Conv2d(6, 16, (5, 5))  # 定义第二个卷积层,输入 channel 为 6,输出 channel 为 16,卷积核大小为 5*5
        self.fc1 = nn.Linear(16 * 5 * 5, 120)  # 定义第一个全连接层,输入为 400,输出为 120
        self.fc2 = nn.Linear(120, 84)  # 定义第二个全连接层,输入为 120,输出为 84
        self.fc3 = nn.Linear(84, 10)  # 定义第三个全连接层,输入为 84,输出为 10

    def forward(self, x):
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))  # 输入 x,先经过第一个卷积层,然后经过 ReLU 激活函数,再经过最大池化,池化核大小为 2*2
        x = F.max_pool2d(F.relu(self.conv2(x)), 2)  # 如果核的大小为方阵,可以只用一个数字进行定义
        x = x.view(-1, self.num_flat_features(x))  # 将数据 x 重塑成需要的形状维度;第一维是批处理维度
        x = F.relu(self.fc1(x))  # 经过第一个全连接层,再经过 ReLU 激活函数
        x = F.relu(self.fc2(x))  # 经过第二个全连接层,再经过 ReLU 激活函数
        x = self.fc3(x)  # 经过第三个全连接层
        return x

    def num_flat_features(self, x):
        size = x.size()[1:]  # 除了批处理维度的其他所有维度
        num_features = 1
        for s in size:
            num_features *= s
        return num_features

net = Net()
print(net)
---------
Net(
  (conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
  (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
  (fc1): Linear(in_features=400, out_features=120, bias=True)
  (fc2): Linear(in_features=120, out_features=84, bias=True)
  (fc3): Linear(in_features=84, out_features=10, bias=True)
)

我们只需要定义 forward() 函数,backward() 函数会在使用 autograd 时自动定义,backward() 函数用来计算导数。可以在 forward() 函数中使用任何针对张量的操作和计算。

一个模型的可学习参数可以通过 parameters() 方法返回。

net = Net()
print(net.parameters())  # 生成器对象
# print(list(net.parameters()))  # 用列表形式返回具体的可学习参数数值
params = list(net.parameters())
print(len(params))  # 总共包含多少种可学习参数
print(params[0].size())  # 第一个卷积层的输入、输出、卷积核:[1, 6, 5, 5];第一个卷积层参数的 size:[6, 1, 5, 5];6 个 5*5 大小的卷积核,每个卷积核对 1 个通道进行卷积
print(params[1].size())  # 6
print(params[2].size())  # 第二个卷积层的输入、输出、卷积核:[6, 16, 5, 5];第二个卷积层参数的 size:[16, 6, 5, 5];16 个 5*5 大小的卷积核,每个卷积核对 6 个通道进行卷积
print(params[3].size())  # 16
print(params[4].size())  # 第一个全连接层的输入、输出:[400, 120];第一个全连接层参数的 size:[120, 400];120 个神经元,每个神经元与前面的 400 个神经元连接
print(params[5].size())  # 120
print(params[6].size())  # 第二个全连接层的输入、输出:[120, 84];第二个全连接层参数的 size:[84, 120];84 个神经元,每个神经元与前面的 120 个神经元连接
print(params[7].size())  # 84
print(params[8].size())  # 第三个全连接层的输入、输出:[84, 10];第三个全连接层参数的 size:[10, 84];10 个神经元,每个神经元与前面的 84 个神经元连接
print(params[9].size())  # 10
---------
<generator object Module.parameters at 0x0000023FB6C3FAC0>
10
torch.Size([6, 1, 5, 5])
torch.Size([6])
torch.Size([16, 6, 5, 5])
torch.Size([16])
torch.Size([120, 400])
torch.Size([120])
torch.Size([84, 120])
torch.Size([84])
torch.Size([10, 84])
torch.Size([10])

我们尝试一个随机的 32*32 的输入。
注意:这个网络(Net)的期待输入是 32*32,如果使用 MNIST 数据集来训练这个网络,就要把图片大小重新调整为 32*32。

net = Net()
input = torch.randn(1, 1, 32, 32)
out = net(input)  # 实参 input 传给 forward(self, x) 函数中的形参 x
print(input)
print(out)  # forward() 函数返回的结果
---------
tensor([[[[-2.0935e-01, -4.8346e-01,  5.7126e-01,  ...,  6.5599e-01,
           -5.4405e-01, -7.0407e-01],
          [ 2.6363e+00,  5.8908e-01,  1.6754e-03,  ...,  1.5790e+00,
           -5.2369e-01,  1.0194e+00],
          [-1.1680e+00, -3.1898e-01,  9.2407e-02,  ...,  1.3243e-01,
            1.7143e-01, -1.2635e+00],
          ...,
          [-5.8946e-01,  2.5062e-01,  9.4433e-01,  ..., -4.5857e-01,
           -7.0780e-02,  1.7527e-01],
          [ 5.1474e-01,  1.4821e+00,  1.2028e-01,  ..., -1.7058e-01,
            7.1429e-03, -3.3488e-01],
          [ 3.4315e-01,  1.1843e+00, -8.3370e-01,  ..., -6.0783e-01,
           -1.1337e+00, -1.2487e+00]]]])
tensor([[ 0.0056, -0.0029,  0.0504, -0.0139,  0.0537,  0.0753,  0.1373, -0.0854,  0.0370, -0.0780]], grad_fn=<AddmmBackward0>)

将所有参数的梯度缓存清零,然后进行随机梯度的反向传播。

net.zero_grad()  # 梯度清零
out.backward(torch.randn(1, 10))  # 反向传播

注意:torch.nn 只支持小批量处理(mini-batches),整个 torch.nn 包只支持小批量样本的输入,不支持单个样本。
比如,nn.Conv2d 接受一个 4 维的张量,即 BatchSize * Channels * Height * Width。如果是一个单独的样本,就需要使用 input.unsqueeze(0) 来添加一个“假的”批大小维度。

损失函数

一个损失函数接受一对数据(output, target)作为输入,计算一个值来估计网络的输出和目标值相差多少。

nn 包中有很多不同的损失函数,如 nn.MSELoss 就是其中比较简单的一种,它计算输出和目标的均方误差(mean-squared error)。

net = Net()
input = torch.randn(1, 1, 32, 32)
output = net(input)  # input 经过网络得到 output
target = torch.randn(10)  # 本例中使用模拟数据作为目标值
target = target.view(1, -1)  # 使目标值与输出值形状一致
criterion = nn.MSELoss()  # 定义损失函数;nn.MSELoss 是 nn 中的一个类,该类的 forward() 函数中定义了 input 和 target 参数
loss = criterion(output, target)  # 计算损失
print(loss)
---------
tensor(1.0086, grad_fn=<MseLossBackward0>)

如果使用 loss 的 grad_fn 属性跟踪反向传播过程,会看到计算图如下:

input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
      -> view -> linear -> relu -> linear -> relu -> linear
      -> MSELoss
      -> loss

当我们调用 loss.backward(),整张图开始关于 loss 微分,图中所有设置了 requires_grad=True 的张量的 grad 属性累积着梯度张量。
为了说明这一点,我们向后跟踪几步:

print(loss.grad_fn)  # MSELoss
print(loss.grad_fn.next_functions[0][0])  # Linear
print(loss.grad_fn.next_functions[0][0].next_functions[0][0])  # ReLU
---------
<MseLossBackward0 object at 0x0000023A9946D6D0>
<AddmmBackward0 object at 0x0000023A9946D640>
<AccumulateGrad object at 0x0000023A9946D640>

反向传播

我们只需要调用 loss.backward() 来进行反向传播,在这之前我们需要将现有的梯度清零,否则反向传播的梯度将会与已有的梯度累加。

我们调用 loss.backward(),并查看 conv1 层的偏置(bias)在反向传播前后的梯度。

net = Net()
input = torch.randn(1, 1, 32, 32)
output = net(input)  
target = torch.randn(10)  
target = target.view(1, -1)  
criterion = nn.MSELoss()  
loss = criterion(output, target)  
net.zero_grad()  # 将所有参数的梯度缓存清零
print(net.conv1.bias.grad)  # before backward
loss.backward()
print(net.conv1.bias.grad)  # after backward
---------
None
tensor([ 0.0262,  0.0150,  0.0157,  0.0111, -0.0205, -0.0289])

更新权重

最简单的更新规则是随机梯度下降法(SGD):
weight = weight - learning_rate * gradient

可以使用简单的 python 代码来实现:

learning_rate = 0.01
for f in net.parameters():
    f.data.sub_(f.grad.data * learning_rate)

然而,在使用神经网络时,可能希望使用各种不同的更新规则,如 SGD、Adam 等。为此,构建了一个较小的包 torch.optim,它实现了所有的更新方法。

import torch.optim as optim

# 创建优化器(optimizer)
optimizer = optim.SGD(net.parameters(), lr=0.01)

# 在训练的迭代中
optimizer.zero_grad()  # 对梯度缓存清零
output = net(input)
loss = criterion(output, target)  # 计算损失
loss.backward()  # 反向传播
optimizer.step()  # 更新参数
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-22 21:15:35  更:2022-10-22 21:18:04 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/19 22:29:32-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码