IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 神经网络实现手写数字识别(代码-训练-效果)- PyTorch框架 -> 正文阅读

[人工智能]神经网络实现手写数字识别(代码-训练-效果)- PyTorch框架

目录

一、简介

二、原理及代码

1、数据准备

2、构造神经网络

3、Python代码实现(训练-效果)

参考


一、简介

? ? ? ? PyTorch是一个开源Python机器学习库,基于Torch,用于自然语言处理等应用程序。2017年1月,Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。它是一个基于Python的可续计算包,提供两个高级功能:1、具有强大的GPU加速的张量计算(如NumPy)。2、包含自动求导系统的深度神经网络[1]。

二、原理及代码

1、数据准备

????????我们用美国国家标准与技术研究所的数据集-MNIST。这个数据集有两部分:训练集和测试集,顾名思义训练集是用来训练神经网络的,测试集是用来测试神经网络训练后的效果。训练集由250个人手写的数字构成,其中50%是高中学生,50%是人口普查的工作人员。测试数据集也是同样比例的手写数字。这些图片都是28X28灰度像素的。如:

图片

下载

import torchvision.datasets as dsets

#MNIST dataset
train_dataset = dsets.MNIST(root='/ml/pymnist',  #选择数据的根目录
                            train=True,#选择训练集
                            transform=None,#不考虑使用数据预处理
                            download=True #是否从网络上下载图片
)

test_dataset = dsets.MNIST(root='/ml/pymnist',#选择数据的根目录
                           train=False,#选择测试集
                           transform=None,#不考虑使用任何数据预处理
                           download=True #是否从网络上下载图片
)

查看数据???????

x_train=train_dataset.train_data.numpy().reshape(-1,28*28)  #将6万张28X28的图片,转换为一维数组
#print(x_train.shape)  #输出;(60000, 784)  

imgIndex = 22

#取其中的一个图片
x1 = x_train[imgIndex].reshape(28,28)  #将一维数组转换为二阶矩阵 28X28,还原图片矩阵
#print(x1)  #输出28X28二维矩阵


y_train = train_dataset.train_labels.numpy()  #转换为numpy数据
#print(y_train.shape) #输出torch.Size([60000]) ,有60000张图片的标签,正好与上面图片数量对应

y1 = y_train[imgIndex]
#print(y1)  #输出:5

#图片显示
import matplotlib.pyplot as plt
plt.imshow(x1,cmap=plt.cm.binary)  #显示图片设置
plt.title("number:" + str(y1))
plt.show()

图片

2、构造神经网络

????????从上述的数据集我们知道一个图片有28X28 = 784个像素,因此,输入层有784个神经元。隐藏层的神经元可以自定义,这里就设置50个。输出层的神经元个数和数据集元素的类别有关,因为数据集中的数字只有0~9,即只有10种类别,因此,我们将输出层的神经元个数设置为10个。激活函数选择现在比较流行的ReLU函数:

图片

图片

图?ReLU函数图

????????ReLU函数的特点是:在程序中计算快(因为不需要计算指数);在输入为正数的时候不存在梯度饱和问题。?

图片

图?神经元连接

图片

图?神经网络层

????????Affine表示将输入进行加权求和,然后传给激活函数ReLU,也可以认为是隐藏层的子层。

在输出层中加入了Softmaxwithloss层处理误差。由于Softmaxwithloss层之前没提到,现在介绍一下。

先选择损失函数:

图片

y:输出神经元的真实值

p:输出神经元的预测值

C:输出神经元的个数

其中y是经过编码变为one-hot code,即y中的元素只能有一个是1,其他为0,?这样输出神经元每输出一次,我们就可以告诉它那个输出神经元输出的是正确值。? ?详细可参考

独热码 - 搜狗百科独热码,在英文文献中称做 one-hot code, 直观来说就是有多少个状态就有多少比特,而且只有一个比特为1,其他全为0的一种码制。通常,在通信网络协议栈中,使用八位或者十六位状态的独热码,且系统占用其中一个状态码,余下的可以供用户使用。例如,有6个状态的独热码状态编码为:000001,000010,000100,001000,010000,100000。再如,有十六个状态的独热码状态编码应icon-default.png?t=LA92https://baike.sogou.com/v68067077.htm?fromTitle=%E7%8B%AC%E7%83%AD%E7%A0%8现假设ReLU2输出数据为z,经过softmax函数输出预测值pi:

图片

将预测值代入损失函数L即可求出误差。

3、Python代码实现(训练-效果)

from collections import OrderedDict

import numpy as np

import torch
from torch.utils.data import DataLoader
import torchvision.datasets as dsets
import torchvision.transforms as transforms

import numpy as np

batch_size = 100
#MNIST dataset
train_dataset = dsets.MNIST(root='/ml/pymnist',  #选择数据的根目录
                            train=True,#选择训练集
                            transform=None,#不考虑使用数据预处理
                            download=False #是否从网络上下载图片,第一次要选True
)

test_dataset = dsets.MNIST(root='/ml/pymnist',#选择数据的根目录
                           train=False,#选择测试集
                           transform=None,#不考虑使用任何数据预处理
                           download=False#是否从网络上下载图片,第一次要选True
)

x_train=train_dataset.train_data.numpy().reshape(-1,28*28)
y_train_tmp=train_dataset.train_labels.reshape(train_dataset.train_labels.shape[0],1)
y_train=torch.zeros(y_train_tmp.shape[0],10).scatter_(1,y_train_tmp,1).numpy()
#print(y_train)

x_test = test_dataset.test_data.numpy().reshape(-1,28*28)
y_test_tmp = test_dataset.test_labels.reshape(test_dataset.test_labels.shape[0],1)
y_test = torch.zeros(y_test_tmp.shape[0],10).scatter_(1,y_test_tmp,1).numpy()

class Relu:
    def __init__(self):
        self.x=None
        return
    def forward(self,x):
        self.x=np.maximum(0,x)
        out=self.x
        return out
    def backward(self,dout):
        dx=dout
        dx[self.x<=0]=0
        #print("dout:",dx)
        return dx


class Affine:
    def __init__(self,W,b):
        self.W=W
        self.b=b
        self.x=None
        self.dW=None
        self.db=None
        return
    def forward(self,x):
        self.x=x
        out=np.dot(x,self.W)+self.b
        return out
    def backward(self,dout):
        dx=np.dot(dout,self.W.T)
        self.dW=np.dot(self.x.T,dout)
        self.db=np.sum(dout,axis=0)
        #print("db:",self.db)
        return dx

class SoftmaxWithLoss:
    def __init__(self):
        self.loss=None #损失
        self.p=None #softmax输出
        self.y=None #监督数据代表真值,one-hot vector
        return
    def softmax(self,x):
        if x.ndim==2:  #ndim返回的是数组的维度,返回的只有一个数,该数即表示数组的维度。
            c=np.max(x,axis=1)
            x=x.T-c #溢出决策
            y=np.exp(x)/np.sum(np.exp(x),axis=0)
            return y.T
        c=np.max(x)
        exp_x = np.exp(x-c)
        return exp_x/np.sum(exp_x)
    def cross_entropy_error(self,p,y):
        delta=1e-7
        batch_size=p.shape[0]
        return -np.sum(y*np.log(p+delta))/batch_size

    def forward(self,x,y):
        self.y=y
#         print("self.y",self.y)
        self.p=self.softmax(x)
        self.loss=self.cross_entropy_error(self.p,self.y)
        #print(self.loss)
        return self.loss
    def backward(self,dout=1):
        batch_size=self.y.shape[0]
        dx=(self.p-self.y)/batch_size  #设置预测了一小批数据获取的误差
#         print(dx.shape) #(100, 10)
        return dx

class TwoLayerNet:

    def __init__(self,input_size,hidden_size,output_size,weight_init_std=0.01):
        #初始化权重
        self.params={}
        self.params['W1']=weight_init_std*np.random.randn(input_size,hidden_size)   #隐藏层的权重
#         print(self.params['W1'])

        self.params['b1']=np.zeros(hidden_size)  #隐藏层的偏置值
        self.params['W2']=weight_init_std*np.random.randn(hidden_size,output_size) #输出层的权重
        self.params['b2']=np.zeros(output_size)  #输出层的偏置值

        #生成神经网络层
        self.layers=OrderedDict() #有序字典;基本的dict无法保证顺序,keys映射为哈希值,而此值不是按照顺序存储在散列表中的。所以遇到要确保字典keys有序场景,就要使用OrderedDict.
        self.layers['Affine1']=Affine(self.params['W1'],self.params['b1'])  #生成隐藏层的神经元
        self.layers['Relu1']=Relu()  #生成隐藏层的激活函数 
        self.layers['Affine2']=Affine(self.params['W2'],self.params['b2'])  #生成输出层的神经元
        self.layers['Relu2']=Relu()  #生成输出层的激活函数 
        self.lastLayer = SoftmaxWithLoss()   

        return

    def predict(self,x):
        for layer in self.layers.values(): #每层都前向传播
            x=layer.forward(x)
        return x

    #x:输入数据,y:监督数据
    def loss(self,x,y):
        p=self.predict(x)  #预测了一次
        return self.lastLayer.forward(p,y)  #最后一层做了一次前向传播
    
    def accuracy(self,x,y):
        #预测一下
        p=self.predict(x) 
        #print("p:",p.shape)  #p: (10000, 10)
        p=np.argmax(p,axis=1) #argmax返回某一列的最大值的下标
        #print("p:",p.shape)  #p: (10000,)
        y=np.argmax(y,axis=1)

        accuracy=np.sum(p==y)/float(x.shape[0])  #预测所有数据,看看能有多少个正确
        return accuracy

    """
????实现梯度,但是没有修改权值
    """
    def gradient(self,x,y):
        #forward
        self.loss(x,y)  

        #backward
        dout=1
        dout=self.lastLayer.backward(dout) #(100, 10) #一批数据的误差
#         print("dout:",dout)  #各个输出神经元的误差

        layers=list(self.layers.values())
        #print("layers:",layers)
        layers.reverse()  #反转
        for layer in layers:
            dout=layer.backward(dout)  #此处实现逐层向前传播,ReLU2 -》 Affine2 -》ReLU1 -》Affine1
#             print("dout:",dout)

        #设定
        grads={}
        grads['W1'],grads['b1']=self.layers['Affine1'].dW,self.layers['Affine1'].db
        grads['W2'],grads['b2']=self.layers['Affine2'].dW,self.layers['Affine2'].db
        
        return grads

train_size = x_train.shape[0] 
iters_num = 600
learning_rate = 0.001
epoch = 5
batch_size = 100

network = TwoLayerNet(input_size = 784,hidden_size = 50,output_size = 10)

#训练,分批训练:即将总数分为epoch批,训练完一批后再进行下一批训练
    #注意训练不会永久保存权值
for i in range(epoch): #分批训练
    print("current epoch is:", i)
    for num in range(iters_num):
        batch_mask = np.random.choice(train_size,batch_size)  #>>> np.random.choice(5, 3)   输出array([0, 3, 4]) # random
                                                                #在train_size范围内随机选batch_size个数,形成一维数组
        #print(batch_mask)
        x_batch = x_train[batch_mask]  #在总数据中选一小批
        #print(x_batch.shape)
        y_batch = y_train[batch_mask]

##########################梯度下降法####################################
        grad = network.gradient(x_batch,y_batch)
       #print("grad",grad)

        for key in ('W1','b1','W2','b2'):
            network.params[key] -= learning_rate*grad[key]  #实现梯度下降学习
############################################################################
        loss = network.loss(x_batch,y_batch)  # 计算损失值
        if num % 100 ==0:
            print("loss: ",loss)
#print(x_test.shape,y_test.shape)
print('准确率:',network.accuracy(x_test,y_test)*100,'%')  #将10000张图片让其识别,看看正确率



"""
我们随机选一张图片让其识别
"""
x_train=train_dataset.train_data.numpy().reshape(-1,28*28)  #将6万张28X28的图片,转换为一维数组
#print(x_train.shape)  #输出;(60000, 784)  

import random
imgIndex = random.randint(0,x_train.shape[0]) #在60000张图片中任选一张

#取其中的一个图片
x1 = x_train[imgIndex].reshape(28,28)  #将一维数组转换为二阶矩阵 28X28,还原图片矩阵
#print(x1)  #输出28X28二维矩阵

p = network.predict(x1.reshape(-1,28*28))
p = np.argmax(p,axis=1)
# print("预测:",p)

y_train = train_dataset.train_labels.numpy()  #转换为numpy数据
#print(y_train.shape) #输出torch.Size([60000]) ,有60000张图片的标签,正好与上面图片数量对应

y1 = y_train[imgIndex]
#print(y1)  #输出:5

#图片显示
import matplotlib.pyplot as plt
plt.imshow(x1,cmap=plt.cm.binary)  #显示图片设置
plt.title("predicted number:" + str(y1))
plt.show()

训练过程损失函数输出

current epoch is:0
loss:  2.266151231985748
loss:  0.3724026421914155
loss:  0.19832547560691383
loss:  0.22490945327141837
loss:  0.1661208009051106
loss:  0.258948805644127
current epoch is:1
loss:  0.13390206665995094
loss:  0.1320481015568629
loss:  0.07788363928512003
loss:  0.19471398981094826
loss:  0.06045146962828367
loss:  0.22834023219954858
current epoch is:2
loss:  0.08998278435494232
loss:  0.13953232891168038
loss:  0.05586382405036148
loss:  0.058314648911912174
loss:  0.09738683049424073
loss:  0.05205461861693841
current epoch is:3
loss:  0.045705761642539054
loss:  0.12238526156163801
loss:  0.07323083292990847
loss:  0.0800588072480463
loss:  0.06406958008082181
loss:  0.09598045459144477
current epoch is:4
loss:  0.08828214574587279
loss:  0.15144249360478873
loss:  0.08583687343851693
loss:  0.09221907715731381
loss:  0.03905677555959257
loss:  0.0632881118798391
准确率:96.23 %

图片

????????最后预测正确。

参考

【1】PyTorch_百度百科

【2】《深度学习与图像识别原理与实践》?魏溪含等著

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-11-20 18:23:44  更:2021-11-20 18:26:24 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 4:25:07-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码