IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> PyTorch深度学习实践(三) -> 正文阅读

[人工智能]PyTorch深度学习实践(三)

写在前面:之前学习的都是简单的预测问题,涉及的函数是一维线性函数,在本节内容中,要开始介绍稍微复杂一点的神经网络了,参数w不再是1个,而是很多个!

1 梯度下降引入

在这里插入图片描述

  • 在第一列的五个圆圈和六个圆圈之间,我们可以看到有30条线。第一列的五个圆圈表示51的输入x,第二列表示第一层的61输出,那么中间

在这里插入图片描述

  • 很显然是一个6*5的权重矩阵。也就是说,这里一共有30个参数。

是否能做这样一个算法,将整个网络看成一个计算图,可以在计算图上传播梯度,最后根据链式法则把梯度求出来,这种算法呢,就可以称之为反向传播算法。

2 计算图

在这里插入图片描述

  • 其中,MM表示矩阵乘法。

在这里插入图片描述

  • 但是,对于这样的两层直接输入输出的网络层来说,按照上图的方式可以进行化简,并最终可以化简得到一个线性层。(所以,这两层完全没有意义,其实就是相当于一层)
    在这里插入图片描述
  • 因此,我们就要在第一层结束之后,加一个非线性的函数。如下图所示。

在这里插入图片描述

3 链式求导

在这里插入图片描述

  • 前向传播的过程很好理解,就是 f = w ? x f=w*x f=w?x,算loss的过程这里省略。
  • 反向传播呢,就是在算出loss之后,需要求出loss对z的导数,然后在算出f的时候,记录下z对x的导数和x对w的导数,然后在往前,根据链式法则得到loss对x的导数和loss对w的导数!

在这里插入图片描述
导数是存储在变量中的,不是计算模块中的

4 PyTorch中的Tensor

在这里插入图片描述

  • Tensor有两个数据成员,data和Grad。

4.1 代码片段学习

import torch
w = torch.Tensor([1.0])
w.requires_grad = True
  • w是一个参数,这里随机初始化为1.0,是一个0维的常量。
  • 并且要求它去计算梯度(grad)【一般是默认不计算的】
def forward(x):
	return x * w
  • forward函数作用:数乘。w是Tensor向量,x不清楚是否是Tensor,这里在计算时就会对函数做一个强制类型转换。
def loss(x, y):
	y_pred = forward(x)
	return (y_pred - y) ** 2
  • 这个计算loss的过程,要能够用计算图去表示出来。
    在这里插入图片描述
for epoch in range(100):
	for x, y in zip(x_data, y_data):
	l = loss(x, y)
	l.backward()  # .grad 会累积数据的
	print(
	w.grad.data.zero_()  # 在更新之后,需要把梯度数据清零 
	

张量是不能直接去进行加法计算的,Tensor做加法会生成计算图,导致内存消耗。一定要加上 .item

5 整体代码

  • 可以全部复制粘贴到.py文件中,可以直接运行
import torch
import matplotlib.pyplot as plt


x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]

w = torch.Tensor([1.0])
w.requires_grad = True


def forward(x):
    return w * x


def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2


print("在模型计算之前对于x=4的预测是:", 4, forward(4).item)


epoch_list = []
loss_list = []

for epoch in range(100):
    for x, y in zip(x_data, y_data):
        l = loss(x, y)
        l.backward()
        print('\tgrad:', x, y, w.grad.item())
        w.data = w.data - 0.01 * w.grad.data

        w.grad.data.zero_()
        epoch_list.append(epoch)
        loss_list.append(l.item())

    print("process:", epoch, l.item())

print("在模型计算之后对于x=4的预测是:", 4, forward(4).item())
plt.plot(epoch_list, loss_list)
plt.ylabel('Loss')
plt.xlabel('epoch')
plt.show()


在这里插入图片描述
在这里插入图片描述

学习资料:刘二大人

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-03-13 21:47:25  更:2022-03-13 21:50:50 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年1日历 -2025/1/9 16:16:08-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码