IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 深度学习_线性回归的从零开始实现 -> 正文阅读

[人工智能]深度学习_线性回归的从零开始实现

在了解线性回归的关键思想之后,可以通过代码来手动实现线性回归了。
我们将从零开始实现整个方法,包括数据流水线、模型、损失函数和小批量随机梯度下降优化器。
在现代深度学习框架几乎可以自动化进行所有这些工作的前提下,我们了解更细致的工作原理将方便我们自定义模型、自定义层或自定义损失函数。在这一节中,我们将只使用张量和自动求导。

import random
import torch
from d2l import torch as d2l

生成数据集

我们将根据带有噪声的线性模型构造一个人造数据集。我们的任务是使用这个有限的样本的数据集来恢复这个模型的参数。我们将使用低维数据,这样可以很容易地将其可视化。在下面的代码中,我们生成一个包含1000个样本的数据集,每个样本包含从标准正态分布中采样的2个特征。我们的合成数据集是一个矩阵 X ∈ R 1000 × 2 \mathbf{X} \in \mathbb{R}^{1000 \times 2} XR1000×2

我们使用线性模型参数 w = [ 2 , ? 3.4 ] ? 、 b = 4.2 \mathbf{w}=[2,-3.4]^{\top} 、 b=4.2 w=[2,?3.4]?b=4.2和噪声项 ? \epsilon ?生成数据集及其标签:

y = X w + b + ? \mathbf{y}=\mathbf{X} \mathbf{w}+b+\epsilon y=Xw+b+?

这里可以将 ? \epsilon ?视为捕获特征和标签时的潜在观测误差。在这里我们认为标准假设成立,即 ? \epsilon ?服从均值为0的正态分布。为了简化问题,我们将标准差设为0.01。下面的代码生成合成数据集。

def synthetic_data(w, b, num_examples):
	"""生成y = Xw + b + 噪声。"""
	X = torch.normal(0, 1, (num_examples, len(w)))
	y = torch.matmul(X, w) + b
	y += torch.normal(0, 0.01, y.shape)
	return X, y.reshape((-1, 1))
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)

注意,features中的每一行都包含一个二维数据样本,labels中的每一行都包含一维标签值(一个标量)。

print('features:', features[0], '\nlabel:', labels[0])
features: tensor([-1.5273, 0.5069])
label: tensor([-0.5713])

通过生成第二个特征features[:, 1]和labels的散点图,可以直观地观察到两者之间的线性关系。

d2l.set_figsize()
d2l.plt.scatter(features[:, (1)].detach().numpy(), labels.detach().numpy(), 1)

在这里插入图片描述

读取数据集

训练模型时要对数据集进行遍历,每次抽取小批量样本,并使用它们来更新我们的模型。由于这个过程是训练机器学习算法的基础,所以有必要定义一个函数,该函数能打乱数据集中的样本并以小批量方式获取数据。

在下面的代码中,我们定义一个data_iter函数,该函数接收批量大小、特征矩阵和标签向量作为输入,生成大小为batch_size的小批量。每个小批量包含一组特征和标签。

def data_iter(batch_size, features, labels):
	num_examples = len(features)
	indices = list(range(num_examples))
	# 这些样本是随机读取的,没有特定的顺序
	random.shuffle(indices)
	for i in range(0, num_examples, batch_size):
		batch_indices = torch.tensor(indices[i : min(i + batch_size, num_examples)])
		yield features[batch_indices], labels[batch_indices]

通常,我们使用合理大小的小批量来利用GPU硬件的优势,因为GPU在并行处理方面表现出色。每个样本都可以并行地进行模型计算,且每个样本损失函数的梯度也可以被并行地计算,GPU可以在处理几百个样本时,所花费的时间不比处理一个样本时多太多。

现在直观感受下。读取第一个小批量数据样本并打印。每个批量的特征维度说明了批量大小和输入特征数。同样的,批量的标签形状与batch_size相等。

batch_size = 10

for X, y in data_iter(batch_size, features, labels):
	print(X, '\n', y)
	break
tensor([[-0.5309, 0.2644],
		[ 0.5849, -0.4633],
		[ 0.0618, -1.1239],
		[ 0.2240, 0.0085],
		[ 0.7633, 0.9449],
		[ 0.8836, 0.8245],
		[-2.5749, -0.5567],
		[-0.0975, 0.8569],
		[ 0.8215, -0.3621],
		[ 0.7872, 0.2790]])
tensor([[2.2405],
		[6.9425],
		[8.1252],
		[4.6162],
		[2.5107],
		[3.1595],
		[0.9252],
		[1.0848],
		[7.0856],
		[4.8352]])

当我们运行迭代时,我们会连续地获得不同的小批量,直到遍历完整个数据集。上面实现的迭代对于教学来说很好,但它的执行效率很低,可能会在实际问题上陷入麻烦。例如,它要求我们将所有数据加载到内存中,并执行大量的随机内存访问。在深度学习框架中实现的内置迭代器效率要高得多,它可以处理存储在文件中的数据和通过数据流提供的数据。

初始化模型参数

在我们开始用小批量随机梯度下降优化我们的模型参数之前,我们需要先有一些参数。在下面的代码中,我们通过从均值为0、标准差为0.01的正态分布中采样随机数来初始化权重,并将偏置初始化为0。

w = torch.normal(0, 0.01, size(2, 1), requires_grad = True)
b = torch.zeros(1, requires_grad = True)

在初始化参数之后,我们的任务是更新这些参数,直到这些参数足够拟合我们的数据。每次更新都需要计算损失函数关于模型参数的梯度。有了这个梯度,我们就可以向减小损失的方向更新每个参数。因为手动计算梯度很枯燥而且容易出错,所有没有人会手动计算梯度。我们使用之前引入的自动微分来计算梯度。

定义模型

接下来,我们必须定义模型,将模型的输入和参数同模型的输出关联起来。回想一下,要计算线性模型的输出,我们只需计算输入特征 X \mathbf{X} X和模型权重 w \mathbf{w} w的矩阵-向量乘法后加上偏置 b b b。注意,上面的 X w \mathbf{X w} Xw是一个向量,而 b b b是一个标量。这实际上用到之前描述的广播机制。当我们用一个向量加一个标量时,标量会被加到向量的每个分量上。

def linreg(X, w, b):
	"""线性回归模型。"""
	return torch.matmul(X, w) + b

定义损失函数

因为要更新模型,需要计算损失函数的梯度,所以我们应该先定义损失函数。这里使用之前描述的平方损失函数。在实现中,我们需要将真实值 y y y的形状转换为和预测值y_hat的形状相同。

def squared_loss(y_hat, y):
	"""均方损失。"""
	return(y_hat - y.reshape(y_hat.shape)) ** 2 / 2

定义优化算法

前面我们知道,线性回归有解析解。然而,其他模型都没有解析解,下面我们将在这里介绍小批量随机梯度下降的工作示例。

在每一步中,使用从数据集中随机抽取的一个小批量,然后根据参数计算损失的梯度。接下来,朝着减少损失的方向更新我们的参数。下面的函数实现小批量随机梯度下降更新。该函数接受模型参数集合、学习速率和批量大小作为输入。每一步更新的大小由学习速率lr决定。因为我们计算的损失是一个批量样本的总和,所以我们用批量大小(batch_size)来归一化步长,这样步长大小就不会取决于我们对批量大小的选择。

def sgd(params, lr, batch_size):
	"""小批量随机梯度下降。"""
	with torch.no_grad():
		for param in params:
			param -= lr * param.grad / batch_size
			param.grad.zero()

训练

现在已经准备好了模型训练所有需要的要素,可以实现主要的训练过程部分了。理解这段代码至关重要,因为在整个深度学习的职业生涯中,我们会一遍又一遍地看到几乎相同的训练过程。在每次迭代中,我们读取一小批量训练样本,并通过我们的模型来获得一组预测。计算完损失后,我们开始反向传播,存储每个参数的梯度。最后,我们调用优化算法sgd来更新模型参数。

概括一下,我们将执行以下循环:

  • 初始化参数
  • 重复,直到完成
    - 计算梯度 g ← ? ( w , b ) 1 ∣ B ∣ ∑ i ∈ B l ( x ( i ) , y ( i ) , w , b ) \mathbf{g} \leftarrow \partial_{(\mathbf{w}, b)} \frac{1}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} l\left(\mathbf{x}^{(i)}, y^{(i)}, \mathbf{w}, b\right) g?(w,b)?B1?iB?l(x(i),y(i),w,b)
    - 更新参数 ( w , b ) ← ( w , b ) ? η g (\mathbf{w}, b) \leftarrow(\mathbf{w}, b)-\eta \mathbf{g} (w,b)(w,b)?ηg

在每个迭代周期(epoch)中,我们使用data_iter函数遍历整个数据集,并将训练数据集中所有样本都使用一次(假设样本数能够被批量大小整除)。这里的迭代周期个数num_epochs和学习率lr都是超参数,分别设为3和0.03。设置超参数很棘手,需要通过反复试验进行调整。这里先忽略细节,之后会详细介绍。

lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss
for epoch in range(num_epochs):
	for X, y in data_iter(batch_size, features, labels):
		l = loss(net(X, w, b), y)    # 'X'和'y'的小批量损失
		# 因为'l'的形状是('batch_size', 1),而不是一个标量。'l'中的所有元素被加到一起
		# 并以此计算关于['w', 'b']的梯度
		l.sum().backward()
		sgd([w, b], lr, batch_size)    # 使用参数的梯度更新参数
	with torch.no_grad():
		train_l = loss(net(features, w, b), labels)
		print(f'epoch {epoch + 1}, loss {float(train_l.mean()):f}')
epoch 1, loss 0.043538
epoch 2, loss 0.000165
epoch 3, loss 0.000050

因为我们使用的是自己合成的数据集,所以我们直到真正的参数是什么。因此,我们可以通过比较真实参数和通过训练得到的参数来评估训练的成功程度。事实上,真实参数和通过训练学到的参数确实非常接近。

print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差:{true_b - b}')
w的估计误差: tensor([0.0010, 0.0004], grad_fn=<SubBackward0>)
b的估计误差: tensor([2.0504e-05], grad_fn=<RsubBackward1>)

这里我们不应该总是认为我们能够完美地恢复参数。在机器学习中,我们通常不关系恢复真正的参数,而更关心那些能高度准确预测的参数。幸运的是,即使在复杂的优化问题上,随机梯度下降通常也能找到非常好的解。其中一个原因是,在深度网络中存在许多参数组合能够实现高度精确的预测。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-04 12:51:04  更:2021-10-04 12:52:20 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 10:40:53-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码