IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 08 线性回归 + 基础优化算法【动手学深度学习v2】 -> 正文阅读

[人工智能]08 线性回归 + 基础优化算法【动手学深度学习v2】

从零开始实现线性回归

本文根据李沐在b站的课程【动手学深度学习v2】

1、根据带有噪声的线性模型构造一个人造数据集。使用线性模型参数 w = [ 2 , ? 3.4 ] T 、 b = 4.2 w=[2,-3.4]^T、b=4.2 w=[2,?3.4]Tb=4.2和噪声项生成数据集及其标签:

y = X w + b + ? y=Xw+b+? y=Xw+b+?

import random
import torch
from d2l import torch as d2l
import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'
def synthetic_data(w, b, num_example):
    """生成 y=Xw+b+噪声"""
    # 均值为0方差为1的随机数,num_example个样本,列数是w长度
    X = torch.normal(0, 1, (num_example, len(w),))
    print(X)
    y = torch.matmul(X, w) + b
    print(y)
    # 均值为0方差为0.01,形状和y相同
    y += torch.normal(0, 0.01, y.shape)
    # 将y作为列向量返回
    return X, y.reshape((-1, 1))
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, lables = synthetic_data(true_w, true_b, 1000)
print("features:", features[0], '\nlables:', lables[0])
d2l.set_figsize()
d2l.plt.scatter(features[:, 1].detach().numpy(), lables.detach().numpy(), 1)
d2l.plt.show()

打印出的图像

成功打印

  • 如果出现以下问题
OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized.
OMP: Hint This means that multiple copies of the OpenMP runtime have been linked into the program. That is dangerous, since it can degrade performance or cause incorrect results. The best thing to do is to ensure that only a single OpenMP runtime is linked into the process, e.g. by avoiding static linking of the OpenMP runtime in any library. As an unsafe, unsupported, undocumented workaround you can set the environment variable KMP_DUPLICATE_LIB_OK=TRUE to allow the program to continue to execute, but that may cause crashes or silently produce incorrect results. For more information, please see http://www.intel.com/software/products/support/.
  • 加上以下代码即可解决
import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

经过以上步骤我们的训练样本就准备好了

2、编写函数,实现每次读取一个小批量

#省略以上代码 
def data_iter(batch_size, features, lables):
    num_examples = len(features)
    indices = list(range(num_examples))
    # 样本随机读取,没有顺序,shuffle打乱indices
    random.shuffle(indices)
    # 从0开始到num_examples,每次跳batch_size个大小
    for i in range(0, num_examples, batch_size):
        #从i开始,到i + batch_size
        batch_indices = torch.tensor(
            indices[i:min(i + batch_size, num_examples)])
        print('i',i)
        print("batch_indices",batch_indices)
        yield features[batch_indices], lables[batch_indices]

batch_size = 5
for x, y in data_iter(batch_size, features, lables):
    print(x, '\n', y)
    break
  • 这里注意yield的用法

3、定义模型,定义损失函数,定义优化算法

  • 定义模型
    y = X w + b y=Xw+b y=Xw+b
  • 损失函数
    l o s s = ( y ^ ? y ) 2 2 loss=\frac {(\hat{y}-y)^2}2 loss=2(y^??y)2?
# 定义模型
def linreg(X, w, b):
    '''线性回归模型'''
    return torch.matmul(X, w) + b


# 定义损失函数
def squared_loss(y_hat, y):
    '''均方损失'''
    return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2


# 定义优化算法
# params包含w和blr学习率
def sgd(params, lr, batch_size):
    '''小批量梯度下降'''
    with torch.no_grad():
        for param in params:
            param -= lr * param.grad / batch_size
            param.grad.zero_()


# 定义初始化参数模型
w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True)
b = torch.zeros(1, requires_grad=True)

4、训练过程及评估结果

lr:学习率
num_epochs :分包的数量,即训练几次

# 训练过程
lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss

for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, lables):
        l = loss(net(X, w, b), y)
        l.sum().backward()
        sgd([w, b], lr, batch_size)
    with torch.no_grad():
        train_l = loss(net(features, w, b), lables)
        print(f'epoch {epoch + 1},loss{float(train_l.mean()):f}')
# 比较真实参数和通过训练学到的参数来评估训练成功的程度
print(f'w的估计误差:{true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差:{true_b - b}')

我的输出结果:
epoch 1 , loss 0.049434
epoch 2 , loss 0.000246
epoch 3 , loss 0.000053
w的估计误差:tensor([ 0.0006, -0.0012], grad_fn=)
b的估计误差:tensor([0.0008], grad_fn=)

总结

可以手动调节几个超参数体验一下变化。
  • 比如将学习率lr调的更小,比如lr=0.001,结果:
    epoch 1 , loss 13.877259
    epoch 2 , loss 11.297474
    epoch 3 , loss 9.197680
    w的估计误差:tensor([ 1.5019, -2.4621], grad_fn=)
    b的估计误差:tensor([3.0993], grad_fn=)
  • 可以看到误差还是很大的。可以让模型多训练几次,num_epochs=10
    epoch 1 , loss 13.567297
    epoch 2 , loss 11.112944
    epoch 3 , loss 9.102850
    epoch 4 , loss 7.456498
    epoch 5 , loss 6.108027
    epoch 6 , loss 5.003509
    epoch 7 , loss 4.098810
    epoch 8 , loss 3.357737
    epoch 9 , loss 2.750709
    epoch 10 , loss 2.253470
    w的估计误差:tensor([ 0.7045, -1.2464], grad_fn=)
    b的估计误差:tensor([1.5734], grad_fn=)
  • 试试将lr调的很大,lr=5:
    epoch 1 , loss nan
    epoch 2 , loss nan
    epoch 3 , loss nan
    w的估计误差:tensor([nan, nan], grad_fn=)
    b的估计误差:tensor([nan], grad_fn=)
  • 结果出现错误。这就说明了学习率不能太大也不能太小
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-09-22 14:41:05  更:2021-09-22 14:41:31 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/21 22:54:37-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码