IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Pytorch实战——知识点记录(二) -> 正文阅读

[人工智能]Pytorch实战——知识点记录(二)

Pytorch构建神经网络记录

1.Typical Loss
-mean squere error(MSE) 均方误差
在这里插入图片描述在这里插入图片描述
pytorch中求mean squere error的梯度有两种方式:
在这里插入图片描述
backward( )函数(这个更方便)
torch.autograd.grad()函数用法示例
-cross entropy loss

在这里插入图片描述
-Entropy 熵
在这里插入图片描述
-cross entropy 交叉熵
cross entropy的值记为H(p,q):
在这里插入图片描述在这里插入图片描述
对于one-hot encoding,entropy=0,cross entropy = entropy+KL Divergence = 0+KL Divergence = KL Divergence.
在这里插入图片描述对于分类问题为什么不使用MSE而使用cross entropy
在这里插入图片描述
.cross_entropy()函数=softmax操作+log操作+nll_loss操作

2.链式法则

x = torch.tensor(1.)
w1 = torch.tensor(2.,requires_grad=True)
b1 = torch.tensor(1.)
w2 = torch.tensor(2.,requires_grad=True)
b2 = torch.tensor(1.)
y1 = x*w1+b1
y2 = y1*w2+b2
dy2_dy1 = torch.autograd.grad(y2,[y1],retain_graph=True)[0]
dy1_dw1 = torch.autograd.grad(y1,[w1],retain_graph=True)[0]
dy2_dw1 = torch.autograd.grad(y2,[w1],retain_graph=True)[0]
dy2_dy1*dy1_dw1
# tensor(2.)
dy2_dw1
# tensor(2.)

3.visdom可视化
在终端通过pip install visdom安装visdom
然后执行python -m visdom.server开启visdom服务,浏览器访问http://localhost:8097/
在程序中from visdom import Visdom,绘制想要的图形。

4.学习率衰减
两种实现方案,方案1:
在这里插入图片描述

方案2:
在这里插入图片描述
5.dropout
在这里插入图片描述
注意在train的时候可使用dropout,在test的时候不应使用dropout,要把状态切换一下:
在这里插入图片描述
6.卷积神经网络
-层的定义
在这里插入图片描述
某一层通常包括了W和输出,如hidden layer 1包括了上层的权重和对应的输出。

-nn.Conv2d()
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)
在这里插入图片描述
在这里插入图片描述

-F.conv2d在这里插入图片描述
-nn.MaxPool2d()
MaxPool2d(kernel_size, stride=None, padding=0,
dilation=1, return_indices=False, ceil_mode=False)

-interpolate()
torch.nn.functional.interpolate(input, size=None, scale_factor=None, mode=‘nearest’, align_corners=None)
在这里插入图片描述
-nn.BatchNorm2d()
class torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True)
-神经网络单元
通常把一个conv+bachnorm+pool+relu看作一个单元,如下
在这里插入图片描述
如果有short cut,则一个单元为:
在这里插入图片描述
-nn.Module模块
功能1:方便的调用已有的层
在这里插入图片描述
功能2:方便的构造多层网络
在这里插入图片描述
功能3:方便管理网络、查看参数
在这里插入图片描述
—————————————————————————————
目前记录一些基础操作,暂时告一段落啦。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-04-01 23:22:47  更:2022-04-01 23:23:51 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年1日历 -2025/1/9 0:55:31-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码