IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> pytorch中hook的使用 -> 正文阅读

[人工智能]pytorch中hook的使用

在pytorch中,可以利用Hook获取、改变网络中间某一层变量的值和梯度,从而便捷地分析网络,而不用专门改变网络结构。

一、torch.Tensor中的hook

在使用pytorch时,只有叶节点(即直接指定数值的节点,而不是由其他变量计算得到的节点,比如网络输入)的梯度会保留,其余中间节点梯度在反向传播完成后就会自动释放以节省显存。

比如:

import torch

x=torch.Tensor([1,2]).requires_grad_(True)
y=torch.Tensor([3,4]).requires_grad_(True)
z=((y-x)**2).mean()
# z.retain_grad()
z.backward()

print('x.requires_grad:',x.requires_grad)
print('y.requires_grad:',y.requires_grad)
print('z.requires_grad:',z.requires_grad)

print('x.grad:',x.grad)
print('y.grad:',y.grad)
print('z.grad:',z.grad)

输出:

x.requires_grad: True
y.requires_grad: True
z.requires_grad: True
x.grad: tensor([-2., -2.])
y.grad: tensor([2., 2.])
/home/wangguoyu/test.py:14: UserWarning: The .grad attribute of a Tensor that is not a leaf Tensor is being accessed. Its .grad attribute won't be populated during autograd.backward(). If you indeed want the gradient for a non-leaf Tensor, use .retain_grad() on the non-leaf Tensor. If you access the non-leaf Tensor by mistake, make sure you access the leaf Tensor instead. See github.com/pytorch/pytorch/pull/30531 for more information.
  print('z.grad:',z.grad)
z.grad: None

这里x和y是叶子节点,因此在backward后会保留grad,而z的requires_grad虽然为True,但是由于它不是叶子节点,因此梯度没有保留。如果我们确实需要非叶子节点的梯度信息,那么我们需要在backward前使用retain_grad方法(即将上面的注释去掉),这就可以访问z的梯度信息。但是,使用retain_grad保留的grad会占用显存,如果不想要占用显存,那么我们可以使用hook。对于中间节点的变量a,我们可以使用a.register_hook(hook_fn)对其梯度进行操作(可以进行修改或者保存等操作)。这里hook_fn是以恶自定义的函数,其函数声明为:

hook_fn(grad) -> Tensor or None

其输入变量为a的grad,如果返回Tensor,则该Tensor取代a原有的grad,并向前传播;如果不反悔或者返回None,那么a的grad不变,继续向前传播。

import torch

def hook_fn(grad):
  print('here is the hook_fn')
  print(grad)
  
x=torch.Tensor([1,2]).requires_grad_(True)
y=torch.Tensor([3,4]).requires_grad_(True)
z=((y-x)**2).mean()

z.register_hook(hook_fn)

print('before backward')
z.backward()
print('after backward')

print('x.requires_grad:',x.requires_grad)
print('y.requires_grad:',y.requires_grad)
print('z.requires_grad:',z.requires_grad)

print('x.grad:',x.grad)
print('y.grad:',y.grad)
print('z.grad:',z.grad)

输出:

before backward
here is the hook_fn
tensor(1.)
after backward
x.requires_grad: True
y.requires_grad: True
z.requires_grad: True
x.grad: tensor([-2., -2.])
y.grad: tensor([2., 2.])
z.grad: None

可以看到,在z绑定了hook_fn后,backward时,打印了z的grad,因为我们返回None,最后z的grad不变,接下来我们改变z的grad:

import torch

def hook_fn(grad):
  grad*=2
  print('here is the hook_fn')
  print(grad)
  return grad
  
x=torch.Tensor([1,2]).requires_grad_(True)
y=torch.Tensor([3,4]).requires_grad_(True)
z=((y-x)**2).mean()

# z.register_hook(lambda x: 2*x)
z.register_hook(hook_fn)

print('before backward')
z.backward()
print('after backward')

print('x.requires_grad:',x.requires_grad)
print('y.requires_grad:',y.requires_grad)
print('z.requires_grad:',z.requires_grad)

print('x.grad:',x.grad)
print('y.grad:',y.grad)
print('z.grad:',z.grad)

输出:

before backward
here is the hook_fn
tensor(2.)
after backward
x.requires_grad: True
y.requires_grad: True
z.requires_grad: True
x.grad: tensor([-4., -4.])
y.grad: tensor([4., 4.])
z.grad: None

可以看到x和y的grad都变为原来的两倍,这是因为链式求导时z自身的导数发生了变化,这说明hook_fn改变了z的grad。此外,hook_fn也可以是lambda表达式,将上面代码中的注释去掉和使用hook_fn起到的效果是一样的。

待补充
https://zhuanlan.zhihu.com/p/267800207

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-13 11:27:11  更:2021-10-13 11:28:31 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 10:30:45-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码