IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> PyTorch Geometric MPNN学习笔记(实现向) -> 正文阅读

[人工智能]PyTorch Geometric MPNN学习笔记(实现向)

建立消息传递网络MPNN

本文主要从实现层面讲解代码。

在Graph中,如果将卷积这一操作推广到其他域中时,往往用邻域聚合或消息传递来表示。
接下来有定义几个Notation:
x i ( k ) \textbf{x}_i^{(k)} xi(k)?表示第 k k k次迭代的节点 i i i的节点特征;
e j , i \textbf{e}_{j,i} ej,i?表示从节点 j j j到节点 i i i的(可选的)边缘特征;
i i i被约定为单向边的目的节点; j j j被约定为单向边的源节点;
N ( i ) \mathcal{N}(i) N(i)表示节点 i i i的邻居节点(即,与 i i i有直接连边的节点);
简单来讲,这个GNN模型可以被表征为:
x i ( k ) = γ ( k ) ( x i ( k ? 1 ) , j ∈ N ( i ) ? ( x i ( k ? 1 ) , x j ( k ? 1 ) , e j , i ) ) \textbf{x}_i^{(k)}=\gamma^{(k)}(\textbf{x}_i^{(k-1)},\boxed{}_{j \in \mathcal{N}(i)}\phi(\textbf{x}_i^{(k-1)},\textbf{x}_j^{(k-1)},\textbf{e}_{j,i})) xi(k)?=γ(k)(xi(k?1)?,?jN(i)??(xi(k?1)?,xj(k?1)?,ej,i?))
其中, \boxed{} ?(方框操作)是代表了一种可导的(differentiable)且置换不变的(permutation)函数,在Pytorch Geometric中,提供了sum,mean,max三种操作,接下来这种“方框操作”将被称为“聚合函数”。
γ \gamma γ ? \phi ?是两种不同的可导函数,以此来进行所谓的“特征提取”,常见的比如简单的MLP。

Message Passing基类

在PyTorch Geometric中,提供了Message Passing(MP)基类来帮助我们构建MPNN,官方文档给出了一个很好的范例:

import torch
from torch_geometric.nn import MessagePassing
from torch_geometric.utils import add_self_loops, degree

class GCNConv(MessagePassing):
    def __init__(self, in_channels, out_channels):
        super(GCNConv, self).__init__(aggr='add')  # "Add" aggregation (Step 5).
        self.lin = torch.nn.Linear(in_channels, out_channels)

    def forward(self, x, edge_index):
        # x has shape [N, in_channels]
        # edge_index has shape [2, E]

        # Step 1: Add self-loops to the adjacency matrix.
        edge_index, _ = add_self_loops(edge_index, num_nodes=x.size(0))

        # Step 2: Linearly transform node feature matrix.
        x = self.lin(x)

        # Step 3: Compute normalization.
        row, col = edge_index
        deg = degree(col, x.size(0), dtype=x.dtype)
        deg_inv_sqrt = deg.pow(-0.5)
        deg_inv_sqrt[deg_inv_sqrt == float('inf')] = 0
        norm = deg_inv_sqrt[row] * deg_inv_sqrt[col]

        # Step 4-5: Start propagating messages.
        return self.propagate(edge_index, x=x, norm=norm)

    def message(self, x_j, norm):
        # x_j has shape [E, out_channels]

        # Step 4: Normalize node features.
        return norm.view(-1, 1) * x_j

为了方便,我们一部分一部分的来看。

init

    def __init__(self, in_channels, out_channels):
        super(GCNConv, self).__init__(aggr='add')  # "Add" aggregation (Step 5).
        self.lin = torch.nn.Linear(in_channels, out_channels)

利用MP基类,我们建立属于自己的类GCNConv,并对其进行初始化操作,包括设置参数,而MP基类中可被用户修改定义的参数包括:
MessagePassing(aggr=“add”, flow=“source_to_target”, node_dim=-2)
聚合函数(“add”, “mean” or “max”);默认add,也是最常用的。
信息传递方向(“source_to_target” or “target_to_source”).;默认前一个。
node_dim个人认为不太用,如需要可参考[1]。
此外,在这里也可以定义我们需要的其它库函数,例如线性函数、MLP、GRU等等。

forward

    def forward(self, x, edge_index):
        # x has shape [N, in_channels]
        # edge_index has shape [2, E]

        # Step 1: Add self-loops to the adjacency matrix.
        edge_index, _ = add_self_loops(edge_index, num_nodes=x.size(0))

        # Step 2: Linearly transform node feature matrix.
        x = self.lin(x)

        # Step 3: Compute normalization.
        row, col = edge_index
        deg = degree(col, x.size(0), dtype=x.dtype)
        deg_inv_sqrt = deg.pow(-0.5)
        deg_inv_sqrt[deg_inv_sqrt == float('inf')] = 0
        norm = deg_inv_sqrt[row] * deg_inv_sqrt[col]

        # Step 4-5: Start propagating messages.
        return self.propagate(edge_index, x=x, norm=norm)

我们对消息传递的主要操作就在这个forward中进行啦。
这里给了几个基本操作,但不一定会用到。包括加自环、线性变换、根据度来计算归一化等。
为了便于理解,我们就把forward实现的公式放在这里,有兴趣的可以自行理解:
x i ( k ) = ∑ j ∈ N ( i ) ∪ { i } 1 deg ? ( i ) ? deg ? ( j ) ? ( Θ ? x j ( k ? 1 ) ) , \mathbf{x}_i^{(k)} = \sum_{j \in \mathcal{N}(i) \cup \{ i \}} \frac{1}{\sqrt{\deg(i)} \cdot \sqrt{\deg(j)}} \cdot \left( \mathbf{\Theta} \cdot \mathbf{x}_j^{(k-1)} \right), xi(k)?=jN(i){i}?deg(i) ??deg(j) ?1??(Θ?xj(k?1)?),

propagate

那么MP类中最重要的内容其实就是它的propagate函数了,如果这个函数被调用,那么MP类会隐式的调用如下三个函数:message(), aggregate(), update()。

aggregate()基本上就是我们在init部分规定好的参数了;
message()主要实现一开始的公式中的 ? \phi ?这一部分;
update()实现了 γ \gamma γ部分。

如果在类中不显式的说明这三个函数,那么就是直接输入即输出。因此我们一般都是要至少修改其中一个函数的。在修改的过程中,所有的包含“源和目的节点”这两个属性的变量都可以很方便的表达,比如 x x x是表示特征的变量,那么调用 x j x_j xj?就是所有的源节点的特征, x i x_i xi?就是所有目的节点的特征。

调用类

conv = GCNConv(16, 32)
x = conv(x, edge_index)

这里调用的时候需要说明一下,输入参数表是跟着MP类所属forward()函数需要的参数列表来的。这里,edge_index和特征x的确定,可根据[2]中的讲解来进行。

Reference

[1] https://pytorch-geometric.readthedocs.io/en/latest/notes/create_gnn.html#the-messagepassing-base-class
[2] https://pytorch-geometric.readthedocs.io/en/latest/notes/introduction.html

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-07-29 11:38:10  更:2021-07-29 11:41:16 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/17 21:17:37-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码