本文参考自datawhale2021.6学习:图神经网络
【GNN】第一章 图论基础
【GNN】第二章 PyG中的图与图数据集
【GNN】第三章 消息传递范式与PyG的MessagePassing基类
【GNN】第四章 节点表征学习与节点分类任务(理论+调包实操)
【GNN】第五章 构造数据完全存于内存的数据集类InMemoryDataset
【GNN】第六章 边预测任务
前言
- 图表征学习要求根据节点属性、边和边的属性(如果有的话)生成一个向量作为图的表征,基于图表征我们可以做图的预测
- 基于图同构网络(Graph Isomorphism Network, GIN)的图表征网络是当前最经典的图表征学习网络
在论文《How Powerful are Graph Neural Networks?》 中:
- 通过对目前比较流行的 GNN 变体(如 GCN、GraphSAGE 等)进行分析,结果表明目前的 GNN 变体无法区分某些简单的图结构
- 这些 GNN 的设计主要是基于经验而谈,并没有很好的理论基础来分析 GNN 的性质和局限性。因此提出了分析 GNN 能力的理论框架
- 证明出 WL-test 是 GNN 的表达能力上限
- 设计了一个简单的架构 GIN,并证明该架构在目前所有 GNN 算法中最具表达能力,且具有与 Weisfeiler-Lehman 图同构测试一样强大的功能
1 WL-test
目前解决图同构问题最有效的算法
1.1 同构图 Graph Isomorphism
- 两图的边和顶点数量相同,且边的连接性相同
- 也可以认为一图的点是由另一图的点映射得到
- 计算图同构可以度量图的相似度(比如实际应用中具有相似结构的分子可能具备相似的功能特性)
1.2 多重集 Multiset
一组可能重复的元素集合。例如:{1,1,2,3}就是一个多重集合
1.3 1-dimensional WL-test 及图相似度量
- 通过计算图特征向量来衡量图相似度。
- WL 算法可以是 K-维的,K-维 WL 算法在计算图同构问题时会考虑顶点的 k 元组。如果只考虑顶点的自身特征(如标签、颜色等),那么就是 1-维 WL 算法
- 举例说明:一次迭代
- 给定两个图
G
G
G和
G
′
G^{\prime}
G′,每个节点拥有标签(实际中,一些图没有节点标签,我们可以以节点的度作为标签)
2.3. 考虑节点邻域的标签,并对此排序。逗号前是当前标签 排序的原因在于要保证单射性,即保证输出的结果不因邻接节点的顺序改变而改变 4. 对标签进行压缩映射 5. 得到新的标签 6. 计算图特征向量:迭代 1 轮后,利用计数函数分别得到两张图的计数特征,得到图特征向量后便可计算图之间的相似性了
- 当出现两个图相同节点标签的出现次数不一致时,即可判断两个图不相似
- 如果上述的步骤重复一定的次数后,没有发现有相同节点标签的出现次数不一致的情况,那么我们无法判断两个图是否同构
1.4 WL子树
- 在WL Test的第
k
k
k次迭代中,一个节点的标签代表了:以该节点为根的高度为
k
k
k的子树结构
- 当两个节点的
h
h
h层的标签一样时,表示:分别以这两个节点为根节点的WL子树是一致的
- 举例:右图是节点1迭代两次的子树
1.5 WL-test的公式表示
- WL-test分为四步:聚合邻接节点标签、多重集排序、标签压缩、更新标签
- 公式:
a
v
k
=
f
(
{
h
u
k
?
1
:
u
∈
N
(
v
)
}
)
h
v
k
=
Hash
?
(
h
v
k
?
1
,
a
v
k
)
a^{k}_v = f\left(\{ h^{k-1}_u:u\in N(v) \} \right) \\ h^{k}_{v} =\operatorname{Hash}\left(h_v^{k-1}, a_v^k\right)
avk?=f({huk?1?:u∈N(v)})hvk?=Hash(hvk?1?,avk?) - 由公式发现,WL-test和GNN一样,也分为两步:聚合和结合
2 GIN
2.1 单射的聚合方案
- 直观来说,一个好的 GNN 算法仅仅会在两个节点具有相同子树结构时才会将其映射到同一位置
- 由于子树结构是通过节点邻域递归定义的,所以我们可以将分析简化为这样一个问题:GNN 是否会映射两个邻域(即multiset)到相同的 Representation
- 一个好的 GNN 永远不会将两个不同领域映射得到相同的Representation。即,聚合模式必须是单射
- 因此,我们可以将 GNN 的聚合方案抽象为一类神经网络可以表示的多重集函数,并分析其是否是单射。
2.1 WL-test是GNN的上界
- 引理:
- 对于两个非同构图
G
1
G_1
G1? 和
G
2
G_2
G2?,如果存在一个图神经网络将这两个图映射到不同的Embedding向量中,那么也可以通过WL-test确定
G
1
G_1
G1? 和
G
2
G_2
G2? 是非同构图
- 反证法可以证明
2.2 GIN:一个与 WL-test 性能相当的 GNN
GNN 和 WL-test 的主要区别在于单射函数中。顺利成章的,作者设计一个满足单射函数的图同构网络
h
v
k
=
?
(
h
v
k
?
1
,
f
(
{
h
u
k
?
1
:
u
∈
N
(
v
)
}
)
)
h_v^k = \phi(h^{k-1}_v,f(\{h_u^{k-1}:u\in N(v)\}))
hvk?=?(hvk?1?,f({huk?1?:u∈N(v)}))
-
f
f
f 作用在 multisets 上,
?
\phi
? 为单射函数
- GNN 作用在 multiset 的 READOUT 函数也是单射的
2.2.1 聚合函数 Aggregate
- 引理:设
X
\mathcal{X}
X (有限多重集的集合)可数,那么会存在一个函数
f
f
f:
X
→
R
n
\mathcal{X}\rightarrow \mathbb{R}^n
X→Rn 使得对于任意有限多重集
X
?
X
X \subset \mathcal{X}
X?X 都有
h
(
X
)
=
∑
x
∈
X
f
(
x
)
h(X) = \sum_{x\in X}f(x)
h(X)=x∈X∑?f(x) 其中
h
(
X
)
h(X)
h(X) 对各
X
?
X
X \subset \mathcal{X}
X?X 唯一 此外,任意一个多重集函数
g
g
g 都可以被分解为:
g
(
X
)
=
?
(
∑
x
∈
X
f
(
x
)
)
g(X) = \phi(\sum_{x\in X}f(x))
g(X)=?(x∈X∑?f(x)) - 推论:设
X
\mathcal{X}
X (有限多重集的集合)可数,那么会存在一个函数
f
f
f:
X
→
R
n
\mathcal{X}\rightarrow \mathbb{R}^n
X→Rn 对于任意实数
ε
\varepsilon
ε 和任意有限多重集
X
?
X
X \subset \mathcal{X}
X?X、
c
∈
X
c \in \mathcal{X}
c∈X 都有
h
(
c
,
X
)
=
(
1
+
ε
)
?
f
(
c
)
+
∑
x
∈
X
f
(
x
)
h(c,X) = (1+\varepsilon)\cdot f(c)+ \sum_{x\in X}f(x)
h(c,X)=(1+ε)?f(c)+x∈X∑?f(x) 其中
h
(
c
,
X
)
h(c,X)
h(c,X) 对各组合
(
c
,
X
)
(c,X)
(c,X) 唯一 此外,任意一个函数
g
g
g 都可以被分解为:
g
(
X
)
=
?
(
(
1
+
ε
)
?
f
(
c
)
∑
x
∈
X
f
(
x
)
)
g(X) = \phi((1+\varepsilon)\cdot f(c)\sum_{x\in X}f(x))
g(X)=?((1+ε)?f(c)x∈X∑?f(x))
2.2.2 读出函数 Readout
待补充
3 作业
4 代码实现
4.1 基于GIN的图表征模块 GINGraphRepr Module
基于图同构网络(Graph Isomorphism Network, GIN)的图表征学习主要包含以下两个过程:
- 首先计算得到节点表征
- 其次对图上各个节点的表征做图池化(Graph Pooling),或称为图读出(Graph Readout),得到图的表征(Graph Representation)
若要进行图预测,则可以加多一个线性层,将图表征转换为预测结果
- 代码实现:
- 首先采用
GINNodeEmbedding 模块对图上每一个节点做节点嵌入(Node Embedding),得到节点表征 - 然后对节点表征做图池化得到图的表征
- 最后用一层线性变换对图表征转换为对图的预测
import torch
from torch import nn
from torch_geometric.nn import global_add_pool, global_mean_pool, global_max_pool, GlobalAttention, Set2Set
from gin_node import GINNodeEmbedding
class GINGraphRepr(nn.Module):
def __init__(self, num_tasks=1, num_layers=5, emb_dim=300, residual=False, drop_ratio=0, JK="last", graph_pooling="sum"):
"""
Args:
num_tasks (int, optional): 图表征维度,默认1
num_layers (int, optional): GINConv 层数,默认5
emb_dim (int, optional): 节点维度,默认300
residual (bool, optional): adding residual connection or not. Defaults to False.
drop_ratio (float, optional): dropout rate. 默认0
JK (str, optional): 可选的值为"last"和"sum"。选"last",只取最后一层的结点的嵌入,选"sum"对各层的结点的嵌入求和。默认"last"
graph_pooling (str, optional): 图池化方式. 可选的值为"sum","mean","max","attention"和"set2set"。 默认 "sum".
Out:
graph representation
"""
super(GINGraphPooling, self).__init__()
self.num_layers = num_layers
self.drop_ratio = drop_ratio
self.JK = JK
self.emb_dim = emb_dim
self.num_tasks = num_tasks
if self.num_layers < 2:
raise ValueError("Number of GNN layers must be greater than 1.")
self.gnn_node = GINNodeEmbedding(num_layers, emb_dim, JK=JK, drop_ratio=drop_ratio, residual=residual)
if graph_pooling == "sum":
self.pool = global_add_pool
elif graph_pooling == "mean":
self.pool = global_mean_pool
elif graph_pooling == "max":
self.pool = global_max_pool
elif graph_pooling == "attention":
self.pool = GlobalAttention(gate_nn=nn.Sequential(
nn.Linear(emb_dim, emb_dim), nn.BatchNorm1d(emb_dim), nn.ReLU(), nn.Linear(emb_dim, 1)))
elif graph_pooling == "set2set":
self.pool = Set2Set(emb_dim, processing_steps=2)
else:
raise ValueError("Invalid graph pooling type.")
if graph_pooling == "set2set":
self.graph_pred_linear = nn.Linear(2*self.emb_dim, self.num_tasks)
else:
self.graph_pred_linear = nn.Linear(self.emb_dim, self.num_tasks)
def forward(self, batched_data):
h_node = self.gnn_node(batched_data)
h_graph = self.pool(h_node, batched_data.batch)
output = self.graph_pred_linear(h_graph)
if self.training:
return output
else:
return torch.clamp(output, min=0, max=50)
|