IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 图注意力网络(GAT) -> 正文阅读

[人工智能]图注意力网络(GAT)

背景

作为对比算法被应用在我们的算法中

Veli?kovi? P, Cucurull G, Casanova A, et al. Graph attention networks[J]. arXiv preprint arXiv:1710.10903, 2017.(应该是发表在了ICLR)

模型

图注意力网络 (Graph Attention Networks)被提出\upcite{18}。 X {\bf{X}} X 表示所有样本对应的特征, X ∈ R N × F {\bf{X}} \in {\mathbb{R}^{N \times F}} XRN×F,其中 N N N 表示样本的数量, F F F 表示单个样本对应的特征纬度。 x i {\bf{x}}_i xi?表示为单个样本的特征, x i ∈ R F {{\bf{x}}_i} \in {\mathbb{R}^F} xi?RF

a t t ( ? ) {\rm{att}}( \cdot ) att(?)表示注意力系数的计算, 一般注意力机制中 a t t ( ? ) {\rm{att}}( \cdot ) att(?)表示为 R H × R H → R {\mathbb{R}^H} \times {\mathbb{R}^H} \to \mathbb{R} RH×RHR。在图注意力网络中,注意力机制系数通过前向传播的神经网络计算得到。
c i j = c x i W T ⊕ x j W {c_{ij}}{\rm{ = }}\begin{matrix}{{c}} {{{\bf{x}}_i}{{\bf{W}}^{\rm{T}}}} \end{matrix} \oplus {{\bf{x}}_j}{\bf{W}} cij?=cxi?WT?xj?W
⊕ \oplus 是将 c W x i T \begin{matrix}{{c}} {{\bf{W}}{{\bf{x}}_i}^{\rm{T}}} \end{matrix} cWxi?T?转置得到的结果中第 i i i个值与 W x j {\bf{W}}{{\bf{x}}_j} Wxj?中第 j j j个值进行相加。表示 c i j {c_{ij}} cij?节点 i i i与节点 j j j 的注意力系数, j ∈ N i j \in {{\mathcal N}_i} jNi? N i {{\mathcal N}_i} Ni? j j j的领域节点。
在GAT中,使用LeakyRelu函数,并进行归一化,如下所示:
δ i j = exp ? ( L e a k y R e L u ( c i k ) ) ∑ k ∈ N i exp ? ( L e a k y R e L u ( c i k ) ) {\delta _{ij}} = \frac{{\exp ({\rm{LeakyReLu(}}{c_{ik}}{\rm{)}})}}{{\sum\nolimits_{k \in {{\mathcal N}_i}} {\exp ({\rm{LeakyReLu(}}{c_{ik}}{\rm{)}})} }} δij?=kNi??exp(LeakyReLu(cik?))exp(LeakyReLu(cik?))?
通过注意力计算后,得到的新的特征表示为:
KaTeX parse error: Undefined control sequence: \cal at position 62: …imits_{j \in {{\?c?a?l? ?N}_i}} {{\delta…
σ \sigma σ是一个非线性的激活函数。引入多头注意力机制如下
h ′ i = ∣ ∣ m = 1 M σ ( ∑ j ∈ N i δ i j m W m x j ) {{\bf{h'}}_i}{\rm{ = }}\mathop {{\rm{||}}}\limits_{m = 1}^M \sigma {\rm{(}}\sum\limits_{j \in {{\mathcal N}_i}} {\delta _{_{ij}}^m{{\bf{W}}^m}{{\bf{x}}_j}} {\rm{)}} hi?=m=1M?σ(jNi??δij?m?Wmxj?)
h ′ i {{\bf{h'}}_i} hi? 表示多头注意力通过拼接得到的结果, ∣ ∣ {\rm{||}} 表示拼接。最终,对多头注意力做平均,如下所示
h ′ ′ i = σ ( 1 M ∑ m = 1 M ∑ j ∈ N i δ i j m W m x j ) {{\bf{h''}}_i}{\rm{ = }}\sigma {\rm{(}}\frac{1}{M}\sum\limits_{m = 1}^M {\sum\limits_{j \in {{\mathcal N}_i}} {\delta _{_{ij}}^m{{\bf{W}}^m}{{\bf{x}}_j}} } {\rm{)}} hi?=σ(M1?m=1M?jNi??δij?m?Wmxj?)
h ′ ′ i {{\bf{h''}}_i} hi?表示多头注意力机制平均得到的结果。
图注意力网络通过自注意力机制解决图网络中的卷积运算。注意力机制在计算上不需要进行矩阵运算操作,通过邻域节点的重要性进行节点特征表示。除此以外,注意力机制可以被用来研究模型的可解释性。

代码

邻接矩阵处理方式
size:[2708]
adj: [1,2708,2708]
def adj_to_bias(adj, sizes, nhood=1):
    nb_graphs = adj.shape[0]
    mt = np.empty(adj.shape) #mt is [1, 2708, 2708]
    for g in range(nb_graphs): #nb_graphs is 1
        mt[g] = np.eye(adj.shape[1])  #mt变为单位矩阵
        for _ in range(nhood):
            mt[g] = np.matmul(mt[g], (adj[g] + np.eye(adj.shape[1])))
        #d=
        for i in range(sizes[g]):
            for j in range(sizes[g]):
                if mt[g][i][j] > 0.0:
                    mt[g][i][j] = 1.0
    return -1e9 * (1.0 - mt)
github链接

包含使用torch实现的gat代码

https://github.com/ChenaniahMe/codes/tree/main/GNN/comgat

注意

模型部分为本人整理内容,转载请注明出处。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-04-26 11:41:49  更:2022-04-26 11:43:26 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 9:33:36-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码