IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Do Transformers Really Perform Bad for Graph Representation 阅读笔记 -> 正文阅读

[人工智能]Do Transformers Really Perform Bad for Graph Representation 阅读笔记

Task

利用transformer进行图预测,即给出一个图G,预测出其类别,其中图由G(V,E)来表示,V代表结点,E代表边。在阅读这篇论文之前,回顾一下经典的GNN和Transformer。

GNN

一般的图神经网络通常通过聚合邻接结点的特征更新结点表达,称为AGGREGATE-COMBINE。公式如下所示:

?其中,l代表的是图卷积的层数,h代表的是结点在每一层的特征。一般聚合操作包括mean, max, sum。

Transformer

?Transformer通过计算节点相似度对节点表示进行更新。 通常Transformer中每一层由self-attention与feed-forward (全连接)子层组成。公式如下所示:

?Transformer已经有非常多的工作,不做更多的细节介绍。

问题

?目前,Transformer在图表示学习这一个领域中,并没有取得很好的效果。这篇论文的作者认为,因为在学习的时候,并没有考虑一个图中结点与边的结构信息,只考虑了利用自注意力机制计算的彼此间的相似度。

解决办法

此文提出一个使用标准Transformer架构的模型Graphormer,Graphormer相比Tranformer使用了更多的图结构信息来增强模型的图表达能力。最核心的点是作者设计了一种基于GNN的注意力机制,而之前的工作并没有做这一个点。之前的工作只是用一些步骤替代掉GNN中的某一个部分。

方法

论文的主题框架和基本的transformer还是一致的,在self-attention机制上加入了一些新曾的图的信息,来丰富特征,整体的框架如下图所示:

作者新增加的部分为centrality encoding, edge encoding, spatial encoding。

?Centrality encoding

在一个图中,结点的中心性极大程度的代表了一个结点在图中的重要性,在图学习中十分重要。之前的很多工作中,都说明了度作为特征是十分重要的,因此作者在论文中,计算了每一个结点的入度和出度,然后通过embedding将它们上升到与结点相同的维度,然后再进行相加。这样就得到了新的特征,公式如下所示:

?Spatial?encoding

网格结构是无法表达非欧空间,所以使用了两个结点的最短路径距离来表示,将其作为bias加入到attention当中。因为两个结点之间的attn值与两个直接之间是否相邻或者经过几个节点相邻有很大的关系。因此,作者使用了弗洛伊德算法求出了最短路径。

?

?\phi(v_{i},v_{j})?代表的是两个结点的最短路径,b代表经过nn.embedding的操作,变成一个可学习的张量。

Edge Encoding in the Attention

在图表示学习的任务中,很有可能需要用到一些边的结构特征,在文中提到了两种当前比较常用的方法,首先,将边特征上升的与节点特征维度一致,然后与节点特征相加作为该节点发送至中心节点的消息,第二种,是使用边特征来控制不同节点对于中心节点的权重。为了更好的使用边的特征,作者设计了一种编码方式,首先计算任意两个结点的最短路径,然后按照边的特征,进行加权求平均,得到一个新的偏置的值,再加到之前的相似度矩阵的计算之后,公式如下所示:

Special Node

效仿Bert的思想,增加一个特殊的结点,来学习到全局的特征。

参考文献

[1] Chengxuan Ying,?Tianle Cai,?Shengjie Luo,?Shuxin Zheng,?Guolin Ke,?Di He,?Yanming Shen,?Tie-Yan Liu: Do?Transformers?Really?Perform?Bad?for?Graph?Representation??CoRR?abs/2106.05234?(2021)

[2]?Chea Sim - 知乎

[3]?LMissher - 知乎

[4]?什么是Weisfeiler-Lehman(WL)算法和WL Test? - 知乎

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-12-28 22:55:34  更:2021-12-28 22:56:30 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/19 5:59:31-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码