1.图神经网络的设计角度
AdaGCN: Adaboosting Graph Convolutional Networks into Deep Models 【 ICLR 2021】
创新点: 将传统机器学习方法(AdaBoost)与GNN结合,提出AdaGCN,AdaGCN在所有层之间共享相同的基本神经网络结构,能够在一定程度上解决过平滑问题。
摘要: 深度图模型仍是一个有待研究的问题,关键之处在于如何有效地汇聚来自多跳邻居节点的特征信息。在本文中,通过将AdaBoost融入到图网络中提出了一个类似于RNN的深度图模型AdaGCN,能够以Adaboost的方式高效的抽取多跳邻居特征信息,不同于之前的深度图模型直接堆叠多个卷积层,AdaGCN在所有网络层之间共享相同的神经网络架构。另外,从理论角度分析了AdaGCN和现有的GCN模型的关联,最后,通过大量的实验,证明了我们的方法在不同的标签率和计算优势下始终保持最先进的性能。
个人感受: 尽管自己对这些理论细节还不是很懂,但从直觉上认为思路非常不错。启发就是把握了一些算法“精华”的地方,然后通过情景类比进行迁移转化,或许能够产生非常不错的应用。
2.自适应,图结构相关
Adaptive Graph Encoder for Attributed Graph Embedding
关键词: 图卷积网络,属性图嵌入,自适应学习,拉布拉斯平滑
已经存在的GCN-based 模型有三个主要缺陷:
- 作者实验显示图卷积网络的滤波器和权重矩阵的纠缠会损害性能和鲁棒性。
- 作者表明在这些方法中的图卷积滤波器是广义拉普拉斯平滑滤波器的特例,但它们并没有保留最佳的低通特性。
- 现有算法的训练目标通常是邻接矩阵或特征矩阵,而这些矩阵与现实应用不总是是一致的。
用什么方法解决? 作者提出了一个自适应图编码 Adaptive Graph Encoder (AGE)的属性图嵌入框架:
疑问:对正负样本去训练邻接矩阵有些不太清楚。
AM-GCN: Adaptive Multi-channel Graph Convolutional Networks 【KDD 2020】
出发点: GCNs能否在一个具有丰富信息的复杂图中最优地对节点特征和拓扑结构进行融合?本文首先对GCNs融合能力进行了实验探究,并提出了一种用于半监督节点分类任务的自适应多通道图卷积网络(AM-GCN: Adaptive Multi-channel Graph Convolutional Networks)。其核心思想是能够同时从节点特征、拓扑结构及其组合的公关信息中提取特殊嵌入项和公共嵌入项,并利用注意机制学习嵌入项的自适应融合权重。我们通过数据集上的大量实验表明,AM-GCN能够自适应地提取最相关的信息,并提高了分类精度与实验效果。
|