| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 【PaperReading】DAEGC : Attributed Graph Clustering: A Deep Attentional Embedding Approach -> 正文阅读 |
|
[人工智能]【PaperReading】DAEGC : Attributed Graph Clustering: A Deep Attentional Embedding Approach |
DAEGC : Attributed Graph Clustering: A Deep Attentional Embedding ApproachDAEGC: 属性图聚类 : 一种深度注意力嵌入方法论文作者:Chun Wang, Shirui Pan, Ruiqi Hu, Guodong Long, Jing Jiang, Chengqi Zhang 摘要Graph clustering is a fundamental task which discovers communities or groups in networks. Recent studies have mostly focused on developing deep learning approaches to learn a compact graph embedding, upon which classic clustering methods like k-means or spectral clustering algorithms are applied. These two-step frameworks are difficult to manipulate and usually lead to suboptimal performance, mainly because the graph embedding is not goal-directed, i.e., designed for the specific clustering task. In this paper, we propose a goal-directed deep learning approach, Deep Attentional Embedded Graph Clustering (DAEGC for short). Our method focuses on attributed graphs to sufficiently explore the two sides of information in graphs. By employing an attention network to capture the importance of the neighboring nodes to a target node, our DAEGC algorithm encodes the topological structure and node content in a graph to a compact representation, on which an inner product decoder is trained to reconstruct the graph structure. Furthermore, soft labels from the graph embedding itself are generated to supervise a self-training graph clustering process, which iteratively refines the clustering results. The self-training process is jointly learned and optimized with the graph embedding in a unified framework, to mutually benefit both components. Experimental results compared with state-of-the-art algorithms demonstrate the superiority of our method. 1. IntroductionGraph clustering aims to partition the nodes in the graph into disjoint groups。Further for attributed graph clustering, a key problem is how to capture the structural relationship and exploit the node content information. The drawback of two-step approaches is that the learned embedding may not be the best fit for the subsequent graph clustering task, and the graph clustering task is not beneficial to the graph embedding learning. we propose a goal directed graph attentional autoencoder based attributed graph clustering framework in this paper.
本文的主要贡献总结如下:
本文模型与传统的two-step方法的比较如Figure 1所示:
所谓目标导向,就是说特征提取和聚类任务不是独立的,提取的特征要在一定程度上有利于聚类,那么如何实现?可以通过自训练聚类的方式,将隐藏图嵌入产生的软聚类分配与聚类联合优化。 2. Related Work1. 图聚类
2. 深度聚类算法
3. Problem Definition and Overall Framework这里考虑属性图中的聚类任务。令 G = ( V , E , X ) G=(V,E,X) G=(V,E,X)表示图,其中 V = { v i } i = 1 , . . . , n V=\{v_i\}_{i=1,...,n} V={vi?}i=1,...,n?表示节点集, E = { e i , j } E=\{e_{i,j}\} E={ei,j?}是节点之间的边的集合。图 G G G的拓扑结构用邻接矩阵 A A A表示,其中 A i , j = 1 A_{i,j}=1 Ai,j?=1如果 ( v i , v j ) ∈ E (v_i,v_j)\in E (vi?,vj?)∈E;否则 A i , j = 0 A_{i,j}=0 Ai,j?=0。 X = x 1 ; . . . ; x n X={x_1;...;x_n} X=x1?;...;xn?是属性值,其中 x i ∈ R m x_i\in R^m xi?∈Rm是与顶点 v i v_i vi?相连的实数属性向量(real-value attribute vector)。 给定一个图
G
G
G,图聚类的目标是将
G
G
G中的节点划分到
k
k
k个不相交的组
{
G
1
,
G
2
,
.
.
.
,
G
k
}
\{G_1,G_2,...,G_k\}
{G1?,G2?,...,Gk?},因此使得同一簇内的节点通常: 总体框架如图2所示,包含两个部分:a graph attentional autoencoder和a self-training clustering module。
4. Proposed Method作者将这种方法称为Deep Attentional Embedded Graph Clustering (DAEGC),首先开发一种图注意力自动编码器,它可以有效地整合图结构和内容信息,以学习潜在表示。 基于该表示,提出了一种自训练模块,以指导聚类算法取得更好的性能。 1. 图注意力自编码器Graph attentional encoder(GAT encoder):为了同时表示图结构
A
A
A和节点内容
X
X
X,本文提出了一个图注意网络的变体作为图编码器。其思想是通过关注其邻居来学习每个节点的隐藏表示,并在隐藏表示中将属性值与图结构相结合。最直接的策略是将它的表示与它的所有邻居整合起来。为了度量不同邻居的重要性,在分层图注意策略中,对邻居表示给出了不同的权重。即采用图注意力机制,衡量node
i
i
i的邻居
N
i
N_i
Ni?对于节点
i
i
i的影响: 为了计算 α 𝑖 𝑗 \alpha_{𝑖𝑗} αij?,我们从属性值(attribute values)和拓扑距离(topological distance)两个方面度量了节点 𝑗 𝑗 j的重要性。
注意力系数通常使用softmax函数对所有邻居
j
∈
𝑵
𝑖
j\in 𝑵_𝑖
j∈Ni?进行归一化,使其在节点间易于比较: 通过上述图注意力编码器,得到最终的 z i = z i ( 2 ) z_i=z_i^{(2)} zi?=zi(2)?。 Inner product decoder现在有各种各样的解码器,它们重构图的结构、属性值或两者都重构。由于之前的潜在嵌入(latent embedding)已经包含了内容和结构的信息,所以本文选择了一种简单的内积解码器来预测节点之间的链接: Reconstruction loss通过度量
A
A
A和
A
^
\hat{A}
A^之间差异来最小化重构误差: 2. Self-optimizing Embedding图聚类任务是无监督的,在训练过程中无法反馈学到的嵌入是否得到了很好的优化。为了应对这一挑战,开发了一种自优化的嵌入算法作为解决方案。 另一方面,
p
i
u
p_{iu}
piu?是目标分布,定义为: 在 Q Q Q中,高概率值的软分配(soft assignments)被认为是值得信任的(trustworthy)。因此,目标分配 P P P将 Q Q Q提高2次方,以强调那些“confident assignments”的作用。聚类损失迫使当前分布 Q Q Q接近目标分布 P P P,从而将这些“confident assignments”设置为软标签来监督 Q Q Q的embedding learning。 为此,首先训练不带自优化聚类部分的自编码器,以获得获得像公式(7)所述的有意义的embedding z z z。然后执行自优化聚类来改进这种embedding。通过公式(11)得到的所有节点 Q Q Q的软聚类分配分布,在训练整个模型之前,对embedding z z z进行一次k-means聚类,得到初始的聚类中心 μ \mu μ。 在接下来的训练中,使用基于
L
c
L_c
Lc?相对于 𝛍 和 𝒛 的梯度的 根据公式(12)计算目标分布𝑷 ,根据公式(10)计算聚类损失 L c L_c Lc?。 目标分布
P
P
P在训练过程中作为“ 综上所述,本文将聚类损失最小化,帮助自动编码器利用嵌入自身的特性来操纵嵌入空间,分散嵌入点,从而获得更好的聚类性能。 3. Joint Embedding and Clustering Optimization本文联合优化了自动编码器embedding和聚类学习,并将最终优化函数定义为:
5. Experiments1. Benchmark Datasets2. Baseline Methods图聚类算法包括仅使用节点属性或网络结构信息的方法,以及结合两者的方法。 还比较了基于深度表示学习的图聚类算法.
3. Evaluation Metrics & Parameter SettingsMetrics:
一个好的聚类结果通常上面的指标具有较高的值。 In TADW, for instance, we set the dimension of the factorized matrix to 80 and the regularization parameter to 0.2; We run the k-means algorithm 50 times to get an average score for all embedding learning methods for fair comparison. Parameter Settings: 4. 实验结果
6. ConclusionIn this paper, we propose an unsupervised deep attentional embedding algorithm, DAEGC, to jointly perform graph clustering and learn graph embedding in a unified framework. The learned graph embedding integrates both the structure and content information and is specialized for clustering tasks. While the graph clustering task is naturally unsupervised, we propose a self-training clustering component that generates soft labels from “confident” assignments to supervise the embedding updating. The clustering loss and autoencoder reconstruction loss are jointly optimized to simultaneously obtain both graph embedding and graph clustering result. A comparison of the experimental results with various state-of-the-art algorithms validate DAEGC’s graph clustering performance. 总结此文是发表在2019年IJCAI上关于图聚类问题的一篇文章。它提出了一种深度注意力嵌入的图聚类方法( Deep Attentional Embedded Graph Clustering),主要解决传统的网络嵌入方法不能很好地应用于特定任务场景下的问题。 按照作者的思路,在经历第一波图注意力编码器的特征提取之后,所得到的结点的特征表示被直接用于聚类,并根据聚类的结果,生成对应的 P / Q P/Q P/Q分布。那么实际上作者就默认了初始化的聚类结果是可以信赖的,即经过编码器的特征提取得到的聚类结果能够总体上呈现图的聚类情况,后续的训练则会进行一些调整,但总体的框架已经定下。 那么回到作者所提出的问题,大部分嵌入方法实际上是没有任务导向的,那么作者依然通过这种无任务导向的结点特征生成了可以信赖的初始化聚类。即从某种程度上而言,作者并没有解决文章开头所提到的问题。 参考资料[1] https://arxiv.org/pdf/1906.06532.pdf |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/25 21:50:29- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |