IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 系统运维 -> 图网络 MixHop 简介 -> 正文阅读

[系统运维]图网络 MixHop 简介

1 模型提出

标题:MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing
链接:https://arxiv.org/abs/1905.00067

标准GCN只能学习到相邻结点之间的信息,不能学习邻里混合关系。

为了解决这个缺点,作者提出了一个新的模型,MixHop通过重复混合不同距离的邻居的特征表示,它可以学习这些关系,包括不同的运算子。MixHop不需要额外的内存或计算复杂性,并且在具有挑战性的基线上表现优异。

此外,作者提出稀疏正则化,使我们可以可视化网络如何优先考虑不同图数据集的邻域信息。

对学习的体系结构的分析表明,邻域混合随着数据集的不同而不同。

MixHop 的三个假设

  • H1:: MixHop模型学习delta运算符。
  • H2:在真正的半监督学习任务中,使用邻域混合的高阶图卷积可以比现有方法(例如标准GCNs)表现更好。
  • H3:学习MixHop的模型架构时,每个图的最佳性能架构是不同的。

2 模型结构

高阶信息的传递

在信息传递过程中,节点从它们的直接节点(一级)邻居接收潜在的表示,并进一步从远距离的N度邻居中接收信息。

作者据此将在不同距离获取的邻居信息进行混合。

邻居信息混合的方式

Delta Operator:是一个从不同距离收集的节点特征之间的减法操作。普通的GCN无法学习这样的特性表示。

Two-hop Delta Operator 的定义如下:

这样的运算子允许模型表示邻居之间的特征差异,可以学习到图的边界情况。例如,要了解有一个受欢迎的德国朋友的美国人大致特征,可能最直接的朋友说英语,但很多朋友的朋友说德语。这个美国人可以通过学习对比英语和德语的one-hop和two-hop语言的卷积过滤器来表示。

上述定义不允许学习 two-hop Delta算子的直接形式,而允许学习它的一个变换,只要这个变换可以是倒置的(即 f f f 是内射的)。

为此,作者采用下式作为上述定义的替换(GC layer):

不用计算 A ^ j \hat{A}^j A^j,而是采用由右向左的方式计算,如:

A ^ ( A ^ ( A ^ H ( i ) ) ) , j = 3 \widehat{A}\left(\widehat{A}\left(\widehat{A} H^{(i)}\right)\right),j=3 A (A (A H(i))),j=3

对于邻接矩阵 A ^ j \hat{A}^j A^j采用稀疏矩阵的存储方式。

上述GC layer可用下图表示:

证明GC layer能够代表Two-hop Delta Operator

H ( 1 ) = ∥ j ∈ { 0 , 1 , 2 } σ ( A ^ j X W j ( 0 ) ) = σ ( ∑ j ∈ { 0 , 1 , 2 } ∥ A j ^ X W j ( 0 ) ) = σ ( [ I N X W 0 ( 0 ) ; A ^ X W 1 ( 0 ) : A ^ 2 X W 2 ( 0 ) ] ) \begin{aligned} H^{(1)}=& \|_{j \in\{0,1,2\}} \sigma\left(\widehat{A}^{j} X W_{j}^{(0)}\right) \\ =& \sigma\left(\sum_{j \in\{0,1,2\}}^{\|} \widehat{A^{j}} X W_{j}^{(0)}\right) \\ =& \sigma\left(\left[I_{N} X W_{0}^{(0)} ; \widehat{A} X W_{1}^{(0)}: \widehat{A}^{2} X W_{2}^{(0)}\right]\right) \end{aligned} H(1)===?j{0,1,2}?σ(A jXWj(0)?)σ???j{0,1,2}?Aj XWj(0)????σ([IN?XW0(0)?;A XW1(0)?:A 2XW2(0)?])?

W 0 ( 0 ) = 0 ( zero?matrix ) W_{0}^{(0)}=0 (\text{zero matrix}) W0(0)?=0(zero?matrix) W 1 ( 0 ) = W 2 ( 0 ) = I s 0 W_{1}^{(0)}= W_{2}^{(0)}=I_{s_{0}} W1(0)?=W2(0)?=Is0??,则上式可以简化为:

H ( 1 ) = σ ( [ 0 A ^ X A ^ 2 X ] ) H^{(1)}=\sigma\left(\left[\begin{array}{l:l:l}0 & \widehat{A} X & \widehat{A}^{2} X\end{array}\right]\right) H(1)=σ([0?A X?A 2X?])

特征向量 H ( 1 ) H^{(1)} H(1) 可以嵌入第二层:

H ( 2 ) = [ I N H ( 1 ) W 0 ( 1 ) A ^ H ( 1 ) W 1 ( 1 ) A ^ 2 H ( 1 ) W 2 ( 1 ) ] H^{(2)}=\left[\begin{array}{c:c:c}I_{N} H^{(1)} W_{0}^{(1)} & \widehat{A} H^{(1)} W_{1}^{(1)} & \widehat{A}^{2} H^{(1)} W_{2}^{(1)}\end{array}\right] H(2)=[IN?H(1)W0(1)??A H(1)W1(1)??A 2H(1)W2(1)??]

W 1 ( 1 ) = W 2 ( 1 ) = 0 W_{1}^{(1)}=W_{2}^{(1)}= 0 W1(1)?=W2(1)?=0 以及

W 0 ( 1 ) = [ 0 I s 0 ? I s 0 ] W_{0}^{(1)}=\left[\begin{array}{c} 0 \\ I_{s_{0}} \\ -I_{s_{0}} \end{array}\right] W0(1)?=???0Is0???Is0??????

则:

H ( 2 ) = [ ( σ ( A ^ X ) ? σ ( A ^ 2 X ) ) : 0 : 0 ] H^{(2)}=\left[\left(\sigma(\widehat{A} X)-\sigma\left(\widehat{A}^{2} X\right)\right): 0: 0\right] H(2)=[(σ(A X)?σ(A 2X)):0:0]

这说明我们的GCN可以根据定义成功地表示two-hop Delta算子。

对上面的two-hop Delta算子进行泛化:

f ( ∑ j = 0 m α j σ ( A ^ j X ) ) f\left(\sum_{j=0}^{m} \alpha_{j} \sigma\left(\widehat{A}^{j} X\right)\right) f(j=0m?αj?σ(A jX))

W 0 ( 1 ) W_{0}^{(1)} W0(1)?可以泛化为:

W 0 ( 1 ) = [ α 0 I s 0 ? α m I s 0 ] W_{0}^{(1)}=\left[\begin{array}{c} \alpha_{0} I_{s_{0}} \\ \vdots \\ \alpha_{m} I_{s_{0}} \end{array}\right] W0(1)?=????α0?Is0???αm?Is0???????

3 学习邻接矩阵幂结构

具体来说,分阶段训练架构:

  1. 构建一个宽的网络(例如,邻接矩阵宽度为200),只在深度上做选择。
  2. 在每个 W j ( l ) W_j(l) Wj?(l)的每一列上应用 L2 Group Lasso 正则化来训练任务中的网络。这将使整个列的值(接近)降为零。
  3. 在峰值验证精度处,测量每个 W j ( l ) W_j(l) Wj?(l)的 L2 范数。选择一个阈值,并计算每个 W j ( l ) W_j(l) Wj?(l)中 norm 高于该阈值的列数。在实验中,作者选择了使收缩模型的大小等于我们的基线模型的大小(即 P = { 1 } P = \{1\} P={1})的阈值。
  4. 通过删除规范低于第 k 个百分位数的列来收缩权重矩阵。
  5. 用 L2正则化 替换 L2组套索。重新训练。

4 实验

  • 在合成数据上取得的效果
  • 在真实数据上取得的效果
  • 不同数据学得的不同结构

具体实现见:

https://github.com/benedekrozemberczki/MixHop-and-N-GCN

  系统运维 最新文章
配置小型公司网络WLAN基本业务(AC通过三层
如何在交付运维过程中建立风险底线意识,提
快速传输大文件,怎么通过网络传大文件给对
从游戏服务端角度分析移动同步(状态同步)
MySQL使用MyCat实现分库分表
如何用DWDM射频光纤技术实现200公里外的站点
国内顺畅下载k8s.gcr.io的镜像
自动化测试appium
ctfshow ssrf
Linux操作系统学习之实用指令(Centos7/8均
上一篇文章      下一篇文章      查看所有文章
加:2022-03-04 16:00:29  更:2022-03-04 16:03:56 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/16 3:33:06-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码