IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> DGCN论文阅读 -> 正文阅读

[人工智能]DGCN论文阅读

DGCN论文阅读

1. 网络架构

本文的主要思想:
在这里插入图片描述

DGCN的网络框架:
在这里插入图片描述

输入由三部分组成:1. the recent-period data X_Th
2. the daily-period data X_Td;
3. the weekly-period data X_Tw

网络主要由两个部分组成:1. LMLN(蓝色部分)和 2. GCN(灰色部分)

1.1 LMLN,Laplace Matrix Latent Network

看Fig. 2. 蓝色的部分,主要有一个Global Laplace matrix Learning Layer 和两个Laplace matrix prediction unit组成。

Laplace matrix prediction unit的结构如下,主要包括三个部分:1. the feature sampling; 2. the spatial attention; 3. LSTM unit :
在这里插入图片描述

(1)Global Laplace Matrix Learning Layer*

(提到了参考文献17,maybe思路是从那里来的。)

这里进行了这样的一个数学运算:
在这里插入图片描述

(2)Feature Sampling

这个模块的目的是:to reduce the data dimension of the traffic feature according to the importance of different time interval

把输入的数据按照时间维度分为k组,每组长度为T。除了最近的T个特征,其余的k-1组都将T步长的特征融合为1个。

前k-1组的操作可以表示为:
在这里插入图片描述
经过Feature Sampling,数据的维度变成这样:
在这里插入图片描述
然后融合后的k-1个特征和最后的这个T个特征会通过两个不同的Spatial Attention继续学习。

(3)Spatial Attention

Spatial Attention的计算借鉴了Transformer中self-attention的思想,但是具体的计算不同:
在这里插入图片描述
融合后的k-1个特征经过注意力机制产生k-1个邻接矩阵:
在这里插入图片描述
最后的T个特征经过注意力机制产生T个邻接矩阵:
在这里插入图片描述
最终该层的输出是k+T-1个邻接矩阵:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Cxl8Voju-1646383434482)(C:\Users\admin\AppData\Roaming\Typora\typora-user-images\image-20220303161913550.png)]

(4) LSTM Unit

将k+T-1个N×N的拉普拉斯矩阵沿着时间轴通过LSTM进行融合,LSTM就是一个普通的LSTM:
在这里插入图片描述

通过LSTM我们得到了Laplace matrix prediction unit的最终输出h_k+T-1


再与Global Laplace Matrix Learning Layer的输出 global Laplace matrix L_res结合,就得到了 Laplace matrix prediction network 的输出 L_p:
在这里插入图片描述
LMLN的算法可以总结为如下伪代码:
在这里插入图片描述

1.2 GCN

GCN是Fig. 2. 中的灰色部分,主要有4个部分。

(1)Temporal Convolution Layer

本模块的目的:to extract the high-dimensional local temporal information from the original traffic data.

对于输入,TCL的运算可以表示为:
在这里插入图片描述

(2) Graph Temporal Convolution Layer*

(3) Temporal Attention*

这里是借鉴了参考文献[19]中的Temporal Attention,目的是to explore the long-range time relation。

其运算公式为:
在这里插入图片描述
其中:
在这里插入图片描述

(4)Batch norm

在这里插入图片描述


GCN模块整体的运算过程如下:
在这里插入图片描述

1.3 Loss Function

Output Layer 对 recent data、 daily-period data、 weekly-period data 分开处理。

主要是 recent data是连续的,而 daily-period data和weekly-period data经过了sample处理,被切分成k-i个单元,在时间轴上不连续。

所以使用: Conv_1×i to deal with the recent data, Conv_1×1 to reflect the k ? i feature unit dependently in the daily-period and weekly-period.

最后我们将所有convolution output看作我们模型的预测,采用l2_loss计算损失。
在这里插入图片描述

2. 实验

2.1 实验结果


GCRN:Y. Seo, M. Defferrard, P. Vandergheynst, and X. Bresson, “Structured sequence modeling with graph convolutional recurrent networks,” in Proc. Int. Conf. Learn. Represent. (ICLR), 2017, pp. 362–373.

Gated-STGCN:B. Yu, H. Yin, and Z. Zhu, “Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting,” in Proc. Int. Joint Conf. Artif. Intell., Jul. 2018, pp. 1–9.

ASTGCN: S. Guo, Y. Lin, N. Feng, C. Song, and H. Wan, “Attention based spatialtemporal graph convolutional networks for traffic flow forecasting,” in Proc. Assoc. Advance Artif. Intell. Conf.(AAAI), 2019, pp. 922–933.

2.2 消融实验

在这里插入图片描述

2.4

在这里插入图片描述

2.5

在这里插入图片描述

3. Introduction

本文的研究动机:Thus, a data-driven method [17] was proposed to optimize a parameterized global-temporal-sharing Laplace matrix in the network training phase, and it obtained richer space connections compared to the empirical one [15], [16]. But, this graph’s Laplace matrix is still fixed in the prediction phase, which cannot capture the dynamic information of the graph to improve the forecasting accuracy.

本文的一个比较重要的灵感提供文:AAAI19 ASTGCN:attention mechanism based Spatial-Temporal Graph Convolutional Network (ASTGCN) [18] was presented, in which a dynamic Laplace matrix of the graph was constructed at each input sequence data by the spatial attention mechanism [19].

ASTGCN的两个缺点:①it still utilized the empirical Laplace matrix [15], [16] as a mask;② ASTGCN ignored the inner temporal connection between Laplace matrices of the adjacent periods.

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-03-06 13:02:47  更:2022-03-06 13:05:59 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 16:52:23-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码