提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
李沐精读GNN论文“A Gentle Introduction to Graph Neural Networks”,读后摘要。
一、内容摘要
图三大层面的问题: 1、图级别 2、节点级别 3、边级别
图的节点、边、全局信息、连接性四种类型的信息来做预测。
GNN:对图上所有属性(图的节点、边、全局信息)进行的一个可以优化的变换,这个变换可以保证图的对称信息。 message passing neural network 是一种GNNs框架,当然GNN也可以用别的方式构建。 GNN的输入和输出都是图,它会对节点、边的信息进行变换,但图连接性是不变的。
稀疏矩阵: 矩阵中,数值为0的元素数目远远多于非0元素的数目,并且非0元素分布没有规律时,则称该矩阵为稀疏矩阵,否则为稠密矩阵。其存储格式:COO(Coordinate Format,每个元素用一个三元组表示)、CSR(Compressed Sparese Row)。
MLP? 神经网络的变种目前有很多,如误差反向传播(Back Propagation,BP)神经网路、概率神经网络、卷积神经网络(Convolutional Neural Network ,CNN-适用于图像识别)、时间递归神经网络(Long short-term Memory Network ,LSTM-适用于语音识别)等。但最简单且原汁原味的神经网络则是多层感知器(Multi-Layer Perception ,MLP),只有理解经典的原版,才能更好的去理解功能更加强大的现代变种。 最典型的MLP包括三层:输入层、隐层、输出层,MLP神经网路不同层之间是全连接的(全连接:上一层的任何一个神经元与下一层的所有神经元都有连接)。 https://zhuanlan.zhihu.com/p/63184325 神经网路主要有三个基本要素:权重、偏置和激活函数。
end-to-end prediction task? 端到端指的是输入是原始数据,输出是最后的结果,原来输入端不是直接的原始数据,而是在原始数据中提取的特征。
二、参考
https://www.bilibili.com/video/BV1iT4y1d7zP?from=search&seid=17425771631747736862&spm_id_from=333.337.0.0
https://zhuanlan.zhihu.com/p/434132221
https://distill.pub/2021/gnn-intro/
https://blog.csdn.net/yhb1047818384/article/details/78996906
|