IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 图神经网络预训练(1) - Strategies for Pre-training Graph Neural Networks 简介 -> 正文阅读

[人工智能]图神经网络预训练(1) - Strategies for Pre-training Graph Neural Networks 简介

在项目中,做IC50等分子性质预测,但是自有的数据很少,往往只有几百,甚至几十。即使有类似任务的数据,例如从专利或者文献去收集,合并在一起也不多,最多上千。数量上完全不能从头训练一个深度学习模型。这时候就要考虑到迁移学习和预训练,减少模型对数据的需求。

我们这次要复制的文献是一篇非常经典的关于图神经网络预训练策略的文章,是斯坦福大学的工作,发表于2019年。

参考文献

Weihua Hu*, Bowen Liu*, Joseph Gomes, Marinka Zitnik, Percy Liang, Vijay Pande, Jure Leskovec. Strategies for Pre-training Graph Neural Networks. ICLR 2020

他们开发了一种自监督学习的预训练方法,单个节点以及整个图的级别上预训练一个富有表现力的 GNN,以便 GNN 可以同时学习有用的局部和全局表示。

一、背景

成功的迁移学习不仅仅是增加与下游任务来自同一域数据集上的预训练。同时,它需要大量的领域专业知识来仔细选择与感兴趣的下游任务相关的示例和目标标签。 否则,知识从相关的预训练任务转移到新的下游任务可能会损害泛化能力,这被称为负迁移(negative transfer),并显著限制了预训练模型的适用性和可靠性。

文章中解释道:

如图,

(a.i) 当仅使用节点层面预训练时,可以很好地分离不同形状的节点(语义不同的节点),但是,节点嵌入是不可通过组合、池化节点级嵌入产生图的嵌入(由它们的类表示,+ 和 - ) ,因为节点层面的嵌入是不可分离的,放到图层面是没有意义。

(a.ii) 仅使用图层面预训练,图嵌入可以很好地分离,但是单个节点的嵌入不一定能捕获其特定领域的语义。也就是说,图层面训练过程中,节点的特征X,没有特定的意义。

(a.iii) 高质量的节点嵌入使得不同类型的节点可以很好地分离,同时嵌入空间也是可组合的。这允许对整个图进行准确和稳健的表示,并能够将预训练模型稳健地转移到各种下游任务。也就是说,一个好的预训练,既可以得到图层面的特征,也可以得到节点层面的特征,在图层面和节点层面均有意义。

(b) GNN 预训练方法的分类。文章提出的方法,即结构预测(Context Prediction)、属性掩蔽(Attribute Masking)和图级监督预训练(Supervised Attribute Prediction)支持节点层面和图层面预训练。

二、节点层面预训练:Context 和 Attribute Prediction

2.1? 结构预测 Context Prediction

在 Context Prediction 中,子图是围绕选定中心节点(红色标记)的 K-hop 邻域,其中 K 是 GNN 层数,在图中设置为 2。 上下文定义为从中心节点开始的 r1- 和 r2-hop 之间的周围图结构,我们在图中使用 r1 = 1 和 r2 = 4。GNN学习的目标是判断哪些节点属于中心节点的周围结构范围?

2.2?属性掩蔽 Attribute Masking

如上图(b) 在属性掩蔽中,输入节点/边缘属性(例如,分子图中的原子类型)被随机掩蔽,并要求 GNN 预测它们

这里仅仅是简单的介绍一下文章中两种节点层面的预训练方法,在代码实现层面上,还涉及到如何设置节点掩码,如何负采样,如何判断是不是一个周围子节点等。这些留到后面的内容中。

三、结果与性能

?

从上面两张图的结果来看,经过预训练,模型的性能是由明显提高的,虽然提高的并不大。

四、总体评价:

正如文章所言,节点层面和图层面的任务在训练过程中,模型中间层输出的向量是没有意义的,因为模型是照着任务损失的梯度下降方向进行优化的,针对标签相同的结构完全不同的两个分子,他们原子节点特征几乎是相同的。所以,这按文章确实提供一个很好的解决方案,既可以有节点层面的有效特征,又可以由此延申生成图层面特征/任务。

文章源码:GitHub - snap-stanford/pretrain-gnns: Strategies for Pre-training Graph Neural Networkshttps://github.com/snap-stanford/pretrain-gnns

但是由于版本的问题,代码并不能直接运行。

接下来,将解析代码,同时,发布可以运行的版本。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-05-24 18:10:12  更:2022-05-24 18:12:18 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 5:57:34-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码