IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 【论文极速看】ERNIE 3.0 通过用知识图谱加强的语言模型 -> 正文阅读

[人工智能]【论文极速看】ERNIE 3.0 通过用知识图谱加强的语言模型

? 联系方式:

e-mail: FesianXu@gmail.com

github: https://github.com/FesianXu

知乎专栏: 计算机视觉/计算机图形理论与应用

微信公众号
qrcode


之前写过『清华ERNIE』 与 『百度ERNIE』 的对比,也着重介绍了下百度的ERNIE系列模型,主要是ERNIE 1.0 [1]和ERNIE 2.0 [2]。就笔者的读后感而言,百度的工作和学术界有着较大不同,其没有对网络模型本身进行结构上的大改动,而是着重于如何构造合理的预训练任务,以及如何更好地利用数据构造无监督的训练集。合理构造预训练任务这个特点在ERNIE 2.0上体现的淋漓尽致,在ERNIE 2.0中有着三个层次的预训练层级,每个层级还有着不同粒度的子训练任务,具体细节可以参考以前的博文 [3]

而最近百度对ERNIE又有了后续的更新工作,推出了ERNIE 3.0,笔者今天也粗略去看了下文章,在此纪录下个人的看法。ERNIE 3.0 [5] 看起来是接着ERNIE 2.0进行的工作,同样采用了多个语义层级的预训练任务,不同的是:其考虑到不同的预训练任务具有不同的高层语义,而共享着底层的语义(比如语法,词法等),为了充分地利用数据并且实现高效预训练,ERNIE 3.0中对采用了多任务训练中的常见做法,将不同的特征层分为了通用语义层和任务相关层,也即是Fig 1中的Universal Representation和Task-specific Representation,其中的通用语义层一旦预训练完成,就不再更新了(即便在fine-tune时也不再更新),而Task-specific Representation层则会在fine-tune下游任务时候更新,这样保证了fine-tune的高效。同时作者认为不同的预训练任务可以分为两大类,分别是Language Understanding和Language Generation,因此也就是设置了两个Task-specific Representation模块,如Fig 1所示。
ERNIE3

Fig 1. ERNIE 3.0的框图示意。

其中的持续学习和多任务学习文中没有太多介绍,应该是继承了ERNIE 2.0的做法。在3.0中也采用了很多层级的预训练任务,大部分和2.0中的一样,不过其中最后一个提及用知识图谱进行知识加强的预训练任务值得提一下。这个预训练任务笔者看起来,有点像是ERNIE-VIL [4]的预训练设计,不同点在于ERNIE-VIL是针对多模态数据的,比如图片和文本以及其文本对应的解析知识图谱;而ERNIE 3.0采用的是文本以及其解析得到的知识图谱三元组。然而这两个的基本思想极其相似,都是通过知识图谱的三元组作为桥梁去预测其他数据。在ERNIE 3.0中,如Fig 2所示,作者利用知识图谱挖掘算法,对一句话进行三元组挖掘,比如:

The Nightingale is written by Danish author Hans Christian Andersen.

经过对其中的实体检测,关系检测后,得到一个三元组<Andersen, Write, Nightingale>,此时可以将三元组和元语句拼接在一起作为模型输入,有:

Andersen Write Nightingale [SEP] The Nightingale is written by Danish author Hans Christian Andersen [SEP]

那么三元组(用A段表示)可以代表了一对实体以及其关系,这个关系具有一定的语义信息,比如逻辑关系,这个我们一般认为是知识(Knowledge),而元语句(用B段表示)则代表着原始的文本信息(Plain Text)。为了让模型能学习到这个知识图谱的关系,可以采用以下两种方法:

  1. 将三元组中的某个实体或者关系去掉,然后通过B段去预测A段的masked部分。
  2. 将B段的某个实体去掉,通过A段去预测B段被masked的部分。

我们发现这个设计其实和ERNIE-VIL的做法极其相似,因为A,B段包含的信息是冗余的,那么通过A理应可以预测B的缺失部分,而通过B也应该可以预测A的缺失部分。如果缺失部分是和语义(知识)有关的,那么模型应该可以学习到一定的知识才对。因此在ERNIE 3.0中作者称之为“知识图谱加强”。
kg-enhanced

Fig 2. 通过知识图谱进行知识强化的预训练任务。

Reference

[1]. Sun, Yu, Shuohuan Wang, Yukun Li, Shikun Feng, Xuyi Chen, Han Zhang, Xin Tian, Danxiang Zhu, Hao Tian, and Hua Wu. “Ernie: Enhanced representation through knowledge integration.” arXiv preprint arXiv:1904.09223 (2019).

[2]. Sun, Y., Wang, S., Li, Y., Feng, S., Tian, H., Wu, H., & Wang, H. (2020, April). Ernie 2.0: A continual pre-training framework for language understanding. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 34, No. 05, pp. 8968-8975).

[3]. https://fesian.blog.csdn.net/article/details/113859683

[4]. https://fesian.blog.csdn.net/article/details/116275484

[5]. Yu Sun and Shuohuan Wang and Shikun Feng etc. (2021. July). ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Understanding and Generation. arXiv preprint arXiv:2107.02137 (2021)

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-07-07 11:42:59  更:2021-07-07 11:43:23 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/17 20:49:25-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码