IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 【预训练语言模型】WKLM: Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model -> 正文阅读

[人工智能]【预训练语言模型】WKLM: Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model

【预训练语言模型】WKLM:Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model

??知识增强的预训练语言模型旨在借助外部知识库的结构化知识,在对语言模型进行预训练的时候显式地让模型学习到结构事实知识。本文分享一篇来自ICLR 2020的知识增强预训练的工作。

核心要点:

  • 通过Replacement的策略引入外部知识:根据文本中的实体(entity mention),随机挑选知识库中同类型的其他实体作为替换;
  • 提出弱监督的预训练目标——判断实体是否被替换;
  • 方法优势:不需要太多的实体信息、不需要添加或修改预训练语言模型的结构;

简要信息:

序号属性
1模型名称WKLM
2发表位置ICLR 2020
3所属领域自然语言处理、预训练语言模型
4研究内容知识增强的语言模型
5核心内容Knowledge-enhanced PLM
6GitHub源码
7论文PDFhttps://openreview.net/pdf?id=BJlzm64tDH

一、动机

  • 预训练语言模型可以让模型学习到一个语言的语法和语义信息,并可以迁移到下游的其他任务;预训练语言模型也可以在一些需要语言推理的任务上达到不错的效果;然而原始的文本却无法完全包含明确的实体信息;

These tasks are carefully designed so that the text input alone does not convey the complete information for accurate predictions – external knowledge is required to fill the gap

  • 现有的预训练目标均是基于token-level,而并没有显式的对实体进行建模;

However, existing pretraining objectives are usually defined at the token level and do not explicitly model entity-centric knowledge.
encyclopedic knowledge about real-world entities

??WKLM在提出之际,市面上还只有ERNIE等少数的知识增强模型,作者提出的两个动机也完全符合当前对预训练的两方面考虑,即,如何能够让模型快速有效地学习到知识,以及避免引入过多参数模块。

??本文的主要贡献有:

  • 拓展了现有的知识补全(Knowledge Graph Completion)评测到预训练语言模型中,来测试预训练语言模型对常识知识的理解和表征能力;
  • 提出一种新的弱监督预训练方法来让从非结构化的文本中捕捉实体信息;

二、方法:Entity Replacement Training

??接下来详细讲解WKLM模型如何让模型学习到知识。
??首先,给定一个无监督的句子,使用一些分词工具识别出对应的entity mention,并与Wikipedia进行对齐。

因为语料和知识库全部采用英文Wikipedia,如何实现对Wikipedia的语料获取、数据处理以及知识库对齐,可参考博主的另一篇详解:

??作者基于一种假设,即使用实体链指工具认为是完全正确的,因此,所有从原始的文本中识别的实体都认为是正确的(positive statement),为了让模型可以训练,因此需要构建negative。具体的实现方法可以简单描述为:对某个识别出的实体(entity mention),选择具有相同entity type的其他entity进行替换。

我们以中文为例,假设句子是“中国的首都是北京”,其中“北京”属于城市类别的实体。在构建负样本时,则可以选择“上海”来替换“北京”,因为它们都属于城市类别的实体。

??构建好了负样本,我们则认为当前的句子存在错误的信息,因此我们期望模型能够根据整个上下文来判断句子中的每一个实体是否已经被替换。训练目标为:

J e , C = I e ∈ E + log ? P ( e ∣ C ) + ( 1 ? I e ∈ E + ) ( 1 ? log ? P ( e ∣ C ) ) J_{e, \mathcal{C}}=\mathbb{I}_{e\in\mathcal{E}^+}\log P(e|C) + (1 - \mathbb{I}_{e\in\mathcal{E}^+})(1 - \log P(e|C)) Je,C?=IeE+?logP(eC)+(1?IeE+?)(1?logP(eC))

其中 E + \mathcal{E}^+ E+ 表示所有正确的实体, I e ∈ E + \mathbb{I}_{e\in\mathcal{E}^+} IeE+?则表示如果当前句子中的某个实体 e e e是正确的,则对应系数为1,否则为0。 C \mathcal{C} C则表示当前的句子。因此,上述的训练目标也可以认为是对每一个实体进行二分类。

??整个处理过程如下图所示:

在这里插入图片描述
(1)Replacement
??对于一个文本中,我们不替换相邻entity mention。 换句话说,任何两个被替换的实体之间必须至少有一个未被替换的实体。 这减少了我们替换同一句子中的所有实体并且结果句子碰巧引入正确实体的情况

(2)Model
??完全选择BERT-base的架构,并自己在完成了预训练过程;
预测部分:选择entity mention boundary representation(entity before和after部分的representation进行拼接),并喂入MLP中进行二分类;

(3)Training Objectives

  • 依然使用Masked Language Modeling任务,但确保不在entity mention上进行mask;

When masking tokens, we restrict the masks to be outside the entity spans.

  • 随机挑选5%的token进行mask;

We use a masking ratio of 5% instead of 15% in the original BERT to avoid mask- ing out too much of the context

  • 训练时,为多任务训练:MLM+entity replacement binary classification,batch_size=128

三、实验

??实验评估包括知识图谱补全、问答和多粒度实体分类。

(1)知识补全(Fact Completion)
??为每个三元组构建为文本描述,例如 {Paris, CapitalOf, France} → the capital of France is Paris。并随机mask一个实体,让模型进行预测。10个relations分别构建1000个样本。评价指标选择Hits@10。
??本文选择Wikidata作为知识库(Wikidata是较为成熟的基于英文Wikipedia的知识图谱补全评测任务,数据集下载地址:https://deepgraphlearning.github.io/project/wikidata5m),实验效果如下图所示:

在这里插入图片描述
(2)问答(Question Answering)
??问答主要包括抽取式阅读理解、多跳问答(知识图谱问答)。本文挑选了4个不同的问答数据集,包括WebQuestion、TriviaQA、Quasar-T和SearchQA。实验结果如下所示:

在这里插入图片描述
从实验可以发现,纯粹的WKLM对问答数据集的增益并不明显,在部分数据集上并不如先前工作。而主要的提升则取自于设计的后处理ranking score。
??作者也对SQuAD进行了评测,如下所示:
在这里插入图片描述
同base级别的模型对比,发现提升约1个点左右。

关于Question Answering任务有关的更多细节,可参考博主的相关解读专栏:问答系统

(3)实体分类(Entity Typing)
??实体分类旨在给定一个句子,以及句子中的一个实体mention,任务的目标是对指定的实体进行分类。作者选择FIGER数据集进行评测,实验结果如下图所示:

在这里插入图片描述


总结:

  • WKLM开创了一种知识增强预训练的先河,即相比百度ERNIE模型提出的entity masking或whole word masking,WKLM引入entity replacement的策略,即让模型去判断实体是否是被替换的(或认为实体是否正确)。此任务相比MLM会更加简单,因为搜索空间只有2分类的大小。事实上,这种replacement的思想也被如今的DeBERTa所借鉴,成为较为简单却有效的提升模型性能的策略。
  • 当然WKLM也有不足之处,例如其基于了一种假设,即现有的链指工具所识别的实体一定是正确的。但是对于中文等领域很难实现对文本中的实体进行准确的挖掘(目前中文领域尚未出现类似TagMe的开源工具)。另外,随机的负采样也无法保证采样出来的实体一定是错误的,即存在假负例问题,可以作为未来改进的部分。
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-06-29 19:04:19  更:2022-06-29 19:08:28 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 0:39:57-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码