IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> ERNIE3随笔 -> 正文阅读

[人工智能]ERNIE3随笔

目录

前言

一、ERNIE结构分析

二、预训练的结构

1.基于字的Pretraining

2.基于结构的Pretraining

3.基于知识的Pretraining

?三、预训练的流程

1.Pipeline

2.实例

3.综述

四、总结

1.数据处理

2.模型参数


前言

预训练模型,百度的ERNIE第三代。相比T5 10billion, GPT 175billion 还有清华的M6的100billion,它只有10billion个参数,并且效果在中文50多项NLP任务上,刷新了最好记录。重点关注中文预训练模型。

一、ERNIE结构分析

整个架构分为两个模块

1. Universal Representation Module, 负责提取语义特征(可以使用多层的transformer).在任何时候,这里权重都是共享。采用一个多层的transformer-XL作为backbone。

2.Task-specific Representation Modules,负责提取task-specific的语义特征,参数是从在执行task-specific任务上学习的。

  • ERNIE3不仅可以提取不同任务中的task-specific语义信息,也可以解决大预训练模型在计算硬件和计算时间受限的问题。因为在fine-tune任务时,它能够只更新task-specific的网络。
  • 也是一个多层的transformer-XL,因为它可以捕捉顶层的语义表征。这个模块设置成一个base model size的大小。这样做的好处有三点:a.基本网络有跟强的捕捉语义信息能力; b.可以减少模型参数; c.更小的的可以获得可以感知的,当只有一个fine-tune任务的时候,小模型会可以感知的实现效果。
  • 这个模块包含NLU表征模块(双向网络) 和 NLG表征模块(无方向网络)

二、预训练的结构

1.基于字的Pretraining

Knowledge masked language modeling从ERNIE1.0开始就引用了知识融合。通过mask盖住短语与命名实体词。这样做可以让模型去学习上下文环境和全文环境的依赖关系信息?

Document Language Modeling生成的预训练模型使用传统的模型如GPT GPT2或者序列到序列模型如BART T5? ?ERNIE-GEN, 后者需要一个可靠的解码结构。 此处使用的是传统的方法。除此外,介绍了一种名为ENhanced Recurrence Memory Mechanism 在ERNIE-Doc中,能够比传统recurrence tranformer兼容更长的文本。实现的方法是是改变高层到底层的recurrence变成同层的recurrence.

2.基于结构的Pretraining

sentence reordering延续ERNIE2,目的是为了让模型去学习被打乱句子顺序的关系。一个自然段,被随机切分成1到m个片段,然后随机的打乱这些片段。然后模型要求去识别这些所有的组合,可以看作是一个k分类的问题?k=\sum_{n=1}^{m} n !?

sentence distance 修改传统长度NSP为一个三分类:

????????????????????????两个句子是否相邻;? ?不相邻句子是否在同一个文章;? ? 句子是否在不同文章?

3.基于知识的Pretraining

Universal Knowledge-text prediction(UKTP) 这个是知识词mask的延伸。 这里除了那些无结构化的知识词外,还需要知识图Graph.?

?三、预训练的流程

1.Pipeline

一对输入

  • 知识图的三元组?
  • 与之对应的百科里面的句子

Mask:随机的盖住三元组的关系与句子中的字 。

这样做的目的,是为了预测三元组的关系,模型需要识别出来三元组中实体的头和尾,然后再确定他们的在对应句子中的语义关系。处理的本质和distant supervision 算法在关系抽取任务中类似。distant supervision中,如果两个实体存在一种关系,任何包含这两个实体的句子都很大概率有这种关系。与此同时,在与之相对应的句子中预测字词,模型不仅需要考虑句子中的依存关系,也要考虑三元组的逻辑关系。

2.实例

一个从百科给出的句子,

? ?1. 首先去寻找知识图中的候选三元组,这些三元组中实体的头或者尾是文章的标题。?

? ?2.然后从候选三元组中选出一些,方法是选择那些实体头和尾都出现在文中同一个句子。

3.综述

ERNIE3.0训练NLU网络是通过知识掩盖的方法,去提升模型在学习词汇信息; sentence reordering

和sentence distance是为了学习语法信息;最后UKTP是提升模型的记忆能力和推理能力。另外ERNIE3.0 是通过文本语言模型来训练NLG网络

四、总结

1.数据处理

训练数据:很多

数据的处理数据做的处理:

1)去重

  • 字级别的去重(删除一些标点)
  • ?段落级别的去重(用一个单独的段落 替换掉 两个连续的完全一样的段落)
  • 文本级别的去重(Message Digest5 MD5去重文本,是通过比较最长三个句子的MD5和是否相同)

2)字数少于10个的句子去掉

3)分词用百度自己的工具,去获得命名实体等,从而mask

2.模型参数

  • 通用表征模型和具体任务表征模型都是使用Transformer-XL作为backbone
  • 通用表征模型的结构为48层,4096个hidden units和64个头
  • 具体任务表征模型结构为12层,758个hidden units和12个头
  • 两种模型总共的参数有10billion
  • 激活函数使用GeLU
  • 最大的句子序列长度为6144
  • Adam优化器,学习率是1e-4

总共375billion tokens, 使用了384块 v100显卡

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-07-16 11:17:35  更:2021-07-16 11:17:52 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年4日历 -2024/4/23 21:08:53-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码