IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> BERT、Elmo、GPT -> 正文阅读

[人工智能]BERT、Elmo、GPT

解决问题:“机器如何看懂人类的文字,如何把文字输入电脑”

一、发展历史

1.1 of n encoding

每一个词有一个独特编码,词于词之间没有任何关联(欧氏距离一样)
在这里插入图片描述

2.word class

给词分类,但太粗糙了。每个class里仍有1.中的问题(欧式距离相同)
在这里插入图片描述

3.word embedding

每个词汇用一个向量表示,向量中的每一个维度表示某个特性。(用上下文完成训练)
同一个type,同一个embedding
但对于**【一词多义】(不同的token(含义),同一个type(字形))**,仍用同一个embedding,并不准确
在这里插入图片描述

4.contextualized word embedding

一个token对应一个embedding(也是通过上下文)
上下文相似,就会有相似的embedding
token:语义
输入句子的分词结果,注意即使同一个词出现两遍,他分完词也是2个token,有不同的embedding
type:spelling

4.1ELMO(embedding from language model)

从输入预测下一个token
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
把上下文的embedding链接起来
在这里插入图片描述

问题:当网络深度大于1时,各层的embedding如何处理

在这里插入图片描述
elmo:我全都要

不同任务的alpha1、2不同
在这里插入图片描述

4.2 bert

1.transformer的encoder

Elmo:基于rnn
bert:基于self attention

2.不需要annotation

bert 不需要label资料(annotation 注解),只要一大堆句子就好了,只训练transformer的encoder就好了
transformer需要label资料(annotation 注解)

*注意:中文的训练用字比词好,因为中文的字有限,词不好穷举,所以现在中文的bert 预训练只有字

二、bert

1.training of bert

1.1 masked LM(完型填空)

随机15%的词汇被遮盖,被置换成一个特殊的token【mask】
解决的问题:完形填空,预测被遮盖住的是什么词
在这里插入图片描述
**方法:**抽出被mask的单词经过bert网络后输出的vector,输入到LM分类器中(线性的,弱分类器),让分类器预测是哪个词
思想:LM很弱,那么要分类正确,BERT的representation就必须很强,可以通用
形成的问题:完形填空的两个词,填在同一个地方没有违和感,那这2词embedding很像

1.2.next sentence prediction(预测下一个句子是什么)

判断两个句子是不是连在一起的

需要两个标记【SEP】【CLS】
在这里插入图片描述
把【CLS】的embedding,放进linear binary 分类器,输出判断,是否是下一个句子
linear binary 分类器和bert是一起被训练的
在这里插入图片描述

问题:为什么把判断标志放在开头?

因为bert里是self-attention结构,不是RNN(rnn要放在开头)
self attention的特点是【天涯若比邻】(不考虑位置embedding时),两个相邻的word和距离很远的word是一样的,所以前后都一样

论文中1.1masked LM和1.2NSP是一起使用的,bert同时训练这两种embedding效果最好

2.how to use bert

2.1.把bert当elmo,输出embedding,抽取相关特征,做你想做的事情

2.2分类

输入:句子
输出:分类
比如,文章分类、句子是正面还是负面信息
在这里插入图片描述

2.3词的分类

输入:单句
输出:每个词的类别
比如,slot filling
在这里插入图片描述
每个词汇output的embedding,进入linear分类器(LC)输出每个词的分类分类
end to end,LC(从头学)和bert(fine-tune)一起训练
在这里插入图片描述

2.4 推断关系

输入:2个句子
输出:分类
比如,【自然语言推论】,给前提+假设,判断假设对不对
在这里插入图片描述

2.5 extraction based Question Answering

给model读一篇文章,问他一个问题,希望他能给出答案
,答案一定在文章里(extraction based)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
如果s>e,说明此题无答案

3.bert每层学到了什么

24层
在这里插入图片描述
NLP的几个任务:POS、、、relations(图左)
位置,文法,指代,词间的关系等等

一个词的24层的vector抽出来做weight descent
weight(图右深蓝,哪一层的方块越长,说明那层的embedding乘上的weight越大)是根据任务训练出来的,看weight的情况,就可而已知道什么任务特别需要哪些层

图右的每一个横轴表示一个任务,某层在该任务中的值(蓝色方块)越高,说明这个任务越需要哪一层

4.multilingual bert

104种语言的资料都给同一个bert学习,他会学到不同语言之间的对应关系
在这里插入图片描述
有人教他了英文文章的分类,他自动就学会了中文文章的分类

三、ERNIE

专为中文设计
bert时 maskLM用盖的是字,但是对中文来说遮盖字太容易被猜出来了,应该遮盖词——ERNIE
在这里插入图片描述
在这里插入图片描述

四、GPT—transformer的decoder

generative pre training
买点:巨大
GPT-2:1542M
GPT-3:1700M

4.1解决问题:这个词的下一个是什么

输入:潮水
输出:退了
再增加输入:退了
输出:就
。。。

4.3 步骤

在这里插入图片描述
退了拿下来,再加入输入中
在这里插入图片描述
不断重复
在这里插入图片描述

4.4 用途

在这里插入图片描述
可以用来写作,给文章的前半段,可以自己完成文章

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-15 15:32:20  更:2021-08-15 15:36:16 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 20:32:59-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码