| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> BERT和ViT简介 -> 正文阅读 |
|
[人工智能]BERT和ViT简介 |
文章目录BERT和ViT简介BERT(Bidirectional Encoder Representations from Transformers)是一个语言模型;而VIT(Vision Transformer)是一个视觉模型。两者都使用了Transformer的编码器: BERTBERT输入文本的词向量,输出文本的语义表示。预训练的BERT可以用于各种语言处理任务。 BERT的预训练: (1)任务1:Masked Language Model(MLM)
对一个句子随机用掩码[MASK]挖空。 然后将句子输入BERT得到其表示: 最后将[MASK]对应的表示输入一个多类别线性分类器预测填空: (2)任务2: Next Sentence Prediction (NSP)
不同的句子(例如“醒醒吧”和“你没有妹妹”)用[SEP]标志符隔开,与[CLS]一起输入BERT。 [CLS]对应的表示会输入一个二分类器,判断两个句子是否是连接在一起的。注意,BERT内部是多头自注意力,[CLS]可以放在句子任意位置,最终都能获得其他输入的信息。 使用预训练的BERT: (1)输入一个句子,输出类别:
(2)输入一个句子,对句子中的每个词汇进行分类(例如动词、名词、代词等等)。 同理,其中线性分类器是从头开始训练的,而BERT微调(Fine-tune)参数。 (3)输入两个句子,输出一个类别(例如,判断两个句子是否有指定的某种关系)。 输出 ( s , e ) (s,e) (s,e)表示文章中第 s s s个词和(包括)第 e e e个词之间的内容。例如: 使用两个可训练参数向量分别与document对应的表示做点乘,然后经过Softmax选择最高概率的位置。
ViT
(1) 把图像分成序列的小块(patch),每个小块相当于句子的一个词。 (2)将小块拉平(flatten)成一个向量并使用线性变换矩阵对其进行线性映射。
(4)输入Transformer 编码器
(5)最后是分类,与BERT同理。 注意,VIT的预训练任务也是分类。 [1] 机器学习,李宏毅 ,http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML19.html [2] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding h ttps://arxiv.org/pdf/1810.04805v2.pdf [3] AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE https://arxiv.org/abs/2010.11929 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 0:52:27- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |