| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Datawhale八月组队学习--NLP入门之transformer--Day04-05 -> 正文阅读 |
|
[人工智能]Datawhale八月组队学习--NLP入门之transformer--Day04-05 |
提示:本篇博客主要针对BERT、GPT模型的原理展开,并针对下列问题给出自己的看法。
文章目录一、BERT原理??bert 二、GPT原理三、问题回答1. BERT预训练时mask的比例,可以mask更大的比例吗???BERT采用的Masked LM,会选取语料中所有词的15%进行随机mask,论文中表示是受到完形填空任务的启发,但其实与CBOW也有异曲同工之妙。从CBOW的角度,这里
p
=
15
%
p = 15\%
p=15%有一个比较好的解释是:在一个大小为
1
/
p
=
100
/
7
≈
5
1/p = 100/7\approx5
1/p=100/7≈5的窗口中随机选一个词,类似CBOW中滑动窗口的中心词,区别是这里的滑动窗口是非重叠的。那从CBOW的滑动窗口角度,10%~20%都是还ok的比例。 2. BERT如何进行tokenize操作?有什么好处???BERT 实际上使用了 WordPieces 作为 token,而不是使用单词本身。在 WordPiece 中,有些词会被拆分成更小的部分。比如"loved",“loving”,"loves"这三个单词。其实本身的语义都是“爱”的意思,但是如果我们以单词为单位,那它们就算不一样的词,在英语中不同后缀的词非常的多,就会使得词表变的很大,训练速度变慢,训练的效果也不是太好。但很明显对于中文这种优势就不存在了。 3. BERT模型特别大,单张GPU训练仅仅只能放入1个batch的时候,怎么训练???暂无,后补 4. BERT训练的时候mask单词的比例可以特别大(大于80%)吗???暂无,后补 5. BERT预训练是如何做mask的???暂无,后补 6. GPT如何进行tokenize操作?和BERT的区别是什么???暂无,后补 7. word2vec到BERT改进了什么???暂无,后补 总结??通过对问题的回答,加深了对BERT、GPT模型的理解,之后的学习中应该学习一下这种学习方式,多问自己几个“为什么?”,最后感谢datawhale的开源学习。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/1 12:37:11- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |