| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> transformer -> 正文阅读 |
|
[人工智能]transformer |
记录下自己学习transformer学习笔记 Transformer从零详细解读(可能是你见过最通俗易懂的讲解)_哔哩哔哩_bilibili 1.做什么在在attention is all you need 论文中主要用来进行语句翻译 2.结构1)编码?第一部分:输入(embedding/位置编码) embedding作用:
位置编码? 以RNN为例子 注意:RNN中V ,W ,U在O,S,X层公用一套参数 RNN是按照顺序进行编码的;Transformer是同时进行,并没有告知词句的顺序,因此在输入阶段需要进行位置编码。 位置编码的公式: 偶数位置使用sin,奇数则是cos ? 2)注意力机制比如婴儿在干嘛 ? ?首先进行Q,K点乘(反应两个物体的相似性,越相似其点积的结果越大),在求加权和。 举个例子 ?a是相似度,相加为1. ?q1=x1·Wq;k1=x1·Wk; v1=x1·Wv; ?divide by 8的原因:score值特别大,softmax值很小,容易造成梯度的消息 ÷是为了保证方差为1。 多头注意力机制:使用的是多套参数。效果好,多套使用使得达到多套空间,可以让transformer可以注意到多个子空间的信息。 ?残差的作用:缓解了梯度消失的出现 layernormVSBN 为什么Transformer要用LayerNorm? - 知乎 BN:对所有样本每一个特征都进行 优点 ?缺点 第一个, batch_size较小的时候,效果差。(均值与方差代替整体) 第二个缺点就是BN在RNN中效果比较差。(RNN是动态的) 语义信息不同的话 是不能用同一种 3)解码? 需要对当前单词和之后的单词做mask。 在训练的过程我们是看不到后面的词,如果不mask的话预测和训练存在很大不同,影响实验效果。 ? ? K,V是encoder,Q是本身。 K,V和Q进行交互。 ? ? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 3:52:50- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |