| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Transformer(一)搞懂Transformer及Self-attention/Multi-head Self-attention中的Q、K、V -> 正文阅读 |
|
[人工智能]Transformer(一)搞懂Transformer及Self-attention/Multi-head Self-attention中的Q、K、V |
老师讲得真的很好,一听就懂了 李宏毅2020机器学习深度学习(完整版)国语_哔哩哔哩_bilibili 一、整体架构Transformer是2017年Google发表的Attention Is All You Need,下载地址:https://arxiv.org/pdf/1706.03762.pdf Transformer遵循编码器-解码器结构,编码器和解码器都分别如下图的左右两部分所示: 编码器:编码器由N = 6个相同的层组成。每一层有两个子层。第一种是多头自注意机构,第二种是简单的位置全连接网络。作者对两个子层使用残差连接,并加入层归一化(LN)。也就是说,每个子层的输出是:LayerNorm(x+ Sublayer(x)),其中Sublayer(x)是子层本身实现的函数。 解码器:解码器也由N = 6个相同层组成。除每个编码器层中的两个子层外,解码器还插入第三个子层,该子层对编码器的输出执行多头注意。与编码器类似,作者对每个子层使用残差连接,然后进行层归一化(LN)。并且在解码器中的自注意子层中加入mask并将输出被位置偏移,以确保位置 i 的预测只依赖于小于 i 位置的已知输出。 二、注意力机制Transformer在以下三处使用多头注意力:
Self-attention注意函数可以描述为将查询键和一组键值对映射到输出,其中查询Q、键K、值V和输出都是向量。输出是作为值V的加权和计算的,其中分配给每个值V的权重是通过查询Q与相应键K的兼容性函数计算的。不懂的话建议大家看篇首提到的李宏毅老师的视频。
首先,拿每个query q去对每个key k做attention。下面3页PPT讲的是:计算查询Q与所有键K的点积,每个键除以?(d是维度),并应用softmax函数处理,最后与值V的权重相乘。我们计算输出矩阵为: ?同理可求b2... ?整体计算流程如下所示: 反正就是一串矩阵乘法,用GPU可以加速。 Multi-head Self-attention不同head可能关注的点不一样。
参考链接: Transformer论文解读一(Transformer)_蓝鲸鱼BlueWhale的博客-CSDN博客_transformer论文 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 8:55:25- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |