| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Self-attention原理 以及 与CNNRNN对比 -> 正文阅读 |
|
[人工智能]Self-attention原理 以及 与CNNRNN对比 |
Self-attentionSelf-attention整体架构每次输入的Sequence长度不一样,但输出数量要与输入数量相同 (例如:词性标注)
运行原理
计算attention score以求出 a1 的输出 b1 为例子 Self-attention目的是为了考虑整个Sequence,但是又不是所有的Sequence的内容都是重要的,所以需要进行判断相关性 计算两个向量的关联程度 α \alpha α的方法
在Self-attention中计算attention score: α \alpha α
根据attention score来抽取重要的信息
从矩阵乘法的角度思考
先产生q,k,v;再根据q找出相关的位置;再对v做weight sum 进阶版本 - Multi-head Self-attention
以 2个heads 为例子
此时会得到两个结果矩阵,再将两个拼接起来,再乘以一个矩阵的转置得到最后的结果 Positional Encoding - 加入位置信息
为每一个位置设置不同的positional vector,将其加到输入a上 但产生positional vector是一个在研究的问题 参考论文:Learning to Encode Position for Transformer with Continuous Dynamical Model 应用
对于Self-attention处理:图中矩阵可以看成5*10个vector,每个vector是3维向量 Self-attention VS. CNNCNN是简化版的Self-attention
Self-attention会考虑每个向量的相关性,所以其receptive field可以看出自己学习出来的 而CNN的receptive field是自己指定的 相关论文: Self-attention相比CNN更加的flexible,需要更多的data,否则更可能over fitting [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OsoiaNK8-1635337818356)(C:/Users/pc/AppData/Roaming/Typora/typora-user-images/image-20211027200700993.png)] Self-attention VS. RNN
learn moreReference |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 8:41:27- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |