| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> NLP-注意力机制 -> 正文阅读 |
|
[人工智能]NLP-注意力机制 |
????????我们以机器翻译为例。“机器学习”->“machine learning” ????????传统的做法是这样的: ????????我们先用RNN对“机器学习”进行编码(encoder),即把最后一个隐藏层的输出拿出来,作为输入丢进RNN生成器里面进行解码(decoder)。为了防止初始编码的影响力减弱,可以对每一个时间步都将初始编码作为一个输入。编码器和解码器是放在一起训练的。他们的参数可以是一样的,也可以是不一样的。
?Attention-based model????????注意力机制可以使解码器重点关注一些重要的信息。 ????????当我们翻译第一个单词“machine”的时候,我们希望解码器关注“机器”两个字。我们引入一个值z(z的取值是上一个时间步隐藏层的输出,初始的z0要自定义一个值)。使用这个值z对编码器中每个时间步隐藏层的输出h(i)进行匹配,匹配的规则需要自己定义。可以是h和z的余弦相似度,也可以是一个小型的神经网络,输入h和z,输出一个匹配度的值。 ????????这样会输出4个值,每一个乘上对应的h(这里的可以理解为h的权重,即影响力),再求和,就得到了解码器第一个时间步的输入c0。 ? ?????????可以不加softmax层。 ? ? ? ? ? ? ? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 20:24:02- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |