IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> NLP系列:attention和self-attention -> 正文阅读

[人工智能]NLP系列:attention和self-attention

一、背景介绍

随着self-attention在Transformer中的应用,attention技术自然语言处理任务中的应用越来越广泛,成为NLP的基础技术之一,本篇博文介绍attention的原理、计算方法以及应用。

二、attention

我们人脑的生物神经网络同样存在网络容量问题,人脑中的工作记忆大概只有几秒钟的时间,类似于循环神经网络中的隐状态。而人脑每个时刻接收的外界输入信息非常多,包括来自于视觉、听觉、触觉的各种各样的信息。单就视觉来说,眼睛每秒钟都会发送千万比特的信息给视觉神经系统。人脑在有限的资源下,并不能同时处理这些过载的输入信息。大脑神经系统有两个重要机制可以解决信息过载问题:注意力和记忆机制。比如我们在看一张图片时,并不会仔细观察图片的全部细节,而是将注意力集中在图片的某个或者某几个核心区域。

对于计算机来讲,在计算能力有限情况下,注意力机制(Attention Mechanism)作为一种资源分配方案,将有限的计算资源用来处理更重要的信息,是解决信息超载问题的主要手段。当神经网络再处理大量的输入信息时,也可以借鉴人脑的注意力机制,只选择一些关键信息进行处理,来提高神经网络的效率。

注意力一般分为两种:
自上而下有意识的注意力,称为聚焦式注意力(Focus attention):指的是有预定目的的、依赖任务的、主动有意识地聚焦于某一对象的注意力。【注意力机制】
自下而上无意识的注意力,称为基于显著性的注意力(Saliency attention),指的是由外界刺激驱动的注意,不需要主动干预,与任务无关。 【比如Max-Pooling、门控机制】

1、attention

为了从 N N N个输入向[ x 1 , ? ? ? , x N x1 , · · · , xN x1,???,xN]中选择出和某个特定任务相关的信息,我们需要引入一个和任务相关的表示,称为查询向量(Query Vector),并通过一个打分函数来计算每个输入向量和查询向量之间的相关性。给定一个和任务相关的查询向量 q q q,我们用注意力变量 z ∈ [ 1 , N ] z ∈ [1,N] z[1,N]来表示被选择信息的索引位置,即 z = i z = i z=i表示选择了第 i i i个输入向量。首先计算在给定 q q q X X X下,选择第 i i i个输入向量的概率 α ( i ) \alpha(i) α(i)
α ( i ) = p ( z = i ∣ X , q ) = s o f t m a x ( s ( x i , q ) ) = e x p ( s ( x i , q ) ) ∑ j = 1 N e x p ( s ( x i , q ) ) \alpha(i) = p(z=i | X, q) = softmax(s(x_i,q))=\frac{exp(s(x_i,q))}{\sum_{j=1}^{N}exp(s(x_i,q))} α(i)=p(z=iX,q)=softmax(s(xi?,q))=j=1N?exp(s(xi?,q))exp(s(xi?,q))?
其中 α ( i ) \alpha(i) α(i)称为注意力分布(Attention Distribution), s ( x i , q ) s(x_i,q) s(xi?,q)为注意力打分函数,有以下几种:
加性模型: s ( x i , q ) = v T t a n h ( W x i + U q ) ) s(x_i,q)=v^{T}tanh(Wx_i+Uq)) s(xi?,q)=vTtanh(Wxi?+Uq))
点积模型: s ( x i , q ) = x i T q s(x_i,q)=x_i^{T}q s(xi?,q)=xiT?q
缩放点积模型: s ( x i , q ) = x i T q d s(x_i,q)=\frac{x_i^{T}q}{\sqrt{d}} s(xi?,q)=d ?xiT?q?
双线性模型: s ( x i , q ) = x i T W q s(x_i,q)=x_i^{T}Wq s(xi?,q)=xiT?Wq
其中 W , U , v W, U, v W,U,v为可学习的参数, d d d 为输入向量的维度。

2、attention的变体

三、self-attention

四、总结

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-24 14:56:26  更:2021-10-24 14:56:36 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 8:35:50-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码