IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Serialized Multi-Layer Multi-Head Attention for Neural Speaker Embedding阅读笔记 -> 正文阅读

[人工智能]Serialized Multi-Layer Multi-Head Attention for Neural Speaker Embedding阅读笔记

主要看模型方法

Abstract

提出一个串行多层多头注意力针对neural speaker embedding,之前是将一帧的特征聚集起来进行表示。我们提出利用堆叠式的self-attention机制的分层架构获得更精细的特征。串行注意力机制包含一堆self-attention模块,多层堆叠可以学出更多有区别的embedding。

1 Introduction

2 Attention in Neural Speaker Embedding

Neural speaker embeddings是使用DNNs提取的语音话语的固定维表示,x-vector使用最广泛。在x-vector中,temporal aggregation用于将frame-level features转换为单个固定维度向量。全连接层用于将话语级别特征映射到说话人特征。但是某些frames对于辨别说话者是更独特、更重要的相比于其他帧。(It is believed that),不是给每一帧分配相同的权重,而是经常应用注意力机制。

2.1 Statistics pooling

h t h_t ht?是frame processor network的输出的向量,通过statistics pooling,计算 h t h_t ht?沿着时间轴的均值和方差

μ = 1 T ∑ t = 1 T h t \mu = \frac 1 T \sum _{t=1} ^{T} h_t μ=T1?t=1T?ht?

σ = 1 T ∑ t = 1 T h t ? h t ? μ ? μ \sigma = \frac 1 T \sqrt{\sum _{t=1}^{T}h_t\cdot ht -\mu \cdot \mu} σ=T1?t=1T?ht??ht?μ?μ ?

. . .表示每个元素乘法,element-wise multiplication

2.2 Attentive statistics pooling

2.3 self-attentive pooling

3 Serialized Multi-head Attention

介绍所提出的串行多层多头注意力机制。由三个主要的stage组成:a frame-level feature processor, a serialized attention mechanism, and a speaker classifier。

frame-level feature processor: 使用TDNN提取高级特征。

图1的中间部分,一个序列化的注意机制被用来将可变长度的特征序列聚合成一个固定维度的表示。

图1的顶部是前馈分类层。类似于xvector,整个网络被训练成将输入序列分类成说话者类别。

在这里插入图片描述

3.1 Serialized attention

serialiuzed attention机制由N个相同的层堆叠而成,每层由两个堆叠一起的模块组成,self-attention module和feed forward module。每个模块周围使用residual connection。在两个模块之前使用归一化。

我们建议使用堆叠的self-attention,以串行的方式将信息从一层聚合并传播到下一层,而不是并行的multi-head attention。

最初的multi-head attention,输入序列被分成几个称为头的同质子向量。然而,更深的架构增加了特征表达能力,可以在不同级别学习和聚合更多的特征。本文提出的serialized attention mechanism中,self-attention以串行的方式执行,允许模型从更深的层中聚合具有时间上下文的信息。

3.2 Input-aware self-attention

在这里插入图片描述
考虑到均值和标准差能捕捉整个话语的信息和语音动态,我们使用statistics pooling

输入序列 [ h 1 , h 2 , . . . , h T ] [h_1, h_2,...,h_T] [h1?,h2?,...,hT?] h t ∈ R d h_t \in R^d ht?Rd T T T是输入sequence的长度,q的获取

q = W q g ( h t ) q= W_qg(h_t) q=Wq?g(ht?)

g ( . ) g(.) g(.)是2.1节中说明的statistics pooling,用来计算 [ μ , σ ] [\mu ,\sigma] [μ,σ]

k t = W k h t k_t=W_kh_t kt?=Wk?ht?

3.3 Serialized multi-head embedding

feed-forward module:包括两个线性变换,中间一个R二LU激活

F F W ( h ) = W 2 f ( W 1 h + b 1 ) + b 2 FFW(h)=W_2f(W_1h+b_1)+b_2 FFW(h)=W2?f(W1?h+b1?)+b2?

串行注意力机制的embedding被送入一个全连接层和一个标准softmax层,使用交叉熵损失进行反向传播。

4.Experiment

5 Results

6 Conclusion

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-22 13:32:41  更:2021-08-22 13:33:43 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 18:25:20-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码