| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> BartModel 输出变量解释(来自hugging face 网站) -> 正文阅读 |
|
[人工智能]BartModel 输出变量解释(来自hugging face 网站) |
last_hidden_state :?(类型为 torch.FloatTensor ,形状?(batch_size, sequence_length, hidden_size)) 模型的最后一层解码器输出的隐藏状态序列。 如果使用past_key_values,则只输出形状为(batch_size, 1, hidden_size)的序列的最后一个隐藏状态。 past_key_values? :?(tuple(tuple(torch.FloatTensor)), optional ,当use_cache=True被传递或当config.use_cache=True时返回) 长度为config.n_layers的tuple(torch.FloatTensor)的元组。 每个元组有2个张量,形状为(batch_size, num_heads, sequence_length, embed_size_per_head))和另外2个张量,形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)。 包含预先计算好的隐藏状态(自注意力块和交叉注意力块中的键和值),可以用来(参见past_key_values 的 输入)加速顺序解码。 decoder_hidden_states : (tuple(torch.FloatTensor), optional, 当 output_hidden_states=True被传递或config.output_hidden_states=True时返回) - torch.FloatTensor 类型的元组(一个用于嵌入的输出+一个用于每层的输出),形状为(batch_size, sequence_length, hidden_size)。 每层输出的解码器的隐藏状态加上初始嵌入的输出。 decoder_attentions?:? (tuple(torch.FloatTensor), optional, when output_attentions=True is passed or when config.output_attentions=True) - torch.FloatTensor 类型的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。 解码器的注意力权重,在注意力计算softmax之后,用于计算自注意力头的加权平均值。 cross_attentions:? (tuple(torch.FloatTensor), optional, when output_attentions=True is passed or when config.output_attentions=True) - torch.FloatTensor 类型的元组(每层一个), 形状为?(batch_size, num_heads, sequence_length, sequence_length) 解码器交叉注意力层的注意力权重,在注意力计算softmax之后,用于计算交叉注意力头中的加权平均值。 encoder_last_hidden_state:? (torch.FloatTensor 类型张量,?形状为?(batch_size, sequence_length, hidden_size), 可选) 模型中最后一层编码器输出的隐藏状态序列。 encoder_hidden_states: (tuple(torch.FloatTensor), 可选, 当output_hidden_states=True被传递或config.output_hidden_states=True时返回) - torch.FloatTensor 类型元组(一个用于嵌入输出 ,一个用于每层输出), 形状为(batch_size, sequence_length, hidden_size)。 编码器在每层输出的隐藏状态加上初始嵌入输出。 encoder_attentions: (tuple(torch.FloatTensor), optional, when output_attentions=True is passed or when config.output_attentions=True) -?torch.FloatTensor(每层一个)的元组,?形状(batch_size, num_heads, sequence_length, sequence_length。 编码器的注意力权重,在对注意力计算 softmax 之后,用于计算自注意力头的加权平均值。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 14:48:29- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |