1.官方讲解
Tensor.repeat(*sizes) → [Tensor]
将 tensor 沿着指定维度复制。不同于 expand() ,该函数复制了 tensor 的数据,而不是只返回 tensor 的一个视图。关于 expand() ,详情可见 PyTorch expand() 函数_长命百岁?的博客-CSDN博客
参数:
sizes (torch.Size or int...) – 沿着每一维复制的次数
注意:
repeat dims 的维度不能小于 tensor 的维度(可以大于)。
2.例子
2.1.repeat dims的维度与 tensor 维度相同
a = torch.rand(2, 3)
b = a.repeat(2, 2)
print(a)
print(b)
print(b.shape)
>>tensor([[0.0757, 0.3003, 0.9648],
[0.1594, 0.8253, 0.1031]])
>>tensor([[0.0757, 0.3003, 0.9648, 0.0757, 0.3003, 0.9648],
[0.1594, 0.8253, 0.1031, 0.1594, 0.8253, 0.1031],
[0.0757, 0.3003, 0.9648, 0.0757, 0.3003, 0.9648],
[0.1594, 0.8253, 0.1031, 0.1594, 0.8253, 0.1031]])
>>torch.Size([4, 6])
可见。b 的维度变成了 Size([4, 6]) ,两个维度的大小都变成原来的两倍
print(a.storage().data_ptr())
print(b.storage().data_ptr())
>>94149111617984
>>94149109116160
可见 a 和 b 并不共用一个存储区,也就说明了 repeat 函数是进行数据的复制,而不是返回一个 view
2.2.repeat dims的维度大于 tensor 维度
a = torch.rand(2, 3)
b = a.repeat(2, 2, 2)
print(a)
print(b)
print(b.shape)
>>tensor([[0.8346, 0.2550, 0.8920],
[0.1972, 0.1876, 0.6154]])
>>tensor([[[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],
[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154],
[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],
[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154]],
[[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],
[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154],
[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],
[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154]]])
>>torch.Size([2, 4, 6])
可见,repeat 默认后面的维度是用来复制原 tensor 的 ,如果参数更多的话,会在前面增加维度。(因为不能在后面增加维度,后面都没有数据,复制谁呢?)在前面增加维度,就可以复制该维度后面的数据。
|