动手学深度学习Pytorch版
2.1数据操作
#2.1.1 入门 1.创建一个行向量x
x = torch.arange(12)
print(x)
------
tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11])
2.访问张量的形状(沿每个轴的长度)
print(x.shape)
------
torch.Size([12])
3.张量中元素的总数
print(x.numel())
------
12
4.改变张量的形状(不改变大小)
X = x.reshape(3,4)
print(X)
------
tensor([[ 0, 1, 2, 3],
[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
5.初始化张量矩阵 1)全0初始化:
x = torch.zeros((2,3,4))
print(x)
------
tensor([[[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]],
[[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]]])
2)全1初始化
x = torch.ones((2,3,4))
print(x)
------
tensor([[[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]],
[[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]]])
3)随机采样
x = torch.randn(3,4)
print(x)
------
tensor([[-1.4025, 1.4878, -2.0742, -1.6090],
[ 0.4344, 1.1438, -1.4770, -0.1843],
[ 0.9221, -0.1515, 0.6444, 0.2620]])
每个元素都从均值为0、标准差为1的标准?斯(正态)分布中随机采样。 4)赋值
x = torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(x)
------
tensor([[2, 1, 4, 3],
[1, 2, 3, 4],
[4, 3, 2, 1]])
#2.1.2 运算 1.加减乘除
x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
print(x + y, x - y, x * y, x / y, x ** y)
------
(tensor([ 3., 4., 6., 10.]),
tensor([-1., 0., 2., 6.]),
tensor([ 2., 4., 8., 16.]),
tensor([0.5000, 1.0000, 2.0000, 4.0000]),
tensor([ 1., 4., 16., 64.]))
求幂一元运算
print(torch.exp(x))
------
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])
2.张量连结(concatenate) 行:轴0,形状的第一个元素。 列:轴-1,形状的第二个元素。
X = torch.arange(12, dtype=torch.float32).reshape((3,4))
Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(torch.cat((X, Y), dim=0), torch.cat((X, Y), dim=1))
------
tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.],
[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.]])
tensor([[ 0., 1., 2., 3., 2., 1., 4., 3.],
[ 4., 5., 6., 7., 1., 2., 3., 4.],
[ 8., 9., 10., 11., 4., 3., 2., 1.]])
3.逻辑运算符构建二元张量
print(X==Y)
------
tensor([[False, True, False, True],
[False, False, False, False],
[False, False, False, False]])
4.元素求和 对张量中的所有元素进?求和会产??个只有?个元素的张量。
print(X.sum())
------
tensor(66.)
#2.1.3 广播机制 broadcasting mechanism, 工作于张量形状不同时,通过复制元素来扩展数组,以便在转换之后,两个张量具有相同的形状。
a = torch.arange(3).reshape((3, 1))
b = torch.arange(2).reshape((1, 2))
print(a+b)
------
tensor([[0, 1],
[1, 2],
[2, 3]])
#2.1.4 索引和切片 1.访问读取元素
x = torch.arange(12).reshape(3,4)
print(x,x[-1],x[1:3])
------
tensor([[ 0, 1, 2, 3],
[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
tensor([ 8, 9, 10, 11])
tensor([[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
2.指定索引写入
x[1,2] = 9
print(x)
------
tensor([[ 0, 1, 2, 3],
[ 4, 5, 9, 7],
[ 8, 9, 10, 11]])
3.多个元素赋值
x[0:2,:] = 12
print(x)
------
tensor([[12, 12, 12, 12],
[12, 12, 12, 12],
[ 8, 9, 10, 11]])
#2.1.5 节省内存 1.指向新分配的内存张量
X = torch.tensor([1.0, 2, 4, 8])
Y = torch.tensor([2, 2, 2, 2])
before = id(Y)
Y = Y+X
print(id(Y) == before)
------
False
2.执行原地操作(切片法) zeros_like()用于分配全0的块,形状与括号内相同。
Z = torch.zeros_like(Y)
print("id(Z):",id(Z))
Z[:] = X+Y
print("id(Z):",id(Z))
------
id(Z): 2324382020096
id(Z): 2324382020096
3.减少内存开销
before = id(X)
X += Y
print(id(X) == before)
-----
True
#2.1.6 转换为其他Python对象
X = torch.tensor([1, 2, 4, 8])
A = X.numpy()
B = torch.tensor(A)
print(type(A),type(B))
------
<class 'numpy.ndarray'> <class 'torch.Tensor'>
a = torch.tensor([3.5])
print(a, a.item(), float(a), int(a))
-----
tensor([3.5000]) 3.5 3.5 3
|