1.1 数据操作
"""
1.1.1 入门操作
首先,我们要理解什么是**tensor**,如何创建tensor,如何查询tensor的各种属性,同时tensor又可以做什么事情。
tensor译为张量,在数学意义上,这是一个n维数组,也可以理解为矩阵。
"""
import torch
x = torch.arange(12)
print(x)
print(x.shape)
X = x.reshape(3,4)
print(X)
print(X.shape)
print(x.numel())
print(X.numel())
print(torch.zeros(2,3,4))
print(torch.ones(2,3,4))
print(torch.randn(3,4))
print(torch.tensor([[1,2,3,4],[5,6,7,8],[9,10,11,12]]))
"""
1.1.2 张量与运算符
元素或张量之间的数学运算才是我们需要掌握的内容,单纯的数据输入并不刻意完成相关的学习任务
这里详细介绍张量的运算符运算、连结运算等
"""
x = torch.tensor([1,2,3,4])
y = torch.tensor([1.0,2.0,2,1])
print(x + y)
print(x - y)
print(x * y)
print(x / y)
print(x ** y)
print(torch.exp(x))
X = torch.arange(12, dtype=torch.float32).reshape((3,4))
Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(torch.cat((X,Y), dim = 0))
print(torch.cat((X,Y), dim = 1))
print(X == Y)
print(X.sum())
"""
1.1.3 广播机制
在数学意义上,广播机制表现为矩阵相加
通过以下例子来解释
"""
a = torch.arange(3).reshape((3,1))
b = torch.arange(2).reshape(1,2)
print(a)
print(b)
c = a + b
print(c)
"""
1.1.4 索引与切片
索引与切片是Python的基础内容,张量同样具有这两个性质
"""
print(Y[-1])
print(Y[1:3])
Y[1,2] = 10
print(Y)
Y[0:2,:] = 100
print(Y)
"""
1.1.5 节约内存
当我们给一个变量指向张量1,若将其再指向张量2,那么原本存放张量1的那块内存空间就会释放,从而指向张量2所在的内存空间或为张量2创建一块内存空间,这里可以通过id()这个函数来进行演示
同样,若一直要分配新的内存,也可能引发一系列的问题,因此也有原地操作内存的方法
"""
print(id(X))
print(id(Y))
Y = Y + X
print(id(Y))
Z = torch.zeros_like(Y)
print(id(Z))
Z[:] = X + Y
print(id(Z))
"""
1.1.6 不同Python对象之间的转换
由于不同的深度学习框架对张量的定义不一定一样,所以Python也提供了不同类型数据之间的转换
"""
A = X.numpy()
B = torch.tensor(A)
print(type(A))
print(type(B))
a = torch.tensor([3.5])
a, a.item(), float(a), int(a)
|