前言:b站,跟李沐学AI,学习笔记
一、张量的元素访问
1、一个元素:[x,y] 2、一行元素:[x,:] 3、一列元素:[:,y] 4、子区域元素:[1:3,1:], ??即第1行(从0行开始)到第2行,第1列(从0列开始)到最后一行(包含) 5、子区域(跳跃访问):[::3,::2], ??即从第0行开始,间隔两行取,从第0列开始,间隔一列取值;
二、常用数据操作
常用操作
x = torch.arange(N)
torch.zeros(m,n)
torch.tensor([[a1,a2,a3,a4],[b1,b2,b3,b4]])
x.shape
A = torch.reshape(x,(m,n))
a + - * / ** b
torch.cat((x,y), dim = n)
对张量进行运算时,注意广播机制, 例:x = [1,2,3], y = [[1],[2],[3]], x+y = [[2,3,4],[3,4,5],[4,5,6]] 即在运算中,x和y自动填充,x为1行3列,y为3行1列,则x会自动复制第一行,y会复制第一列,最终填充为3行3列的矩阵相加
三、简单数据预处理操作
文件相关操作连接: http://t.csdn.cn/YZ23t
inputs = data.iloc[:, 0:2]
inputs = inputs.fillna(inputs.mean())
inputs = pd.get_dummies(inputs, dummy_na = True)
|