IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 2.1数据操作 -> 正文阅读

[人工智能]2.1数据操作

动手学深度学习Pytorch版

2.1数据操作

#2.1.1 入门
1.创建一个行向量x

x = torch.arange(12)
print(x)
------
tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])

2.访问张量的形状(沿每个轴的长度)

print(x.shape)
------
torch.Size([12])

3.张量中元素的总数

print(x.numel())
------
12

4.改变张量的形状(不改变大小)

X = x.reshape(3,4)
print(X)
------
tensor([[ 0,  1,  2,  3],
        [ 4,  5,  6,  7],
        [ 8,  9, 10, 11]])

5.初始化张量矩阵
1)全0初始化:

x = torch.zeros((2,3,4))
print(x)
------
tensor([[[0., 0., 0., 0.],
         [0., 0., 0., 0.],
         [0., 0., 0., 0.]],

        [[0., 0., 0., 0.],
         [0., 0., 0., 0.],
         [0., 0., 0., 0.]]])

2)全1初始化

x = torch.ones((2,3,4))
print(x)
------
tensor([[[1., 1., 1., 1.],
         [1., 1., 1., 1.],
         [1., 1., 1., 1.]],

        [[1., 1., 1., 1.],
         [1., 1., 1., 1.],
         [1., 1., 1., 1.]]])

3)随机采样

x = torch.randn(3,4)
print(x)
------
tensor([[-1.4025,  1.4878, -2.0742, -1.6090],
        [ 0.4344,  1.1438, -1.4770, -0.1843],
        [ 0.9221, -0.1515,  0.6444,  0.2620]])

每个元素都从均值为0、标准差为1的标准?斯(正态)分布中随机采样。
4)赋值

x = torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(x)
------
tensor([[2, 1, 4, 3],
        [1, 2, 3, 4],
        [4, 3, 2, 1]])

#2.1.2 运算
1.加减乘除

x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
print(x + y, x - y, x * y, x / y, x ** y)
------
(tensor([ 3., 4., 6., 10.]),
tensor([-1., 0., 2., 6.]),
tensor([ 2., 4., 8., 16.]),
tensor([0.5000, 1.0000, 2.0000, 4.0000]),
tensor([ 1., 4., 16., 64.]))

求幂一元运算

print(torch.exp(x))
------
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])

2.张量连结(concatenate)
行:轴0,形状的第一个元素。
列:轴-1,形状的第二个元素。

X = torch.arange(12, dtype=torch.float32).reshape((3,4))
Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(torch.cat((X, Y), dim=0), torch.cat((X, Y), dim=1))
------
tensor([[ 0.,  1.,  2.,  3.],
        [ 4.,  5.,  6.,  7.],
        [ 8.,  9., 10., 11.],
        [ 2.,  1.,  4.,  3.],
        [ 1.,  2.,  3.,  4.],
        [ 4.,  3.,  2.,  1.]]) 
tensor([[ 0.,  1.,  2.,  3.,  2.,  1.,  4.,  3.],
        [ 4.,  5.,  6.,  7.,  1.,  2.,  3.,  4.],
        [ 8.,  9., 10., 11.,  4.,  3.,  2.,  1.]])

3.逻辑运算符构建二元张量

print(X==Y)
------
tensor([[False,  True, False,  True],
        [False, False, False, False],
        [False, False, False, False]])

4.元素求和
对张量中的所有元素进?求和会产??个只有?个元素的张量。

print(X.sum())
------
tensor(66.)

#2.1.3 广播机制
broadcasting mechanism, 工作于张量形状不同时,通过复制元素来扩展数组,以便在转换之后,两个张量具有相同的形状。

a = torch.arange(3).reshape((3, 1))
b = torch.arange(2).reshape((1, 2))
print(a+b)
------
tensor([[0, 1],
        [1, 2],
        [2, 3]])

#2.1.4 索引和切片
1.访问读取元素

x = torch.arange(12).reshape(3,4)
print(x,x[-1],x[1:3])
------
tensor([[ 0,  1,  2,  3],
        [ 4,  5,  6,  7],
        [ 8,  9, 10, 11]]) 
tensor([ 8,  9, 10, 11]) 
tensor([[ 4,  5,  6,  7],
        [ 8,  9, 10, 11]])

2.指定索引写入

x[1,2] = 9
print(x)
------
tensor([[ 0,  1,  2,  3],
        [ 4,  5,  9,  7],
        [ 8,  9, 10, 11]])

3.多个元素赋值

x[0:2,:] = 12
print(x)
------
tensor([[12, 12, 12, 12],
        [12, 12, 12, 12],
        [ 8,  9, 10, 11]])

#2.1.5 节省内存
1.指向新分配的内存张量

X = torch.tensor([1.0, 2, 4, 8])
Y = torch.tensor([2, 2, 2, 2])
before = id(Y)
Y = Y+X
print(id(Y) == before)
------
False

2.执行原地操作(切片法)
zeros_like()用于分配全0的块,形状与括号内相同。

Z = torch.zeros_like(Y)
print("id(Z):",id(Z))
Z[:] = X+Y
print("id(Z):",id(Z))
------
id(Z): 2324382020096
id(Z): 2324382020096

3.减少内存开销

before = id(X)
X += Y #或 X[:] = X + Y
print(id(X) == before)
-----
True

#2.1.6 转换为其他Python对象

X = torch.tensor([1, 2, 4, 8])
A = X.numpy()
B = torch.tensor(A)
print(type(A),type(B))
------
<class 'numpy.ndarray'> <class 'torch.Tensor'>
a = torch.tensor([3.5])
print(a, a.item(), float(a), int(a))
-----
tensor([3.5000]) 3.5 3.5 3
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-10 13:25:17  更:2021-08-10 13:26:07 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 21:31:09-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码