IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> PyTorch——Tensors -> 正文阅读

[人工智能]PyTorch——Tensors

Tensors是一种特殊的数据结构,类似于数组和矩阵。在PyTorch中我们使用Tensors对模型以及模型参数的输入和输出进行编码。 Tensors类似于NumPy中的ndarrys,除了类似ndarrys之外,Tensors还可以运行加速在在GPU或其他硬件上。实际上,Tensors和NumPy的数组可以共享底层的内存,消除了复制数据的操作。Tensors也对自动分化的操作进行了优化。

import torch
import numpy as np

初始化Tensor

Tensors有很多方式进行初始化。

通过数据

data = [[1, 2],[3, 4]]
print(data)
x_data = torch.tensor(data)
print(x_data)

out:
[[1, 2], [3, 4]]
tensor([[1, 2],
        [3, 4]])

通过NumPy数组

Tensors可以通过NumPy数组创建

np_array = np.array(data)
print(np_array)
x_np = torch.from_numpy(np_array)
print(x_np)

out:
[[1 2]
 [3 4]]
tensor([[1, 2],
        [3, 4]], dtype=torch.int32)

随机或者是通过常量初始化

元组的尺寸通过tensor输出。

shape = (2,3,)
rand_tensor = torch.rand(shape)
ones_tensor = torch.ones(shape)
zeros_tensors = torch.zeros(shape)

print(f"Random Tensor: \n {rand_tensor} \n")
print(f"Ones Tensor: \n {ones_tensor} \n")
print(f"Zeros Tensor: \n {zeros_tensors} \n")

out:
Random Tensor: 
 tensor([[0.8378, 0.9185, 0.5126],
        [0.1094, 0.2860, 0.5684]]) 

Ones Tensor: 
 tensor([[1., 1., 1.],
        [1., 1., 1.]]) 

Zeros Tensor: 
 tensor([[0., 0., 0.],
        [0., 0., 0.]]) 

Tensor的属性

tensor的属性描述了它的形状、数据类型和它所运行在的硬件环境。

tensor = torch.rand(3, 4)
print(f"Shape of tensor: {tensor.shape}")
print(f"Datatype of tensor: {tensor.dtype}")
print(f"Device tensor is stored on: {tensor.device}")

out:
Shape of tensor: torch.Size([3, 4])
Datatype of tensor: torch.float32
Device tensor is stored on: cpu

Tensors的业务操作

tensor有100多种业务操作,包括算法、线性代数、矩阵运算、抽样等,更多详细的操作可以通过https://pytorch.org/docs/stable/torch.html 同样的这些业务操作可以在GPU上运行,当然啦,需要配置环境,现在我就用cpu啦,后面的学习如果非得换成gpu,就换吧! tensor默认是创建在cpu上的,如果已配置gpu的环境,用下边的代码修改。

if torch.cuda.is_available():
    tensor = tensor.to('cuda')

接下来就进行一些tensor对列表的操作吧,如果你熟悉NumPy,那么你就会发现,贼简单!

索引和切片

tensor = torch.ones(4, 4)
print("Original:", tensor)
print("First row:", tensor[0])
print("First column:", tensor[:, 0])
print("Last colum:", tensor[..., -1])
tensor[:, 1] = 0
print(tensor)

out:
Original: tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
First row: tensor([1., 1., 1., 1.])
First column: tensor([1., 1., 1., 1.])
Last colum: tensor([1., 1., 1., 1.])
tensor([[1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]])

合并tensors

可以通过torch.cat连接tensors,但需要注意维度,也可以用torch.stack合并tensors,不过可能有一点微妙的区别。

t1 = torch.cat([tensor, tensor, tensor], dim=1)
print(t1)

out:
tensor([[1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.],
        [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.],
        [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.],
        [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.]])

运算

#矩阵乘法运算,y1,y2,y3有相同的结果
print(tensor)
y1 = tensor @ tensor.T #@用来进行矩阵相乘,.T矩阵转置
y2 = tensor.matmul(tensor.T)
y3 = torch.rand_like(tensor)
torch.matmul(tensor, tensor.T, out=y3)
print(y1)
print(y2)
print(y3)

out:
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]])
tensor([[3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.]])
tensor([[3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.]])
tensor([[3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.]])

单元素tensors

如果有一个单元素的tensor,可以通过item转换成Python的数值类型。

agg = tensor.sum()#求和
agg_item = agg.item()
print(agg, agg_item, type(agg_item))

out:
tensor(12.) 12.0 <class 'float'>

原位操作(即不允许使用临时变量)

函数表示通过 _ 后缀,例如,x.copy_(),x.t_(),改变x的值。

print(tensor,"\n")
tensor.add_(5)
print(tensor)

out:
tensor([[1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]]) 

tensor([[6., 5., 6., 6.],
        [6., 5., 6., 6.],
        [6., 5., 6., 6.],
        [6., 5., 6., 6.]])

桥接NumPy

cpu和Numpy数组上的tensors可以共享底层内存,改变其中一个同时会改变另一个。

Tensor转NumPy数组

t = torch.ones(5)
print(f"t: {t}")
n = t.numpy()
print(f"n: {n}")

out:
t: tensor([1., 1., 1., 1., 1.])
n: [1. 1. 1. 1. 1.]

修改tensor同时NumPy数组也会改变。

t.add_(1)
print(f"t: {t}")
print(f"n: {n}")

out:
t: tensor([2., 2., 2., 2., 2.])
n: [2. 2. 2. 2. 2.]

NumPy数组转Tensor

n = np.ones(5)
t = torch.from_numpy(n)
print(f"n: {n}")
print(f"t: {t}")
np.add(n, 1, out=n)
print(f"n: {n}")
print(f"t: {t}")

out:
n: [1. 1. 1. 1. 1.]
t: tensor([1., 1., 1., 1., 1.], dtype=torch.float64)
n: [2. 2. 2. 2. 2.]
t: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-12-09 11:39:17  更:2021-12-09 11:44:09 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 1:23:09-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码