IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Pytorch学习笔记(未完待续) -> 正文阅读

[人工智能]Pytorch学习笔记(未完待续)


根据龙良曲Pytorch学习视频整理,视频链接: 【计算机-AI】PyTorch学这个就够了!

1.PyTorch介绍

2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。它是一个基于Python的可续计算包,提供两个高级功能:1、具有强大的GPU加速的张量计算(如NumPy)。2、包含自动求导系统的深度神经网络。

2.开发环境准备

cmd查看CUDA版本信息: nvcc -V
在这里插入图片描述
cmd查看python版本信息:python --version
在这里插入图片描述
python查看torch和cuda信息:

import torch

print(torch.__version__)    # 1.9.0+cu102
print('gpu:', torch.cuda.is_available())    # gpu: True

3.numpy.genfromtxt()

file_name = "data.csv"
"""
10.3,6.6
...
"""
# 从文本文件加载数据,并按指定处理缺失值
points = numpy.genfromtxt(file_name, delimiter=",")
for i in range(len(points)):
	x = points[i, 0]
	y = points[i, 1]

4.基本数据类型

4.1 All is about Tensor

pythonPyTorch
IntIntTensor of size()
floatFloatTensor of size()
Int arrayIntTensor of size[d1,d2,…]
Float arrayFloatTensor of size[d1,d2…]
string

4.2 How to denote string

  • One-hot:[0, 1, 0, 0,…]
  • Embedding:Word2vec,glove

4.3 Data type

在这里插入图片描述

4.4 Type check

a = torch.randn(2, 3)
print(a)    # tensor([[ 0.3765,  0.6532, -0.8246],
            #         [ 1.3567, -0.3963,  0.1719]])
print(a.type())     # torch.FloatTensor
print(type(a))      # <class 'torch.Tensor'>
print(isinstance(a, torch.FloatTensor)) # True

# 数据位置对数据类型的影响
print(isinstance(a, torch.cuda.FloatTensor))    # False
a = a.cuda()
print(isinstance(a, torch.cuda.FloatTensor))    # True

4.5 Dimension / rank

  • Dimension 0 :Loss
  • Dimension 1 :Bias和Linear Input
  • Dimension 2 :Linear Input batch
  • Dimension 3 :RNN Input Batch
  • Dimension 4 :CNN[b, c, h, w]

4.6 Mixed

a = torch.rand(2, 3, 4, 5)
print(a.size())     # torch.Size([2, 3, 4, 5])
print(a.shape)      # torch.Size([2, 3, 4, 5])
print(len(a.shape)) # 4
print(a.dim())      # 维度:4
print(a.numel())    # 具体的数据大小:120

5.创建Tensor

5.1 Import from numpy

a = np.ones(2)
print(a)            # [1. 1.]
print(torch.from_numpy(a))  # tensor([1., 1.], dtype=torch.float64)

5.2 Import from List

a = torch.tensor([2, 3.2])
print(a)    # tensor([2.0000, 3.2000])

torch.Tensor()接受数据的类型
torch.tensor()接收现成的数据

5.3 uninitialized

初始化的数据可能会非常大或者非常小,不建议使用

  • torch.empty()
  • torch.FloatTensor(d1, d2, d3)
  • torch.IntTensor(d1, d2, d3)

5.4 set default type

print(torch.tensor([1.2, 3]).type())    # torch.FloatTensor
torch.set_default_tensor_type(torch.DoubleTensor)
print(torch.tensor([1.2, 3]).type())    # torch.DoubleTensor

5.5 rand / rand_like, randint, randn

推荐使用这个随机初始化

a = torch.rand(2, 1)
print(a)    # tensor([[0.1746],
            #         [0.6831]])
print(torch.rand_like(a))   # tensor([[0.5452],
                            #        [0.4782]])
print(torch.randint(1, 5, [2, 1]))  # tensor([[3],
# 限定了最小值和最大值,左闭右开        #        [4]])

torch.randn() 输出随机数服从正态分布(0, 1)
torch.normal(mean=torch.full([10], 0), std=torch.arrange(1, 0, -0.1)) 自定义正态分布均值和标准差

5.6 full

print(torch.full([], 7))    # 标量:tensor(7)
print(torch.full([1], 7))   # 张量:tensor([7])

5.7 arrange / range

print(torch.arange(0, 10, 2))   # tensor([0, 2, 4, 6, 8])
print(torch.range(0, 10, 2))    # 不建议使用,tensor([ 0.,  2.,  4.,  6.,  8., 10.])

5.8 linspace / logspace

print(torch.linspace(0, 10, steps=3))    # 等差均分为steps份:tensor([ 0.,  5., 10.])
print(torch.logspace(0, -1, steps=5))    # 对数均分为steps份:tensor([1.0000, 0.5623, 0.3162, 0.1778, 0.1000])

5.9 Ones / zeros / eye

print(torch.ones(1, 2))     # 全1矩阵:tensor([[1., 1.]])
print(torch.zeros(1, 2))    # 全0矩阵:tensor([[0., 0.]])
print(torch.eye(2))         # 单位矩阵:tensor([[1., 0.],
                            #                  [0., 1.]])

5.10 randperm

a = torch.rand(4, 3)
print(a)
idx = torch.randperm(3)     # 随机生成索引
print(idx)
print(a[[1, 0, 2]])
"""
tensor([[0.1708, 0.2821, 0.8163],
        [0.8898, 0.6628, 0.2350],
        [0.3743, 0.4281, 0.5309],
        [0.4996, 0.7259, 0.5485]])
tensor([1, 0, 2])
tensor([[0.8898, 0.6628, 0.2350],
        [0.1708, 0.2821, 0.8163],
        [0.3743, 0.4281, 0.5309]])
"""

6.索引与切片

索引和切片的方式同python list[start:end:steps]

  • Indexing
  • select first / last N
  • select by steps
  • select by specific index

6.1 …

连续全部取值

a = torch.rand(4, 3, 28, 28)
print(a[0, 1].shape)    # torch.Size([28, 28])
print(a[0, 0, 2, 4])    # tensor(0.9485)
print(a.index_select(2, torch.arange(8)).shape)         # torch.Size([4, 3, 8, 28])
print(a[:,:1,...].shape)       #torch.Size([4, 1, 28, 28])

6.2 select by mask

x = torch.randn(3, 4)
print(x)
mask = x.ge(0.5)	# 元素大于0.5的
print(mask)
print(torch.masked_select(x, mask))
"""
tensor([[-1.8692,  0.9687, -0.4978,  0.7836],
        [-2.5662,  0.0487,  0.3978, -0.3676],
        [-1.5896, -0.1129, -1.9687,  0.5585]])
tensor([[False,  True, False,  True],
        [False, False, False, False],
        [False, False, False,  True]])
tensor([0.9687, 0.7836, 0.5585])
"""

6.3 select by flatten index

reshape为一维后取索引

src = torch.tensor([[4, 3, 5],
					[6, 7, 8]])
print(torch.take(src, torch.tensor([0, 2, 5])))       # tensor([4, 5, 8])

7.维度变换

7.1 View / reshape

view的size前后必须一致,view的size要有实际意义,避免产生数据污染

a = torch.rand(4, 1, 28, 28)
print(a.view(4, 28*28).shape)   # torch.Size([4, 784])
print(a.unsqueeze(4).shape)     # torch.Size([4, 1, 28, 28, 1])

7.2 Sequeeze / unsqueeze

unsqueeze插入一个维度,不会改变数据本身
squeeze若给定的挤压维度为1则被挤压掉,若不为1则保持原来数据维度不变

b = torch.tensor([1, 2])
print(b.unsqueeze(-1))  # tensor([[1],
                        #         [2]])
print(b.unsqueeze(0))   # tensor([[1, 2]])

c = torch.rand(1, 31, 1, 1)
print(c.shape)                  # torch.Size([1, 31, 1, 1])
print(c.squeeze().shape)        # torch.Size([31])
print(c.squeeze(0).shape)       # torch.Size([31, 1, 1])
print(c.squeeze(1).shape)       # torch.Size([1, 31, 1, 1])

7.3 Expand / repeat

  • Expand(broadcasting)
  • repeat(memory copied)
a = torch.rand(1,32,1,1)
print(a.shape)                          # torch.Size([1, 32, 1, 1])
print(a.expand(4,32,14,14).shape)       # torch.Size([4, 32, 14, 14])
print(a.repeat(4,32,1,1).shape)         # torch.Size([4, 1024, 1, 1])

7.4 Transpose / t / permute

t()只能转置二维矩阵,否则报错

a = torch.rand(2,3)
print(a.t().shape)      # torch.Size([3, 2])

b = torch.rand(4,3,28,28)
print(b.transpose(1,3).transpose(1,2).shape)    # torch.Size([4, 28, 28, 3])
print(b.permute(0,2,3,1).shape)                 # torch.Size([4, 28, 28, 3])

在这里插入图片描述

8. Broadcasting

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-03 11:10:51  更:2021-08-03 11:12:05 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/17 23:42:26-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码