主要来源: 李沐老师的pytorch 动手学习深度学习(鞠躬感谢) 记录每日所学,欢迎讨论
一. 图像分类数据集
% matplotlib inline
import torch
import torchvision
from torch. utils import data
from torchvision import transforms
from d2l import torch as d2l
d2l. use_svg_display( ) 在这里插入代码片
1. 读取数据集
我们可以[通过框架中的内置函数将Fashion-MNIST数据集下载并读取到内存中 ]。
通过ToTensor实例 将图像数据从PIL类型 变换成32位浮点数 格式,并除以255使得所有像素的数值均在0到1之间 。
trans = transforms. ToTensor( )
mnist_train = torchvision. datasets. FashionMNIST(
root= "../data" , train= True , transform= trans, download= True )
mnist_test = torchvision. datasets. FashionMNIST(
root= "../data" , train= False , transform= trans, download= True )
len ( mnist_train) , len ( mnist_test)
mnist_train[ 0 ] [ 0 ] . shape
def get_fashion_mnist_labels ( labels) :
"""返回Fashion-MNIST数据集的文本标签。"""
text_labels = [ 't-shirt' , 'trouser' , 'pullover' , 'dress' , 'coat' ,
'sandal' , 'shirt' , 'sneaker' , 'bag' , 'ankle boot' ]
return [ text_labels[ int ( i) ] for i in labels]
def show_images ( imgs, num_rows, num_cols, titles= None , scale= 1.5 ) :
"""Plot a list of images."""
figsize = ( num_cols * scale, num_rows * scale)
_, axes = d2l. plt. subplots( num_rows, num_cols, figsize= figsize)
axes = axes. flatten( )
for i, ( ax, img) in enumerate ( zip ( axes, imgs) ) :
if torch. is_tensor( img) :
ax. imshow( img. numpy( ) )
else :
ax. imshow( img)
ax. axes. get_xaxis( ) . set_visible( False )
ax. axes. get_yaxis( ) . set_visible( False )
if titles:
ax. set_title( titles[ i] )
return axes
X, y = next ( iter ( data. DataLoader( mnist_train, batch_size= 18 ) ) )
show_images( X. reshape( 18 , 28 , 28 ) , 2 , 9 , titles= get_fashion_mnist_labels( y) ) ;
举个例子:
>> d= { 'one' : 1 , 'two' : 2 , 'three' : 3 }
>> d
{ 'three' : 3 , 'two' : 2 , 'one' : 1 }
>> iterd= iter ( d)
>> iterd. next ( )
'three'
>> iterd. next ( )
'two'
>> iterd. next ( )
'one'
>> iterd. next ( )
Traceback ( most recent call last) :
File "<stdin>" , line 1 , in < module>
StopIteration
2. 读取小批量
回顾一下,在每次迭代中,数据加载器每次都会读取一小批量数据,大小为batch_size
。我们在训练数据迭代器中还随机打乱了所有样本。
batch_size = 256
def get_dataloader_workers ( ) :
"""使用4个进程来读取数据。"""
return 4
train_iter = data. DataLoader( mnist_train, batch_size, shuffle= True ,
num_workers= get_dataloader_workers( ) )
训练集是要打乱顺序 num_workers 是多少进程
读取所需要的时间
timer = d2l. Timer( )
for X, y in train_iter:
continue
f' { timer. stop( ) : .2f } sec'
输出结果为:'7.46 sec'
测试:如果把进程数改小,时间会缩短,进程为2时,时间是5.44s
3. 整合所有组件
def load_data_fashion_mnist ( batch_size, resize= None ) :
"""下载Fashion-MNIST数据集,然后将其加载到内存中。"""
trans = [ transforms. ToTensor( ) ]
if resize:
trans. insert( 0 , transforms. Resize( resize) )
trans = transforms. Compose( trans)
mnist_train = torchvision. datasets. FashionMNIST(
root= "../data" , train= True , transform= trans, download= True )
mnist_test = torchvision. datasets. FashionMNIST(
root= "../data" , train= False , transform= trans, download= True )
return ( data. DataLoader( mnist_train, batch_size, shuffle= True ,
num_workers= get_dataloader_workers( ) ) ,
data. DataLoader( mnist_test, batch_size, shuffle= False ,
num_workers= get_dataloader_workers( ) ) )
定义load_data_fashion_mnist
函数 ,用于获取和读取Fashion-MNIST数据集。它返回训练集和验证集的数据迭代器。此外,它还接受一个可选参数,用来将图像大小调整为另一种形状。
比如下面,我们通过指定resize
参数来测试load_data_fashion_mnist
函数的图像大小调整功能。
train_iter, test_iter = load_data_fashion_mnist( 32 , resize= 64 )
for X, y in train_iter:
print ( X. shape, X. dtype, y. shape, y. dtype)
break
输出结果为 torch.Size([32, 1, 64, 64]) torch.float32 torch.Size([32]) torch.int64
二. softmax 回归从0开始实现
1. 初始化模型参数
import torch
from IPython import display
from d2l import torch as d2l
batch_size = 256
train_iter, test_iter = d2l. load_data_fashion_mnist( batch_size)
每次读256张图,用之前的数据集,返回的是训练和测试的迭代器。(解读的是上面的代码)
num_inputs = 784
num_outputs = 10
W = torch. normal( 0 , 0.01 , size= ( num_inputs, num_outputs) , requires_grad= True )
b = torch. zeros( num_outputs, requires_grad= True )
softmax输入要求是向量,因此需要把
1
×
28
×
28
1 \times 28 \times28
1 × 2 8 × 2 8 的图像转换为
784
×
10
784 \times 10
7 8 4 × 1 0 的向量。我们将展平每个图像,把它们看作长度为784的向量. (因为我们的数据集有10个类别,所以网络输出维度为10 )。因此,权重将构成一个
784
×
10
784 \times 10
7 8 4 × 1 0 的矩阵,偏置将构成一个
1
×
10
1 \times 10
1 × 1 0 的行向量。与线性回归一样,我们将使用正态分布初始化我们的权重W
,偏置初始化为0。 权重w
:初始为高斯随机,均值为0,方差为0.01,行数=输入,列数=输出
,需要计算梯度 偏移b
:设置为
1
×
10
1 \times 10
1 × 1 0 的行向量
2. 定义softmax操作
X = torch. tensor( [ [ 1.0 , 2.0 , 3.0 ] , [ 4.0 , 5.0 , 6.0 ] ] )
X. sum ( 0 , keepdim= True ) , X. sum ( 1 , keepdim= True )
(之前有在线性代数里面讲过,这里复习一下) 给定一个矩阵X
,我们可以对所有元素求和 (默认情况下),也可以只求同一个轴上的元素,即同一列(轴0)或 同一行(轴1) 。如果X
是一个形状为(2, 3)
的张量,我们对列进行求和,则结果将是一个具有形状(3,)
的向量。当调用sum运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。这将产生一个具有形状(1, 3)
的二维张量。 keepdim=True ,就是保持维度不变,还是二维的 输出的结果就是:
我们现在已经准备好实现softmax 操作了。回想一下,softmax由三个步骤组成: (1)对每个项求幂(使用exp
); (2)对每一行求和(小批量中每个样本是一行),得到每个样本的归一化常数; (3)将每一行除以其归一化常数,确保结果的和为1。 在查看代码之前,让我们回顾一下这个表达式:
s
o
f
t
m
a
x
(
X
)
i
j
=
exp
?
(
X
i
j
)
∑
k
exp
?
(
X
i
k
)
.
\mathrm{softmax}(\mathbf{X})_{ij} = \frac{\exp(\mathbf{X}_{ij})}{\sum_k \exp(\mathbf{X}_{ik})}.
s o f t m a x ( X ) i j ? = ∑ k ? exp ( X i k ? ) exp ( X i j ? ) ? .
def softmax ( X) :
X_exp = torch. exp( X)
partition = X_exp. sum ( 1 , keepdim= True )
return X_exp / partition
检验一下softmax:
X = torch. normal( 0 , 1 , ( 2 , 5 ) )
X_prob = softmax( X)
X_prob, X_prob. sum ( 1 )
结果为: 本来正态分布产生的随机数应该有正有负,经过softmax后,对于任何随机输入,我们将每个元素变成一个非负数。此外,依据概率原理,每行总和为1 。
3. 定义模型
def net ( X) :
return softmax( torch. matmul( X. reshape( ( - 1 , W. shape[ 0 ] ) ) , W) + b)
reshape里面-1的意思是由计算机自动计算出,
W
.
s
h
a
p
e
[
0
]
=
784
W.shape[0]=784
W . s h a p e [ 0 ] = 7 8 4
4. 定义损失函数
回顾一下,交叉熵采用真实标签的预测概率的负对数似然 。我们不需要使用Python的for循环迭代预测(这往往是低效的)。我们可以通过一个运算符选择所有元素。 下面,我们创建一个数据y_hat
,其中包含2个样本在3个类别 的预测概率 ,它们对应的标签y
。 有了y
,我们知道在第一个样本中,第一类是正确的预测,而在第二个样本中,第三类是正确的预测。 然后(使用y
作为y_hat
中概率的索引 ),我们选择第一个样本中第一个类的概率和第二个样本中第三个类的概率。
y = torch. tensor( [ 0 , 2 ] )
y_hat = torch. tensor( [ [ 0.1 , 0.3 , 0.6 ] , [ 0.3 , 0.2 , 0.5 ] ] )
y_hat[ [ 0 , 1 ] , y]
很好理解了,真实标号对应的类的预测值是多少。 实现交叉熵损失函数:
def cross_entropy ( y_hat, y) :
return - torch. log( y_hat[ range ( len ( y_hat) ) , y] )
cross_entropy( y_hat, y)
5.分类准确率
为了计算准确率,我们执行以下操作。首先,如果y_hat
是矩阵,那么假定第二个维度存储每个类的预测分数。我们使用argmax
获得每行中最大元素的索引来获得预测类别。然后我们[将预测类别与真实y
元素进行比较 ]。由于等式运算符“==
”对数据类型很敏感,因此我们将y_hat
的数据类型转换为与y
的数据类型一致。结果是一个包含0(错)和1(对)的张量。进行求和会得到正确预测的数量。
def accuracy ( y_hat, y) :
"""计算预测正确的数量。"""
if len ( y_hat. shape) > 1 and y_hat. shape[ 1 ] > 1 :
y_hat = y_hat. argmax( axis= 1 )
cmp = y_hat. type ( y. dtype) == y
return float ( cmp . type ( y. dtype) . sum ( ) )
accuracy( y_hat, y) / len ( y)
def evaluate_accuracy ( net, data_iter) :
"""计算在指定数据集上模型的精度。"""
if isinstance ( net, torch. nn. Module) :
net. eval ( )
metric = Accumulator( 2 )
for X, y in data_iter:
metric. add( accuracy( net( X) , y) , y. numel( ) )
return metric[ 0 ] / metric[ 1 ]
同样,对于任意数据迭代器data_iter
可访问的数据集,我们可以评估在任意模型net
的准确率 。
def evaluate_accuracy ( net, data_iter) :
"""计算在指定数据集上模型的精度。"""
if isinstance ( net, torch. nn. Module) :
net. eval ( )
metric = Accumulator( 2 )
for X, y in data_iter:
metric. add( accuracy( net( X) , y) , y. numel( ) )
return metric[ 0 ] / metric[ 1 ]
isinstance 的意思是“判断类型”;isinstance()是一个内置函数,用于判断一个对象是否是一个已知的类型。 net.eval() ————不用计算梯度了(这里不是很懂),这个和model.eval()一样么 在这个代码的理解就是如果是torch.nn模型的话,就转为评估模式,不需要计算梯度了
class Accumulator :
"""在`n`个变量上累加。"""
def __init__ ( self, n) :
self. data = [ 0.0 ] * n
def add ( self, * args) :
self. data = [ a + float ( b) for a, b in zip ( self. data, args) ]
def reset ( self) :
self. data = [ 0.0 ] * len ( self. data)
def __getitem__ ( self, idx) :
return self. data[ idx]
evaluate_accuracy( net, test_iter)
6.训练
def train_epoch_ch3 ( net, train_iter, loss, updater) :
"""训练模型一个迭代周期(定义见第3章)。"""
if isinstance ( net, torch. nn. Module) :
net. train( )
metric = Accumulator( 3 )
for X, y in train_iter:
y_hat = net( X)
l = loss( y_hat, y)
if isinstance ( updater, torch. optim. Optimizer) :
updater. zero_grad( )
l. backward( )
updater. step( )
metric. add( float ( l) * len ( y) , accuracy( y_hat, y) ,
y. size( ) . numel( ) )
else :
l. sum ( ) . backward( )
updater( X. shape[ 0 ] )
metric. add( float ( l. sum ( ) ) , accuracy( y_hat, y) , y. numel( ) )
return metric[ 0 ] / metric[ 2 ] , metric[ 1 ] / metric[ 2 ]
注释都写在代码里了,这里就不详细说明了。 接下来,再定义一个在动画中绘制数据的实用程序类
class Animator :
"""在动画中绘制数据。"""
def __init__ ( self, xlabel= None , ylabel= None , legend= None , xlim= None ,
ylim= None , xscale= 'linear' , yscale= 'linear' ,
fmts= ( '-' , 'm--' , 'g-.' , 'r:' ) , nrows= 1 , ncols= 1 ,
figsize= ( 3.5 , 2.5 ) ) :
if legend is None :
legend = [ ]
d2l. use_svg_display( )
self. fig, self. axes = d2l. plt. subplots( nrows, ncols, figsize= figsize)
if nrows * ncols == 1 :
self. axes = [ self. axes, ]
self. config_axes = lambda : d2l. set_axes(
self. axes[ 0 ] , xlabel, ylabel, xlim, ylim, xscale, yscale, legend)
self. X, self. Y, self. fmts = None , None , fmts
def add ( self, x, y) :
if not hasattr ( y, "__len__" ) :
y = [ y]
n = len ( y)
if not hasattr ( x, "__len__" ) :
x = [ x] * n
if not self. X:
self. X = [ [ ] for _ in range ( n) ]
if not self. Y:
self. Y = [ [ ] for _ in range ( n) ]
for i, ( a, b) in enumerate ( zip ( x, y) ) :
if a is not None and b is not None :
self. X[ i] . append( a)
self. Y[ i] . append( b)
self. axes[ 0 ] . cla( )
for x, y, fmt in zip ( self. X, self. Y, self. fmts) :
self. axes[ 0 ] . plot( x, y, fmt)
self. config_axes( )
display. display( self. fig)
display. clear_output( wait= True )
训练函数
def train_ch3 ( net, train_iter, test_iter, loss, num_epochs, updater) :
"""训练模型(定义见第3章)。"""
animator = Animator( xlabel= 'epoch' , xlim= [ 1 , num_epochs] , ylim= [ 0.3 , 0.9 ] ,
legend= [ 'train loss' , 'train acc' , 'test acc' ] )
for epoch in range ( num_epochs) :
train_metrics = train_epoch_ch3( net, train_iter, loss, updater)
test_acc = evaluate_accuracy( net, test_iter)
animator. add( epoch + 1 , train_metrics + ( test_acc, ) )
train_loss, train_acc = train_metrics
assert train_loss < 0.5 , train_loss
assert train_acc <= 1 and train_acc > 0.7 , train_acc
assert test_acc <= 1 and test_acc > 0.7 , test_acc
lr = 0.1
def updater ( batch_size) :
return d2l. sgd( [ W, b] , lr, batch_size)
设置学习率为0.1 接下来,迭代10个周期
num_epochs = 10
train_ch3( net, train_iter, test_iter, cross_entropy, num_epochs, updater)
最后的结果!!!
7. 测试
def predict_ch3 ( net, test_iter, n= 6 ) :
"""预测标签(定义见第3章)。"""
for X, y in test_iter:
break
trues = d2l. get_fashion_mnist_labels( y)
preds = d2l. get_fashion_mnist_labels( net( X) . argmax( axis= 1 ) )
titles = [ true + '\n' + pred for true, pred in zip ( trues, preds) ]
d2l. show_images(
X[ 0 : n] . reshape( ( n, 28 , 28 ) ) , 1 , n, titles= titles[ 0 : n] )
predict_ch3( net, test_iter)