从回归到多类分类
![##](https://img-blog.csdnimg.cn/6683d46d238548a49fcb558ad234b669.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_20,color_FFFFFF,t_70,g_se,x_16)
从回归到多类分类-均方损失
![在这里插入图片描述](https://img-blog.csdnimg.cn/4f7c24e87e944829b947a6a85f8e6722.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_20,color_FFFFFF,t_70,g_se,x_16)
从回归到多类分类-无校验比例
![在这里插入图片描述](https://img-blog.csdnimg.cn/25566496e15c49a7a0408d932a3d705e.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_20,color_FFFFFF,t_70,g_se,x_16)
从回归到多类分类-校验比例
![在这里插入图片描述](https://img-blog.csdnimg.cn/644457aa86d047ec88c3ebd2e21b9b60.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_20,color_FFFFFF,t_70,g_se,x_16)
Softmax和交叉熵损失
![在这里插入图片描述](https://img-blog.csdnimg.cn/e539389e516f49599107287afeb223a0.png) ![在这里插入图片描述](https://img-blog.csdnimg.cn/c91b3647fcd64c219595ed8be81f1ef6.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_17,color_FFFFFF,t_70,g_se,x_16)
损失函数
L2 Loss
![在这里插入图片描述](https://img-blog.csdnimg.cn/0a580165670c43b8b95f2f882dfca6c0.png)
L1 Loss
![在这里插入图片描述](https://img-blog.csdnimg.cn/5eec50a02e434c678372cec8087171f6.png)
Huber’ s Robust Loss
![在这里插入图片描述](https://img-blog.csdnimg.cn/b1e8c0257fd344de878575ee5fb896ed.png)
图像分类数据
(MNIST数据集) :cite:LeCun.Bottou.Bengio.ea.1998 (是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。 我们将使用类似但更复杂的Fashion-MNIST数据集)
%matplotlib inline
import torch
import torchvision
from torch.utils import data
from torchvision import transforms
from d2l import torch as d2l
d2l.use_svg_display()
读取数据集 我们可以[通过框架中的内置函数将Fashion-MNIST数据集下载并读取到内存中]。
trans = transforms.ToTensor()
mnist_train = torchvision.datasets.FashionMNIST(
root="../data", train=True, transform=trans, download=True)
mnist_test = torchvision.datasets.FashionMNIST(
root="../data", train=False, transform=trans, download=True)
数据下载… ![在这里插入图片描述](https://img-blog.csdnimg.cn/8d34f34d3b68409d941097f620ed0520.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_20,color_FFFFFF,t_70,g_se,x_16) Fashion-MNIST由10个类别的图像组成, 每个类别由训练数据集(train dataset)中的6000张图像 和测试数据集(test dataset)中的1000张图像组成。 因此,训练集和测试集分别包含60000和10000张图像。 测试数据集不会用于训练,只用于评估模型性能。
len(mnist_train), len(mnist_test)
每个输入图像的高度和宽度均为28像素。 数据集由灰度图像组成,其通道数为1。 为了简洁起见,本书将高度 ? 像素、宽度 𝑤 像素图像的形状记为 ?×𝑤 或( ? , 𝑤 )。
mnist_train[0][0].shape
![在这里插入图片描述](https://img-blog.csdnimg.cn/23ecd7f330e84ceab10b442a8fd2f7d5.png)
def get_fashion_mnist_labels(labels):
"""返回Fashion-MNIST数据集的文本标签"""
text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat',
'sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']
return [text_labels[int(i)] for i in labels]
创建可视化函数
def show_images(imgs, num_rows, num_cols, titles=None, scale=1.5):
"""绘制图像列表"""
figsize = (num_cols * scale, num_rows * scale)
_, axes = d2l.plt.subplots(num_rows, num_cols, figsize=figsize)
axes = axes.flatten()
for i, (ax, img) in enumerate(zip(axes, imgs)):
if torch.is_tensor(img):
ax.imshow(img.numpy())
else:
ax.imshow(img)
ax.axes.get_xaxis().set_visible(False)
ax.axes.get_yaxis().set_visible(False)
if titles:
ax.set_title(titles[i])
return axes
训练集中的前几个样本
X, y = next(iter(data.DataLoader(mnist_train, batch_size=18)))
show_images(X.reshape(18, 28, 28), 2, 9, titles=get_fashion_mnist_labels(y));
![在这里插入图片描述](https://img-blog.csdnimg.cn/179b153c9e604977847e7ecd70fba1d3.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5LiJ5LiJ5LiJ5LiJ5Luo,size_20,color_FFFFFF,t_70,g_se,x_16) 为了使我们在读取训练集和测试集时更容易,我们使用内置的数据迭代器,而不是从零开始创建。 回顾一下,在每次迭代中,数据加载器每次都会[读取一小批量数据,大小为batch_size]。 通过内置数据迭代器,我们可以随机打乱了所有样本,从而无偏见地读取小批量。
batch_size = 256
def get_dataloader_workers():
"""使用4个进程来读取数据"""
return 4
train_iter = data.DataLoader(mnist_train, batch_size, shuffle=True,
num_workers=get_dataloader_workers())
timer = d2l.Timer()
for X, y in train_iter:
continue
f'{timer.stop():.2f} sec'
![在这里插入图片描述](https://img-blog.csdnimg.cn/cfe316b09921475db8f83f0d24461d03.png)
|