在深入了解深度神经网络的细节之前,我们需要了解神经网络训练的基础知识。在本章中,我们将介绍整个训练过程,包括定义简单的神经网络架构、处理数据、指定损失函数和训练模型。为了让事情更容易掌握,我们从最简单的概念开始。幸运的是,线性和 softmax 回归等经典统计学习技术可以转换为线性神经网络。从这些经典算法开始,我们将向您介绍基础知识,为本书其余部分中更复杂的技术提供基础。
3.1。线性回归
3.1.1。线性回归的基本要素 3.1.2。速度矢量化 3.1.3. 正态分布和平方损失 3.1.4。从线性回归到深度网络 3.1.5。概括 3.1.6。练习
3.2. 从零开始实现线性回归
3.2.1。生成数据集 3.2.2. 读取数据集 3.2.3。初始化模型参数 3.2.4。定义模型 3.2.5。定义损失函数 3.2.6。定义优化算法 3.2.7。训练 3.2.8。概括 3.2.9。练习
3.3. 线性回归的简明实现
3.3.1。生成数据集 3.3.2. 读取数据集 3.3.3. 定义模型 3.3.4。初始化模型参数 3.3.5。定义损失函数 3.3.6。定义优化算法 3.3.7。训练 3.3.8. 概括 3.3.9。练习
3.4. Softmax 回归
3.4.1。分类问题 3.4.2. 网络架构 3.4.3. 全连接层的参数化成本 3.4.4。Softmax 操作 3.4.5。小批量矢量化 3.4.6。损失函数 3.4.7。信息论基础 3.4.8。模型预测与评估 3.4.9。概括 3.4.10。练习
3.5. 图像分类数据集
3.5.1。读取数据集 3.5.2. 读取小批量 3.5.3. 把所有东西放在一起 3.5.4。概括 3.5.5。练习
3.6. 从零开始实现 Softmax 回归
3.6.1. 初始化模型参数 3.6.2. 定义 Softmax 操作 3.6.3. 定义模型 3.6.4. 定义损失函数 3.6.5。分类精度 3.6.6。训练 3.6.7. 预言 3.6.8。概括 3.6.9。练习
3.7. Softmax 回归的简明实现
3.7.1. 初始化模型参数 3.7.2. 重新审视 Softmax 实现 3.7.3. 优化算法 3.7.4. 训练 3.7.5。概括 3.7.6。练习
参考
https://d2l.ai/chapter_linear-networks/index.html
|