| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 【动手学深度学习】3 Softmax 回归 + 损失函数 -> 正文阅读 |
|
[人工智能]【动手学深度学习】3 Softmax 回归 + 损失函数 |
? 目录 一、线性回归的简洁实现1.1. 生成数据集我们首先生成数据集, 1.2. 读取数据集我们可以调用框架中现有的API来读取数据。 我们将 此外,布尔值 ? 为了验证是否正常工作,让我们读取并打印第一个小批量样本。 与之前不同,这里我们使用 ? 1.3. 定义模型我们实现线性回归时, 我们明确定义了模型参数变量,并编写了计算的代码,这样通过基本的线性代数运算得到输出。 但是,如果模型变得更加复杂,且当你几乎每天都需要实现模型时,你会想简化这个过程。 这种情况类似于为自己的博客从零开始编写网页。 做一两次是有益的,但如果每个新博客你就花一个月的时间重新开始编写网页,那并不高效。 对于标准深度学习模型,我们可以使用框架的预定义好的层。这使我们只需关注使用哪些层来构造模型,而不必关注层的实现细节。 我们首先定义一个模型变量
在下面的例子中,我们的模型只包含一个层,因此实际上不需要 回顾下图中的单层网络架构, 这一单层被称为全连接层(fully-connected layer), 因为它的每一个输入都通过矩阵-向量乘法得到它的每个输出。? 在PyTorch中,全连接层在
? 1.4. 初始化模型参数在使用 在这里,我们指定每个权重参数应该从均值为0、标准差为0.01的正态分布中随机采样, 偏置参数将初始化为零。 正如我们在构造 ? 1.5. 定义损失函数计算均方误差使用的是 ? 1.6. 定义优化算法小批量随机梯度下降算法是一种优化神经网络的标准工具, PyTorch在 ? 1.7. 训练通过深度学习框架的高级API来实现我们的模型只需要相对较少的代码。 我们不必单独分配参数、不必定义我们的损失函数,也不必手动实现小批量随机梯度下降。 当我们需要更复杂的模型时,高级API的优势将大大增加。 当我们有了所有的基本组件,训练过程代码与我们从零开始实现时所做的非常相似。
为了更好的衡量训练效果,我们计算每个迭代周期后的损失,并打印它来监控训练过程。? 下面我们比较生成数据集的真实参数和通过有限数据训练获得的模型参数。 要访问参数,我们首先从 ? 正如在从零开始实现中一样,我们估计得到的参数与生成数据的真实参数非常接近。? 1.8. 小结
二、Softmax 回归2.1. Softmax 回归回归可以用于预测多少的问题。 比如预测房屋被售出价格,或者棒球队可能获得的胜场数,又或者患者住院的天数。 事实上,我们也对分类问题感兴趣:不是问“多少”,而是问“哪一个”:
通常,机器学习实践者用分类这个词来描述两个有微妙差别的问题: 1. 我们只对样本的“硬性”类别感兴趣,即属于哪个类别; 2. 我们希望得到“软性”类别,即得到属于每个类别的概率。 这两者的界限往往很模糊。其中的一个原因是:即使我们只关心硬类别,我们仍然使用软类别的模型。 ? 回归VS分类
? # Kaggle分类问题? ?? ? ? 从回归到分类? 假设我们有n个类别,那么我们的标号就是长为n的向量,从y1,y2......一直到yn。其中,假设我们的真实类别是第i个的话,那么我的yi就等于1,其他的元素全部都是等于0。所以就是说一位有效编码。 ? 有了编码之后,我们其实可以用最简单的线性回归问题的均方损失来训练模型,我们就可以在不改动的情况下。 然后假设我们训练出来了一个模型,做预测的时候,那么我们就是选取i是的最大化的Oi,就是置信度的值,作为我的预测值y^,就是我们预测的一个标号。
? 就分类来讲,我们其实不关心它们之间的实际的值,我们关心的是说能不能够对正确类别的置信度特别大。比如我们可以将目标函数改成, 我们需要使得我们对正确类别y的置信度Oy要远大于其他非对正确类别的置信度,这样能够保证真正的正确类别y与其他类别区分开。这是我们最简单的一个想法。 另外我们一个想法是说: 虽然我们这里没有说具体的正确类别y的置信度Oy是什么样的值,大一点小一点都没关系,我们关系的是一个相对值。但是呢,如果我们把值放在一个合适的区间里,也会让我们后面的处理变得更加简单。 比如说,我们希望使得输出的能够是一个概率,现在我们的输出是一个向量(O1,O2,...On),我们可以引入一个新的操作子softmax,将softmax作用在O上,得到一个y^,它是一个长为n的向量,但是它每个元素都是非负的,且和为一。 ? 这样的好处就是,我们的y^其实就是一个概率了。任何满足每个元素都是非负的,且和为一的都可以看成是一个概率。 那么我们就得到了两个概率,一个是真实的概率,一个是预测的概率。我们可以比较两个概率之间 的区别作为损失。 2.2 交叉熵损失一般我们使用交叉熵损失用来衡量两个概率之间的区别, ? 如果我们把它当成损失的话,那么真实值y对预测值y^之间的损失就是l(y,y^)。这个损失的梯度其实就是真实概率和预测概率的区别。 2.3 总结? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/25 20:43:56- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |