| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 跟李沐学AI-动手学深度学习-权重衰退+Dropout -> 正文阅读 |
|
[人工智能]跟李沐学AI-动手学深度学习-权重衰退+Dropout |
权重衰退是最广泛使用的正则化的技术之一。 使用均方范数作为硬性限制通过限制参数值的选择范围来控制模型容量。 ?通常不限制偏移b(因为限制与不限制的差别不大)。 小的θ意味着更强的正则项。 使用均方范数作为柔性限制对于每个θ,都可以找到λ使得之前的目标函数等价于下面 可以通过拉格朗日乘子来证明。 超参数λ控制了正则项的重要程度。 λ=0:无作用。 λ->是?,w*->0。 参数更新法则
通常在下ηλ <1,在深度学习中通常叫做权重衰退。 ?总结
?Dropout(丢弃法)会比上述的权重衰退效果更好一些。 动机一个好的模型需要对输入数据的扰动鲁棒。 使用有噪音的数据等价于Tikhonov正则。 丢弃法:在层之间加入噪音。(随机噪音) 无偏差的加入噪音对x加入噪音得到x',我们希望 丢弃法对每个元素进行如下扰动 ? ?使用丢弃法通常将丢弃法作用在隐藏全连接层的输出上。 ? ?推理中的丢弃法正则项只在训练中使用:他们影响模型参数的更新。 在推理过程中,丢弃法直接返回输入。 这样也 保证确定性的输出。 总结
? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 14:39:53- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |