| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 机器学习优化算法 -> 正文阅读 |
|
[人工智能]机器学习优化算法 |
1.批量梯度下降 BGD在每一次迭代时使用所有样本来进行梯度的更新 ??(1)当样本数目?mm?很大时,每迭代一步都需要对所有样本计算,训练过程会很慢。 2.随机梯度下降 SGD每次迭代使用一个样本来对参数进行更新。使得训练速度加快。 优点: 3.小批量梯度下降 MBGD是对批量梯度下降以及随机梯度下降的一个折中办法。其思想是:每次迭代?使用 ** batch_size** 个样本来对参数进行更新。 优点: batcha_size的选择带来的影响: 实际工程中最常用的就是mini-batch,一般size设置为几十或者几百。 4.动量优化算法momentum算法思想:参数更新时在一定程度上保留之前更新的方向,同时又利用当前batch的梯度微调最终的更新方向,简言之就是通过积累之前的动量来加速当前的梯度。 优点: 当某个参数在最近一段时间内的梯度方向不一致时,其真实的参数更新幅度变小;相反,当在最近一段时间内的梯度方向都一致时,其真实的参数更新幅度变大,起到加速作用。 一般而言,在迭代初期,梯度方向都比较一致,动量法会起到加速作用,可以更快地到达最优点。在迭代后期,梯度方向会取决不一致,在收敛值附近震荡,动量法会起到减速作用,增加稳定性。从某种角度来说,当前梯度叠加上部分的上次梯度,一定程度上可以近似看作二阶梯度。 5.自适应学习率优化算法AdaGrad、RMSProp、Adam; 参考?https://blog.csdn.net/weixin_36670529/article/details/97525284 6.正则化正则化是为了防止过拟合, 进而增强泛化能力。用白话文转义,泛化误差(generalization error)= 测试误差(test error)。 L1正则: α用来衡量惩罚项的重要程度; L2正则: ?Dropout正则化:每次训练时,随机丢弃一部分神经元; 区别:
7.Bagging boosting区别Bagging 对每个分类器,输入数据都是从原始训练数据中可重复的采样, 每个分类器的输入服从相同的分布,且各输入之间相互独立。而Boost中,各训练数据的分布不独立,每个分类器的输入样本之间也不独立。 Boosting Boosting算法的可优化点有两点:训练数据集的分布、各基本分类器在线性组合中的权重w_m 对于训练数据集的分布,通常,被上一次分类错误的样本的权重会被调大,被正确分类的会被调小。 Bagging与Boosting的区别总结: |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/17 23:40:26- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |