| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 李宏毅机器学习P13+P5+6+7+8+9(21版)学习笔记 -> 正文阅读 |
|
[人工智能]李宏毅机器学习P13+P5+6+7+8+9(21版)学习笔记 |
P13深度学习 1.神经网络 由不同的逻辑回归函数(不同权重和偏差)连接而成不同结构 输入层(Input?Layer):1层 Fully?Connect?Feedforward network 深度学习能表达出更多情况: 一个神经网络的权重和偏差已知,则可以看作一个函数:输入是向量,输出也是向量。 Deep?=?Many?hidden?layer 随着层数变多,错误率降低,随之运算量增大,因此引入矩阵计算加速运算 矩阵计算(激活函数)方法:σ(权重w *?输入+?偏移量b)=?输出 矩阵运算优点:可以使用GPU加速 本质:通过隐藏层进行特征转换。 问题 多少层??每层有多少神经元??尝试加上直觉 对于有些机器学习相关的问题,我们一般用特征工程来提取特征, 结构可以自动确定吗??有很多设计方法可以让机器自动找到神经网络的结构的,如进化人工神经网络,但并不普及? 可以设计网络结构吗?可以,比如?CNN卷积神经网络 2.模型评估 对于神经网络,采用交叉熵(cross?entropy)函数来对损失进行计算 3.选择最优函数 用梯度下降找最优函数和最优参数 P5 training失败及解决1 gradient为0的点,称为critical point,其中有很多可能,导致无法继续优化 用泰勒级数近似计算鉴别critical point的种类(local minima/maxina/saddle point) P6?training失败及解决2 Batch:是否采用batch进行训练,训练资料分为N个batch,进行训练。 在large和small?batching的testing准确率类似的时候,small?batch的testing值更好。 结论: LB和SB时间在一定size内,差距很小 LB梯度下降更平稳 SB的最优化值更好 SB的Generalization更好 SB易得到Flat Minima(较好);LB易得到Sharp Minima Momentum动量: gradient?method+momentum:计算参数θ的时候,g反方向+前一步方向调整参数 优点:每一次迭代,都会更接近最优解。有几率不停留在local minima和maxina,因为不只有g的方向,还有前一步的动量。 缺点:算法稳定性变差,出现了一些震荡。算法也不再保证目标函数单调下降。momentum是外插值。 P7?training失败及解决3 training stuck ≠ small gradient,训练卡住/loss不再下降的时候,并非到达了critical point或者saddle point 自适应学习率:不同参数需要不同的学习率,Adaptive learning rate RMSProp:在计算parameter?dependent部分中σ时,给之前和现在计算的g不同的权重。解决同一参数不用时期需要不同学习率的问题 Adam:RMSProp+Momentum-用得较多:计算θ和σ时,都考虑前一个g learning?rate scheduling学习率η随时间有关: P8 training失败及解决4 Classification as Regression:将种类用数字表示,但若用1,2,3表示,那么既就有亲疏关系,不太好,解决方法是,用向量[0,0,1],[0,1,0]等表示不同分类,这样就可以解决。 Classification: input?x?output?y,使softmax(y)得到y',使y'接近y^【softmax使ynormalize,classification需要的范围】 loss function可以改变training的难度: Loss of Classification(e=y^-?y')的表示方式:Mean Square Error(MSE),Cross-entropy(win),Minimizing?Cross-entropy is equivalent to maximizing likelihood P9 training失败及解决5 Feature Normalization:使不同的demonsion范围接近。 在testing的时候,数据不足,未达到batch标准,做Normalization的参数会随数据的增多使用其移动平均数。 ? ? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 8:29:53- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |