| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 李宏毅机器学习笔记4 -> 正文阅读 |
|
[人工智能]李宏毅机器学习笔记4 |
Lecture 5 神经网络训练不起来(1)
(Local minimal不能再走,saddle point可以再降) 先用tylor expansion把loss function在' 展开到二阶,一阶梯度为0,看hessian矩阵的正定负定 ? Example: ? 2. 如果是鞍点怎么继续优化呢?找到负的特征值,向对应的特征向量方向移动可以使loss function减小,但是通常不会用,因为特征值难算(?) 3. Saddle point和local minimal关系: 可能local minimal在更高维的空间是saddle point Local minimal没有那么容易到达 如下图,横轴代表正特征根的比例,在training loss很小的时候依然有一半特征根是负的 Lecture 5 神经网络训练不起来(2) Batch and momentum Batch 每次训练不会用所有的data,每次拿一块算gradient 如果把准备训练数据比喻成一块准备打火锅的牛肉,那么epoch就是涮完整块牛肉,batch就是切片后的牛肉片,iteration就是涮一块牛肉片,shuffle,重新切片 为什么用batch?full batch & batch size=1 ? 左边技能冷却时间长,右边输出不稳定(?) 但实际上lager batch耗费时间不会长很多,反而小的batch因为update次数多可能时间也会长 Batch size越大accuracy越低,不是过拟合问题也不是tradeoff问题,是大的batch size存在optimization fails(?)小batch 每次的loss function不一样 Testing data时候会有overfitting ? Momentum(类似利用惯性) 不只向gradient的反方向移动,还要加上前一步的方向 ? Lecture 5 神经网络训练不起来(3) Adaptive learning rate 多数training在没有走到critical point就已经卡住了,Loss 不再下降不一定是gradient很小,可能是
? ? 3. 需要learning rate随t变化,使得在靠近optimal的过程中步长变小 先增大后减小(warm up)因为一开始方差比较大 ? L4L5的内容之后会更新? ? ? ? ? ? ? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 8:38:50- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |