IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 李宏毅机器学习课程笔记-2|CSDN创作打卡 -> 正文阅读

[人工智能]李宏毅机器学习课程笔记-2|CSDN创作打卡

李宏毅机器学习课程笔记

	--深度学习基本概念简述


前言

从零入门机器学习。李宏毅2021春机器学习课程笔记
第2篇 深度学习基本概念简述
上一篇用y=b+w*x来拟合数据,得到的结果并非让人满意,在这里我们将之前的三步都升级一下,使之更加实用。我们所研究的很少有数据符合这样简单的线性关系,现实中的可能是一段段折线,或是一条蜿蜒的曲线。那我们就要用一个更好的方程来表达这样的线。


1.如何更好地拟合实际情况:

在这里插入图片描述
为了拟合这样的线段(红色),我们要用到一个蓝色的函数:
在这里插入图片描述
这个函数可以认为是在x<a,x>b时,为定值.在x属于(a,b)时为一段比例函数
对于上面的红色线段,我们可以用这样的方式来拟合
在这里插入图片描述
由此我们可以用一个常数,加上三个蓝色函数的组合来得到红色线段
在这里插入图片描述
由此类推,对于所有的折线,我们都可用类似的组合来表示,区别只是不同蓝色函数的数量多少。
那么对于曲线也可通过采点再描线的方式来拟合,只要点够多,就可以足够接近。
但是这样的蓝色函数不太好表达出来,我们可以用一个更好表达且效果相同的函数:
在这里插入图片描述
这个函数比较好理解,在x趋向无穷大时,分母趋向于1,y趋向于c; 在x趋向于无穷小时,y趋向于0.
为了获得不同的sigmoid函数,我们可以改变c,b,w的值,他们对应的作用如下图:
在这里插入图片描述
有了以上工具,我们就可以用这个式子来表示复杂方程了:
在这里插入图片描述
同样地,对于Youtube频道点阅人数的预测,如果我们考虑变化的周期,即多天的情况综合输入。
以前我们是:
在这里插入图片描述
现在我们就可以这样:
在这里插入图片描述
更加直观的看:
在这里插入图片描述
蓝色方框里的很像非齐次方程组,我们可以用线代中矩阵来简化地表达:
在这里插入图片描述
这里所得到的r向量就是上面式子中sigmoid函数的参数,我们用一个符号来表示sigmoid函数,便得到
在这里插入图片描述
所以之前的式子:
在这里插入图片描述
就可以简写为:(只是换了种写法而已)
在这里插入图片描述
这里的C是一组列向量,为了能够矩阵相乘,要先进行转置操作。
在这个式子里,我们想得到的未知参数为:
在这里插入图片描述
我们将其中的参数全部拉长排列成一列,形成一个长长的列向量,称之为θ

2.定义损失函数loss

在之前,我们把w,b带入然后得到一组预测值,并和实际值比较,然后得到差值,就是我们定义的loss.现在依然如此,只是未知参数变得多了,我们所有的未知参数都定义为θ这个很长的列向量。将θ带入,像之前一样得到loss.

3 寻找最优

我们现在的 θ 它是一个很长的向量,我们把它表示成 θ1 θ2 θ3 等等等,我们现在就是要找一组 θ,这个 θ 可以让我们的 Loss 越小越好,依然是定起始点,求微分,更新参数:
在这里插入图片描述

4.模型套娃

我们可以将以上的模型多套几层:
在这里插入图片描述
也就是上一层的输出作为下一层的输入继续处理。通常这样反复套娃都会提高识别的正确率,直到过拟合。这也就是被称为deep learning.
那么这里就会有个疑惑,既然都是为了更好地拟合曲线,我不仅可以用这样套娃式,我还可以用很多很多个sigmoid来拟合曲线,并非是纵向套娃,而是继续叠加激活函数一样可以做到十分地接近,但这种为什么不行呢?

老师原话:把 ReLU Sigmoid Function 反覆用,到底有什麼好处呢,為什麼不把它们直接排一排呢,直接排一排也可以表示任何 Function 啊,所以把它反覆用没什麼道理啊,所以有人就说把 Deep Learning,把 ReLU Sigmoid 反覆用,不过是个噱头,你之所以喜欢 Deep Learning,只是因為 Deep 这个它名字好听啦,ReLU Sigmoid 排成一排,你只可以製造一个肥胖的 Network,Fat Neural Network,跟 Deep Neural Network 听起来,量级就不太一样,Deep 听起来就比较厉害啦,Fat Neural Network 还以為是死肥宅 Network,就不厉害这样子,那到底 Deep 的理由,為什麼我们不把 Network 变胖,只把 Network 变深呢,这个是我们日后要再讲的话题

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-02-07 13:43:59  更:2022-02-07 13:46:10 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 20:22:04-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码