IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 吴恩达机器学习课程-第一周 -> 正文阅读

[人工智能]吴恩达机器学习课程-第一周

1.监督学习

数据集中的每个样本都有相应的“正确答案”,再根据这些样本作出预测

2.无监督学习

数据集中没有任何的标签/有相同的标签,将数据分为不同的簇

3.单变量线性回归

3.1 模型表示

只含有一个特征/输入变量: h θ ( x ) = θ 0 + θ 1 ( x ) h_\theta(x)=\theta_0+\theta_1(x) hθ?(x)=θ0?+θ1?(x)

3.2 代价函数

选择的参数决定了直线相对于训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)是建模误差

在这里插入图片描述

目标便是选择出可以使得建模误差的平方和能够最小的模型参数,即使得下面代价函数最小:

? J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) 2 J(\theta_0, \theta_1)=\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2 J(θ0?,θ1?)=2m1?i=1m?(hθ?(x(i))?y(i))2

3.2.1 直观理解

θ 0 \theta_0 θ0?置为0的情况:

在这里插入图片描述

不将 θ 0 \theta_0 θ0?置为0的情况:右图是代价函数的等高线图

在这里插入图片描述

3.3 梯度下降

在3.2中是通过人工的方式去观察代价函数值最小时,参数对应的值。当参数越来越复杂时肯定通过观察得到结果,所以使用梯度下降

3.3.1 思想

  1. 开始时随机选择一个参数的组合,计算代价函数,
  2. 寻找下一个能让代价函数值下降最多的参数组合
  3. 持续这么做直到到到一个局部最小值(选择不同的初始参数组合,可能会找到不同的局部最小值)

3.3.2 批量梯度下降

批量:在梯度下降的每一步中,用到了所有的训练样本(即计算的所有训练样本构成的 J ( θ ) J(\theta) J(θ)值)

重复执行下面公式直至收敛:需要同时更新 θ 0 \theta_0 θ0? θ 1 \theta_1 θ1?

? θ j : = θ j ? α d d θ J ( θ 0 , θ 1 ) \theta_j:=\theta_j-\alpha\frac{d}{d_{\theta}}J(\theta_0,\theta_1) θj?:=θj??αdθ?d?J(θ0?,θ1?)

3.3.3 直观理解

在红色点处,梯度 d d θ J ( θ 0 , θ 1 ) \frac{d}{d_{\theta}}J(\theta_0,\theta_1) dθ?d?J(θ0?,θ1?)方向是朝左下角(即为正数),所以 θ 1 \theta_1 θ1?在不断减小, J ( θ ) J(\theta) J(θ)的值也在不断减小

在这里插入图片描述

为什么 α \alpha α可以不用改变也能收敛到局部最低点?因为当红色点在不断移动时,梯度大小也在不断减小

3.4 线性回归的梯度下降

对之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,即:

? d d θ j J ( θ 0 , θ 1 ) = d d θ j 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) 2 \frac{d}{d_{\theta_j}}J(\theta_0, \theta_1)=\frac{d}{d_{\theta_j}}\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2 dθj??d?J(θ0?,θ1?)=dθj??d?2m1?i=1m?(hθ?(x(i))?y(i))2

? j = 0 , d d θ 0 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) ? y ( i ) ) j=0,\frac{d}{d_{\theta_0}}J(\theta_0, \theta_1)=\frac{1}{m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)}) j=0,dθ0??d?J(θ0?,θ1?)=m1?i=1m?(hθ?(x(i))?y(i))

? j = 1 , d d θ 1 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( ( h θ ( x ( i ) ) ? y ( i ) ) ? x ( i ) ) j=1,\frac{d}{d_{\theta_1}}J(\theta_0, \theta_1)=\frac{1}{m}\sum_{i=1}^m((h_\theta(x^{(i)})-y^{(i))}·x^{(i)}) j=1,dθ1??d?J(θ0?,θ1?)=m1?i=1m?((hθ?(x(i))?y(i))?x(i))

线性回归的 J ( θ ) J(\theta) J(θ)图像是一个凸函数图像,这种图像没有局部最优点,只有全局最优点:

在这里插入图片描述

下面图像不是凸函数图像,会陷入到局部最优点上:

在这里插入图片描述

4.参考

https://www.bilibili.com/video/BV164411b7dx?p=3-11

http://www.ai-start.com/ml2014/html/week1.html

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-06-06 17:19:25  更:2022-06-06 17:24:38 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 2:46:18-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码