IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 李宏毅2021春机器学习笔记--7.Logistic Regression -> 正文阅读

[人工智能]李宏毅2021春机器学习笔记--7.Logistic Regression

视频链接

我们要做的:

step 1:Function set

image-20210713152404077

Step 2: Goodness of a Function

image-20210713152632256

Step 3: Find the best function

image-20210713153417163

image-20210713153805350

把两项 分别代入:image-20210713153526808

Logistic Regression VS Linear Regression

image-20210713153305971

Logistic Regression + Square Error

image-20210713184117399

image-20210713184134460

Logistic Regression + Square Error

会出现距离目标很远 很近的时候微分算出来都是 0 。

如果选用Square Error这会造成很卡,离目标很远的时候,移动的速度是非常慢的。

image-20210713184509000

这个 Logistic Regression的方法,我们称它为Discriminative

之前用Gaussian来描述的方法,称为Generative

实际上他们的model 是一模一样的(但根据同一组training data 找出来的w 和b 是不一样的,因为做的假设不同(在Logistic Regression没有做任何假设,在Generative 是有假设的,假设它是Gaussian))

image-20210713185103536

哪一个找出来的参数是比较好的呢?

Discriminative 是比较好的

image-20210713185542987

为什么会这样呢?

举个简单的例子:

image-20210713193454095

image-20210713193430101

在naive Bayes中 Testing data中的“11” 被认为是class 2

Generative “脑补”了一下,它认为在class 2 中 可能会存在 “11”

? Benefit of generative model
? With the assumption of probability distribution, less training data is needed
? With the assumption of probability distribution,more robust to the noise
? Priors and class-dependent probabilities can be estimated from different sources.

在概率分布假设下,需要的训练数据较少

采用概率分布的假设,对噪声更有鲁棒性

先验和类相关的概率可以从不同的来源估计

Multi-class Classificaation

image-20210713201832281

softmax的意义:对向量进行归一化,凸显其中最大的值并抑制远低于最大值的其他分量。

image-20210713203921596

Logistic Regression 有非常大的限制。

例:

image-20210713204145151

Logistic Regression 无法分割 class 1 和 class 2,因为Logistic Regression 分界线是一条直线,无论你怎么分,都无法分割开 class1 和 class 2。

image-20210713204428924

如果你坚持要用 Logistic Regression,那就需要做一下Feature Transformation

image-20210713205119666

但是,麻烦的是我们不知道怎么做Feature Transformation。

为了做到这件事,我们需要Cascading logistic regression models (梦开始的地方

image-20210713205303259

前面这两个Logistic Regression 做到就是 Feature Transformation 这件事件,后面这个Logistic Regression 来做分类。

实际例子如下:

image-20210713210511530

我们可以调整蓝色的Logistic Regression参数,让它的output 长成右上角这个样子(左上角output值比较大 ,右下角值比较小);

调整绿色的Logistic Regression参数,让它的output 长成右下角这个样子(左上低右下高)

image-20210713211030534

有了前面这两个Logistic Regression以后,我们就可以做Feature Transformation 得到另一组Feature (上图右下角)

image-20210713212350921

我们把每个Logistic Regression 叫做“Neuron” 这些Logistic Regression串起来所组成的网络叫做 Neural Network。这个东西就是Deep Learning。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-07-29 11:38:10  更:2021-07-29 11:41:11 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/17 21:50:01-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码