IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 几句话搞懂朴素贝叶斯法(简单理解和应用) -> 正文阅读

[人工智能]几句话搞懂朴素贝叶斯法(简单理解和应用)

适合如我这般完全忘记数学知识的小白,大佬可绕行

在这里插入图片描述

应用背景举例:
我们有一个常见动物的分类问题,所有动物都有一些特征,比如该动物有几条腿、有没有耳朵、或者 鼻子长不长等等。每个特征都有很多取值,那么我们的输入就是一个n维的特征向量,使每个特征的取值不同,特征向量也各不相同。输出就为动物类别值:1、2、3…

贝叶斯定理

其实,就是一个概率公式,长这个样子。
在这里插入图片描述

先验概率

那么先验概率就是从这组数据集当中计算得出每个类别的概率,易得各个类别个数除以样本总数即可。

条件概率

条件概率是一个概率值集合,总结如下:
分别求,确定某一类别的条件下,各个特征及其各个特征可取值的概率集合。也就说说如果特征向量为n维,每个特征可取值个数为m,有k个类别,那么需要计算nmk次概率值。

极大似然估计

极大似然估计,大概率说的就是计算条件概率的方法。实际上就是从数据的当中查个数,求一个个数的比值作为概率,就是极大似然估计。

贝叶斯估计

贝叶斯估计是极大似然估计方法的改进,加上一个大于0的数。下面对极大似然估计进行解读之后,贝叶斯估计的内容也是如此,不再拗述。

公式解读:贝叶斯公式、极大似然估计、贝叶斯公式变形

给出公式,继续解读公式的意思:
在这里插入图片描述
这个就是贝叶斯定理求后验概率,所谓后验概率就是给出输入求类别输出,而先验概率就是给出某个确切类别值前提下,其各个特征及其特征取值的概率,然后所有类别分别求出。举个例子,类别值为🐍,求耳朵颜色如红、橙、黄等的概率。那肯定为0啊,因为🐍没有耳朵,就算你不知道🐍有没有耳朵也能从数据集当中检索出来这条信息。

上面公式的左边意思是,当确定输入随机变量X为个特征向量的情况下,其各个类别的概率为多少,这是一个和类别相关的概率分布。求概率分布的最大值也就是convex问题,得出类别值。

右边公式的意思,分子为先验概率和条件概率的乘积。先验概率即,当输入为某个确切类别值得概率,可知为一个标量。条件概率,在确切某个类别的前提下,其各个特征及其特征取值的概率集合,他是一个概率分布。分母,则是对分子不同类别操作的一个求和。

两边都是类别概率分布,这就是朴素贝叶斯。

这里面,先验概率好求、好理解,条件概率(极大似然估计)可以再展开分析,如下。
在这里插入图片描述
I为指示函数,也就是说当A=B的时候判断为1,否则为0。左边的意思就是,确定某个类别之后,第j个特征取值为该特征可取值集合当中的某一个值的概率,再求所有特征及其所有特征可取值得概率组成一个概率值集合。这就是条件概率的一个集合。等式右边的意思就是从所有样本当中挑选,确认为🐍并且🐍没有耳朵的样本个数,概率为个数的一个比值。

到此,朴素贝叶斯法大概的内容就是如此。如果给出新的数据,那么套用贝叶斯定理变心公式即可求出各个类别概率分布。如下图。
在这里插入图片描述
分别求所有类别的概率值,取最大值所对应的Ck。当取某一个类别时,第j个特征等于输入向量第j个特征所取值的概率求乘积,即可。

正则化(regularizer、penalty term)和over-complete

在这里插入图片描述
输入通过一个函数f得出一个结果,和真实标签求平方损失。若,模型复杂度较高,则模型非线性能力越强,其值越容易接近真实值,那么loss接近0。之所以出现如此问题,是因为我们学习到的参数为非0值个数太多,即模型复杂度和阶次过高拟合能力变强。如何解决这个问题,那么对参数w求二范数,参数tensor w非0值越多二范数越大,那么loss整体会提高,最后optimizer会继续学习。既然提到了非0值个数少,那么就引出了稀疏表示

K-SVD一般用于字典学习、稀疏编码方面。目标为构造一个over-complete矩阵,然后选择稀疏的系数解使得矩阵对其训练集相似的目标进行稀疏表示。他的前提要求行数远远小于列数。

这里不难理解,行向量、列向量线性相关,可有无数多个解,有的解复杂非0参数过多,有的解简单非0参数很少,但是他们的作用都是一样的,那么对于一个维度很好的输入向量,他的解假设为A,但是有一个维度很低的解,他的输出也为A,那么over-complete就可为输入向量进行sparse表示。当输入向量维度降低之后,更有益于机器学习。比如我们上面说的朴素贝叶斯法分类问题,nmk次运算。
在这里插入图片描述

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章           查看所有文章
加:2022-06-16 21:42:28  更:2022-06-16 21:45:30 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 2:26:15-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码