IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 贝叶斯系列——贝叶斯定理、贝叶斯决策、朴素贝叶斯、贝叶斯网络、贝叶斯滤波器 -> 正文阅读

[人工智能]贝叶斯系列——贝叶斯定理、贝叶斯决策、朴素贝叶斯、贝叶斯网络、贝叶斯滤波器

写一个贝叶斯系列,整理一下贝叶斯定理、贝叶斯决策、朴素贝叶斯、贝叶斯网络、贝叶斯滤波器
众所周知,概率分为两个学派,频率学派(大数定理)和贝叶斯学派(贝叶斯公式),我们不去判断哪个学派说的更对,但是在实际生活中,由于我们获得的数据量实在有限,我们只能贝叶斯主义/经验主义地将采样到数据的频率当作概率(这并不符合大数定理,因为我们没有大数,所以这个我频率当概率并不是频率主义)
比如测试硬币正反的概率,如果我们做五次实验,五次都是正,那么频率学派直接当作正的概率是百分百,当然随着试验次数增加会修正。而贝叶斯学派则预先认为,概率是百分之五十,然后在测试的过程中慢慢修正,避免过大的偏差直接影响结果。

贝叶斯定理(公式)

P ( B ∣ A ) = P ( B ) P ( A ∣ B ) P ( A ) = P ( B ) P ( A ∣ B ) ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(B|A)=\frac{P(B)P(A|B)}{P(A)}=\frac{P(B)P(A|B)}{\sum_{i=1}^nP(B_i)P(A|B_i)} P(BA)=P(A)P(B)P(AB)?=i=1n?P(Bi?)P(ABi?)P(B)P(AB)?
P ( B i ∣ A ) = P ( B i ) P ( A ∣ B i ) P ( A ) = P ( B i ) P ( A ∣ B i ) ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(B_i|A)=\frac{P(B_i)P(A|B_i)}{P(A)}=\frac{P(B_i)P(A|B_i)}{\sum_{i=1}^nP(B_i)P(A|B_i)} P(Bi?A)=P(A)P(Bi?)P(ABi?)?=i=1n?P(Bi?)P(ABi?)P(Bi?)P(ABi?)?
这就是贝叶斯公式,分母是全概率公式 P ( A ) = ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(A)=\sum_{i=1}^nP(B_i)P(A|B_i) P(A)=i=1n?P(Bi?)P(ABi?),这个应该懂吧。我坐车概率,走路概率0.5,坐车迟到概率0.1,走路迟到概率0.5,总的迟到概率0.5x0.1+0.5x0.5=0.3,很好理解吧。那么假设我已经迟到了,且知道我迟到的概率、坐车迟到概率与走路迟到概率,该如何推我是坐车来的,还是走路来的呢?这就是贝叶斯公式做的事情,由果推因。
其实不难不是吗,先回忆条件概率公式 P ( B ∣ A ) = P ( A , B ) P ( A ) P(B|A)=\frac{P(A,B)}{P(A)} P(BA)=P(A)P(A,B)?(你可以用这个式子推贝叶斯很好推,不需要记贝叶斯),条件概率公式应该符合直观感受吧,已知发生A的情况下发生B,那肯定分母是A发生的概率,分子是AB同时发生的概率呀。现在 P ( A ) P(A) P(A)就是之前算的0.3,那么 P ( A , B ) P(A,B) P(A,B)如何求呢?
把条件概率公式AB反一下,再乘过去就变成了 P ( A , B ) = P ( B ) ? P ( A ∣ B ) P(A,B)=P(B)*P(A|B) P(A,B)=P(B)?P(AB)了,带到之前分母里面,贝叶斯公式就出来了。
P(乘车|迟到)=P(乘车|迟到)/P(迟到),其实不难理解吧。

应用上的理解:
P(A)是被称为先验概率,这个是我们做实验可以得到的,连续一百天统计我迟到天数,迟到天数/总天数就是先验概率,这个我们每天在校门口等着统计就行了,很简单。我们知道小明离学校多远,一般几点起床,那很容易估算出他坐车迟到和走路迟到的概率。但我们实际上想知道的是他到底是走路来的还是坐车来的,我们不能派人每天监视他,这太麻烦了(对这个问题还算简单,在实际使用贝叶斯公式的时候,我们想采集到的数据可能根本无法直接测量)。所以我们使用贝叶斯公式进行估算,用相对容易获得的概率计算难以采样的数据。

这里其实有一个很大问题,就是我前面加粗的字,这个估算是我们通过生活经验随便给出的。但是对于机器学习来说,他并没有这些经验,所以后面的种种其实都是计算机如何通过数学学习出这个转移概率的过程。

朴素贝叶斯

这是一种最为简单的贝叶斯应用,做了一个假设,假设所有的条件都是独立的。
P ( B ∣ A ) = P ( B ) P ( A ∣ B ) P ( A ) = P ( B ) ∏ i P ( A i ∣ B ) ∏ i P ( A i ∣ B ) P(B|A)=\frac{P(B)P(A|B)}{P(A)}=\frac{P(B)\prod_i P(A_i|B)}{\prod_i P(A_i|B)} P(BA)=P(A)P(B)P(AB)?=i?P(Ai?B)P(B)i?P(Ai?B)?
P(A)是统计出来的,但是可能有出现训练集中没有的A,朴素贝叶斯做的事情很简单,把所有没有出现的特征可能和出现的证据数量都+1,使得即使没有出现过的证据不会产生太大的影响。
事实上特征之间不可能完全独立,所以朴素贝叶斯是比较低级的模型。

贝叶斯决策

P ( B i ∣ A ) = P ( B i ) P ( A ∣ B i ) P ( A ) P(B_i|A)=\frac{P(B_i)P(A|B_i)}{P(A)} P(Bi?A)=P(A)P(Bi?)P(ABi?)?
我们回到基本的贝叶斯公式,我们假设我们现在已经知道了右边的所有信息,那我们就可以算出 P ( B i ∣ A ) P(B_i|A) P(Bi?A),那我们显而易见,我们选择使 P ( B i ∣ A ) P(B_i|A) P(Bi?A)最大的 B i B_i Bi?作为我们的预测结果。但是我们算出来的预测结果一般来说不是一个数字,而是一个分布(如果断言是一个数字的话,那很多没有采集到的样本概率都是0),既然是分布如何直接比较大小呢,概率论学的好的话都知道使用面积,我们希望预测正确的概率最大,也就是希望预测错误的概率最小,两个分布相交部分的面积就是分错的概率,我们希望这个面积最小。
在这里插入图片描述

但考虑一个用于分辨患者是否患病的模型,把有病当成没病,比反过来糟糕得多。所以我们给模型一个风险值,对于分类正确的情况,风险肯定是0,针对分错的情况应该有一个风险值乘概率,作为损失函数。我们决策的目标是使得这个值最小。

我的理解中,这个 θ \theta θ既包含了模型的参数,也包含了决策的阈值。对于 θ \theta θ如何求那就是优化算法的问题了比如我们熟知的牛顿法,但是概率中经常使用到一种叫最大期望(EM)的算法作为牛顿法的替代品。

贝叶斯网络

很简单,如下图所所示,相信看看就知道了,就是把各种随即变量之间的条件转移当左边,组成的有向无环图(DAG),但是要计算出所有的情况,计算复杂程度是指数级的。
1.根据下面贝叶斯网络,表示 x1,…,x7 的完全联合概率分布。
请添加图片描述
p ( x 1 , x 2 , x 3 , x 4 , x 5 , x 6 , x 7 ) = p ( x 1 ) p ( x 2 ) p ( x 3 ) p ( x 4 ∣ x 1 , x 2 , x 3 ) p ( x 5 ∣ x 1 , x 3 ) p ( x 6 ∣ x 4 ) p ( x 7 ∣ x 4 , x 5 ) p(x_1,x_2,x_3,x_4,x_5,x_6,x_7)\\ =p(x_1)p(x_2)p(x_3)p(x_4|x_1,x_2,x_3)p(x_5|x_1,x_3)p(x_6|x_4)p(x_7|x_4,x_5) p(x1?,x2?,x3?,x4?,x5?,x6?,x7?)=p(x1?)p(x2?)p(x3?)p(x4?x1?,x2?,x3?)p(x5?x1?,x3?)p(x6?x4?)p(x7?x4?,x5?)

  1. 基于课堂讲的防盗贝叶斯网络例子,求报警器没响,既没盗贼也没地震,两人都打电话的概率。
    请添加图片描述

P ( ? B , ? E , ? A , J , M ) = P ( ? B ) P ( ? E ) P ( ? A ∣ ? B ∧ ? E ) P ( J ∣ ? A ) P ( M ∣ ? A ) = ( 1 ? 0.001 ) ( 1 ? 0.002 ) ( 1 ? 0.001 ) ? 0.05 ? 0.01 ≈ 4.98 ? 1 0 ? 4 P(\lnot B,\lnot E,\lnot A,J,M)\\ =P(\lnot B)P(\lnot E)P(\lnot A|\lnot B \land \lnot E)P(J|\lnot A)P(M|\lnot A)\\ =(1-0.001)(1-0.002)(1-0.001)*0.05*0.01 \\ \approx 4.98*10^{-4} P(?B,?E,?A,J,M)=P(?B)P(?E)P(?A?B?E)P(J?A)P(M?A)=(1?0.001)(1?0.002)(1?0.001)?0.05?0.014.98?10?4

贝叶斯滤波器

xx

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-12-26 22:09:34  更:2021-12-26 22:12:26 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 23:35:40-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码