IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 概率机器学习中的互信息(Mutual Information) -> 正文阅读

[人工智能]概率机器学习中的互信息(Mutual Information)

1.Mutual Information概念

互信息是信息论中用以评价两个随机变量之间的依赖程度的一个变量

2.信息论的基础概念

  • 信息量: 是对某个时间发生的概率的度量,通常来讲一个事件发生的概率越低,则这个事件包含的信息量越大。在现实生活中,越稀奇的新闻(发生的概率小)包含的信息量越大。香农提出了一个定量衡量信息量的公式:
    l o g 1 p = ? l o g p log\frac{1}{p}=-logp logp1?=?logp

  • 熵(entropy): 衡量一个系统的稳定程度。其实就是一个系统所有变量信息量的期望或者均值。离散变量 公式为:
    H ( X ) = ∑ x ∈ X P ( x ) ? l o g 1 P ( x ) = ? ∑ x ∈ X P ( x ) l o g P ( x ) = ? E l o g P ( X ) H(X)=\sum_{x \in X} P(x) \cdot log \frac{1}{P(x)}=-\sum_{x\in X}P(x) logP(x)= -ElogP(X) H(X)=xX?P(x)?logP(x)1?=?xX?P(x)logP(x)=?ElogP(X)
    P ( x ) P(x) P(x)表示事件 X X X x x x发生的概率。如果一个系统越简单,出现情况种类很少(极端情况为1种情况,那么对应概率为1,那么对应的信息熵为0),此时的信息熵较小。连续变量,此时可以理解成它的概率密度函数,公式为:
    H ( X ) = ∫ P ( x ) ? l o g 1 P ( x ) d x H(X)=\int P(x) \cdot log \frac{1}{P(x)}dx H(X)=P(x)?logP(x)1?dx

  • 联合熵(joint entropy): 多个联合变量的熵,也就是将熵的定义推广到多变量的范围。
    H ( X , Y ) = ∑ x ∈ X ∑ y ∈ Y P ( x , y ) ? l o g 1 P ( x , y ) = ? ∑ x ∈ X ∑ y ∈ Y P ( x , y ) l o g P ( x , y ) = ? E l o g P ( X , Y ) H(X,Y)=\sum_{x \in X} \sum_{y \in Y}P(x,y) \cdot log \frac{1}{P(x,y)}=-\sum_{x \in X} \sum_{y \in Y}P(x,y) logP(x,y)= -ElogP(X,Y) H(X,Y)=xX?yY?P(x,y)?logP(x,y)1?=?xX?yY?P(x,y)logP(x,y)=?ElogP(XY)

  • 条件熵(conditional entropy): 一个随机变量在给定的情况下,系统的熵。
    H ( Y ∣ X ) = ∑ x ∈ X P ( x ) H ( Y ∣ X = x ) = ∑ x ∈ X P ( x ) [ ∑ y ∈ Y P ( y ∣ x ) l o g 1 P ( y ∣ x ) ] = ∑ x ∈ X ∑ y ∈ Y P ( x ) P ( y ∣ x ) l o g 1 P ( y ∣ x ) = ? E l o g P ( Y ∣ X ) H(Y|X)=\sum_{x\in X}P(x)H(Y|X=x)=\sum_{x\in X}P(x)[\sum_{y\in Y}P(y|x)log\frac{1}{P(y|x)}]=\sum_{x \in X} \sum_{y \in Y}P(x)P(y|x)log\frac{1}{P(y|x)}=-ElogP(Y|X) H(YX)=xX?P(x)H(YX=x)=xX?P(x)[yY?P(yx)logP(yx)1?]=xX?yY?P(x)P(yx)logP(yx)1?=?ElogPYX

    条件熵就是假设在给定的一个变量下,该系统信息量的期望

  • 相对熵(relative entropy): 也被称作KL散度(Kullback-Leibler divergence)。当我们获得了一个变量的概率分布时,一般我们会找一种近似且简单的分布来代替。相对熵就是用来衡量两个分布对于同一个变量的差异情况。
    D K L ( p ∣ ∣ q ) = ∑ i p ( x i ) ? [ l o g 1 q ( x i ) ? l o g 1 p ( x i ) ] = ∑ i p ( x i ) ? l o g p ( x i ) q ( x i ) D_{KL}(p||q)=\sum_i p(x_i) \cdot[log\frac{1}{q(x_i)}-log \frac{1}{p(x_i)}]=\sum_i p(x_i) \cdot log\frac{p(x_i)}{q(x_i)} DKL?(pq)=i?p(xi?)?[logq(xi?)1??logp(xi?)1?]=i?p(xi?)?logq(xi?)p(xi?)?

  • 交叉熵(cross entropy): 也是用来衡量两个分布之间的差异性。
    H C E ( p , q ) = ∑ i p ( x i ) ? l o g 1 q ( x i ) H_{CE}(p,q)=\sum_i p(x_i) \cdot log \frac{1}{q(x_i)} HCE?(pq)=i?p(xi?)?logq(xi?)1?
    显然交叉熵是相对熵的第一部分,因为在通常情况下我们是已知?,即第二部分是常量,此时交叉熵和相对熵是一个线性关系,在考虑计算量的情况下,所以我们通常都用这部分交叉熵来做。

  • 互信息(Mutual Information): 如下图,互信息就是交叉的部分。根据熵的联锁规则,有:
    H ( X ∣ Y ) = H ( X ) + H ( Y ∣ X ) = H ( Y ) + H ( X ∣ Y ) H(X|Y)=H(X)+H(Y|X)=H(Y)+H(X|Y) H(XY)=H(X)+H(YX)=H(Y)+H(XY).因此,
    H ( X ) ? H ( X ∣ Y ) = H ( Y ) ? H ( Y ∣ X ) H(X)-H(X|Y) = H(Y)-H(Y|X) H(X)?H(XY)=H(Y)?H(YX)
    这个差叫做X和Y的互信息,记做 I ( X ∣ Y ) I(X|Y) I(XY).按照熵的定义可以展开得到:
    I ( X , Y ) = H ( X ) ? H ( X ∣ Y ) = H ( X ) + H ( Y ) ? H ( X , Y ) = ∑ x p ( x ) l o g 1 p ( x ) + ∑ y p ( y ) l o g 1 p ( y ) ? ∑ x , y p ( x , y ) l o g p ( x , y ) p ( x ) p ( y ) I(X,Y) = H(X)-H(X|Y)=H(X)+H(Y)-H(X,Y)=\sum_x p(x) log \frac{1}{p(x)}+\sum_y p(y) log \frac{1}{p(y)} -\sum_{x,y} p(x,y) log \frac{p(x,y)}{p(x)p(y)} I(X,Y)=H(X)?H(XY)=H(X)+H(Y)?H(X,Y)=x?p(x)logp(x)1?+y?p(y)logp(y)1??x,y?p(x,y)logp(x)p(y)p(x,y)?
    在这里插入图片描述

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-04-01 00:02:58  更:2022-04-01 00:06:31 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年1日历 -2025/1/9 0:42:42-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码