IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 机器学习-白板推导学习笔记-2高斯分布 -> 正文阅读

[人工智能]机器学习-白板推导学习笔记-2高斯分布

?本篇文章是根据视频(?link.)所作的学习笔记,旨在对机器学习的相关知识更好的理解和巩固。本人基础较弱,推导中看不懂的公式可能会细究,如果有理解不当之处也欢迎指出。

一维高斯分布

设Data为X=(x_{1},x_{2},...x_{N}),且服从高斯分布,即x_{i}\sim N(\mu ,\sigma ^{2})。对应的概率密度函数为:

P(X)=\frac{1}{\sqrt{2\pi }\sigma }exp[-\frac{(x-\mu )^{2}}{2\sigma ^{2}}]

?为了对参数(\mu ,\sigma ^{2})进行更好的估计,将概率密度函数进一步展开:

Log P(X|\theta )\\=Log\prod_{i=1}^{N}P(x_{i}|\theta )\\ =\sum_{i=1}^{N}LogP(x_{i}|\theta )\\ =\sum_{i=1}^{N}Log\frac{1}{\sqrt{2\pi }\sigma }exp[-\frac{(x-\mu )^{2}}{2\sigma ^{2}}]\\ =\sum_{i=1}^{N}[Log\frac{1}{\sqrt{2\pi }}+Log\frac{1}{\sigma }-\frac{(x_{i}-\mu )^{2}}{2\sigma ^{2}}]

?求解参数(\mu ,\sigma ^{2})时,往往是求其极值。利用求偏导等于0。对于参数\mu

\frac{\partial P}{\partial \mu }=\frac{\partial \sum_{i=1}^{N}[-\frac{(x^{i}-\mu )^{2}}{2\sigma ^{2}}]}{\partial \mu }=\sum_{i=1}^{N}(\mu -x_{i})=0

\sum_{i=1}^{N}\mu=\sum_{i=1}^{N}x_{i}

\: \: \: \: \mu =\frac{1}{N}\sum_{i=1}^{N}x_{i}

?对于参数\sigma ^{2}

\frac{\partial P}{\partial \sigma }=\frac{\partial \sum_{i=1}^{N}[Log\frac{1}{\sigma } -\frac{(x_{i}-\mu )^{2}}{2\sigma ^{2}}]}{\partial \sigma }=\sum_{i=1}^{N}[-\frac{1}{\sigma }-\frac{(x_{i}-\mu )^{2}}{2}\cdot (-2)\cdot \sigma ^{-3}]=0

\sum_{i=1}^{N}\frac{1}{\sigma }=\sum_{i=1}^{N}(x_{i}-\mu )^{2}\cdot \sigma ^{-3}\\

\sum_{i=1}^{N}\sigma ^{2}=\sum_{i=1}^{N}(x_{i}-\mu )^{2}

\therefore \: \: \sigma _{MLE}^{2}=\frac{1}{N}\sum_{i=1}^{N}(x_{i}-\mu _{MLE})^{2}

?无偏和有偏

通常,被估计量的数学期望如果等于被估参数的真实值,则称为无偏估计;反之,称为有偏估计。下面来分析高斯分布中利用极大似然估计MLE出的参数(\mu ,\sigma ^{2})是有无误差:

E[\mu _{MLE}]=E[\frac{1}{N}\sum_{i=1}^{N}x_{i}]=\frac{1}{N}\sum_{i=1}^{N}E[x_{i}]=\frac{1}{N}\sum_{i=1}^{N}\mu =\mu

E[\sigma _{MLE}^{2}]=E[\frac{1}{N}\sum_{i=1}^{N}(x_{i}-\mu _{MLE})^{2}]=\frac{N-1}{N}\sigma ^{2}

?通过上面两个公式可以得到,对于参数\mu,得到的是无偏估计;而对于参数\sigma ^{2}得到的有偏估计,估计小了。

多维高斯分布

(这里没听太明白,只把一些结论记录下来)

当数据服从p维高斯分布时,参数\mu\sigma ^{2}不再是一个单数的数,而是矩阵的形式。

X\sim N(\mu ,\Sigma ),其中\mu =(\mu _{1},\mu _{2},...,\mu _{p})^{T}\Sigma =\begin{bmatrix} \sigma _{11}& \sigma _{12}& ...& \sigma _{1p} \\ \sigma _{21}& \sigma _{22}& ...& \sigma _{2p} \\ ...& ...& ...& ...\\ \sigma _{p1}& \sigma _{p2} & ...& \sigma _{pp} \end{bmatrix}_{p\times p},对应的概率密度函数为:

P(X)=\frac{1}{(2\pi) ^{\frac{p}{2}}|\Sigma |^{\frac{1}{2}}}exp[-\frac{1}{2}(x-\mu )^{T}\Sigma ^{-1}(x-\mu )]

?其中,\Sigma也叫做协方差矩阵,具有对称性质,且通常假设为正定矩阵(为了进行奇异值分解)。

·?概率密度函数P(X)中的-\frac{1}{2}(x-\mu )^{T}\Sigma ^{-1}(x-\mu )也叫做马氏距离(x\mu之间的),当\Sigma =I时,可表示欧氏距离。

·??当p=2时,即服从二维高斯分布,每一个对应的概率值都对应一个椭圆(也就是说的等高线):

·? 还有一个定理:

?若x\sim (\mu ,\Sigma )y=Ax+B,则y\sim N(A\mu +B,A\Sigma A^{T})

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-01-29 23:05:20  更:2022-01-29 23:06:22 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 20:38:11-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码