| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> EE4408: Machine Learning: -> 正文阅读 |
|
[人工智能]EE4408: Machine Learning: |
#########update to Lec 10###########################目录 #########update to Lec 10########################### Belief Networks (Bayesian Networks) MLE maximum Likelihood Estimation 极大似然估计 Maximum a posteriori (MAP) Estimation Fisher's Linear Discriminant Analysis LDA:Linear Discriminant Functions Linear Discriminant Functions(线性判别方程) Non-separable Example && Convergence of Perceptron Rules Minimum Squared-Error Procedures Unsupervised Learning(Clustering) EE4408: Machine Learning:Lecture1Types of machine learningSupervised Learning:
Unsupervised Learning:
Reinforcement Learning:强化学习
Probability ReviewDiscrete Random Variable: Bayes Rule: Continuous Random Variable: Lecture 2Graphical Model:
Belief Networks (Bayesian Networks)
Intro to Linear Algebra:
Eigenvalue and Eigenvector用 可以求出 为Eigenvalue(特征值), 将lambda 带入 求出的x为eigenvector(特征向量) Lecture 3Bayesian Decision Theoryprior:先验概率 posterior:后验概率 Decision using Posteriors:
后验概率哪个大,判断成哪个
Conditional Risk: 后验概率决策的升级版,在进行决策前,设置一个参数
MLE maximum Likelihood Estimation 极大似然估计question
main idea
Lecture 4MLE Classifier Example
Cross Validation (交叉验证)基础概念:
一个形象的比喻: 训练集-----------学生的课本;学生 根据课本里的内容来掌握知识。 ? 验证集------------作业,通过作业可以知道 不同学生学习情况、进步的速度快慢。 ? 测试集-----------考试,考的题是平常都没有见过,考察学生举一反三的能力。 K-fold cross validation
overfitting 过拟合 模型对于训练集来说太精确了,失去泛化性 Maximum a posteriori (MAP) Estimation最大化后验概率,首先后验概率 = 先验概率 * likehood
Non-parametric Classification优点:可以用在任意分布,且不需要知道概率密度函数的形式 Density Estimation 其实就是用样本算直方图 Dimensionality Reduction(降维)Lecture 5Data Scaling对数据进行预处理,归一化,防止部分features数值过大,不利于后续操作 Dimensionality ReductionGreedy Forward Feature Selection:从空的features集合中不断加最好的特征 Greedy Backward Feature Selection:从所有的features集合中不断删除最坏的特征 PCA一种数据降维的方法, question
main idea 基于特征值分解协方差矩阵实现PCA算法
基于SVD分解协方差矩阵实现PCA算法
Eigenfaces
Lecture 6Fisher's Linear Discriminant Analysis把分类集合投影到一条线上进行分类 question:
main idea
LDA:Linear Discriminant Functions
Lecture 7Linear Regression步骤:
Five Assumptions of Linear Regression
Estimating β0 and β1
Logistic RegressionAim: to learn Learn P(Y|X) directly by using the way like Linear Regression 实质:利用 l = a+bx 做线性回归,然后讲 l 带入 logistic function表示概率p 损失计算: 利用极大似然函数法,拟合逻辑回归中的参数(a,b) 逻辑回归模型的数学形式确定后,剩下就是如何去求解模型中的参数。在统计学中,常常使用极大似然估计法来求解,即找到一组参数,使得在这组参数下,我们的数据的似然度(概率)最大。 设: 似然函数: 为了更方便求解,我们对等式两边同取对数,写成对数似然函数: ? 在机器学习中我们有损失函数的概念,其衡量的是模型预测错误的程度。如果取整个数据集上的平均对数似然损失,我们可以得到: 即在逻辑回归模型中,我们最大化似然函数和最小化损失函数实际上是等价的。 逻辑回归的损失函数是:(计算方法可以用后面讲到的梯度下降) ? Linear Discriminant Functions(线性判别方程)Augmented Feature Vector: 相当于多添加了一维的数据 判别形式: Normalization:
Solution Region 两种求解方法 Optimization: 将目标函数进行求导,算导数等于0的时候,缺点:解方程复杂,且对于现在的一些问题(深度学习),不太可能写出求导方程。 Gradient Descent(梯度下降) 更新weight vector方法:利用前一次的算出来的目标函数的导数,与目前的weight vector进行想减。 理解:梯度可以表示为目标函数下降的方向,我们只需要不断控制weight vector往这个方向前进,如下图。 优点:现在用的非常广泛,并且适合任意的目标函数 LDF Criterion Function还没有看懂 Perceptron(感知机)感知器得目标函数为所有分错样本的距离和,目的就是最小化这个目标函数。 利用梯度更新方法:
Non-separable Example && Convergence of Perceptron Rules对于以上这种没有办法找到一个合适的分类线的情况,对于基础感知器或者线性判别分类器,它会一直继续分类,没有办法收敛。 此时我们可以设置合适的学习率 ,相当于更新次数越多,梯度会越来越不想更新。 Lecture 8Minimum Squared-Error ProceduresMSE 只是一种设立目标函数(损失)的一个方程而已。 MSE:求解方法:
Support Vector Machines Support Vector MachinesLDF出现的问题:我们只是很好的拟合了训练集,当出现一个新的样本(十分接近我们的决策平面),我们就很容易将它分错。 因此就需要SVM(? Idea: maximize distance to the closest example)使最接近决策平面的两个点之间的距离最大。 公式:
SVM: Non-Separable Case通过设置 b 的大小来松弛间隔(允许多少点可以在这个间隔内) Nonlinear Mapping利用转换方程实现非线性映射: Kernels(SVM的核函数)因为许多样本并不是线性可分的(用一条线就能够分出来),因此需要用到核函数(改变决策平面的形状)
核函数类型(了解): Nonlinear SVM Step-by-Step与之前步骤是一样的,只是改变了核函数(感兴趣可以看数学推导里面) One-Against-All 经过后来的研究 SVM可以从二分类问题转化为多分类问题: Lecture 9Ensemble Classifiers (集成分类器)利用多个分类器集成来提高分类效果 主要分为 Bagging 和 boosting,其中random forest 属于 bagging(感觉会考) Bagging:类似于投票机制:随机选取样本,利用每一次随机选取的训练集训练一个分类器,最后通过所有分类器进行投票来获得最后的分类效果。 Decision Tree(决策树)是一个树状的分类器,每一个节点的选择是根据信息增益熵选择的 感兴趣可以看:(考试应该不考) 决策树(decision tree)(一)——构造决策树方法_天泽28的专栏-CSDN博客_决策树 Random Forest:(随机森林)就是把决策树当成弱分类器,然后利用Bagging方法,投票决定最后的分类。 Advantages of Random Forests
Boosting与bagging不同点在于,不是随机的选择每一次的训练样本(有规则的) 以AdaBoost为例:
Random Forests vs. BoostingLecture 10Unsupervised Learning(Clustering)为什么要用非监督学习: Distance Measures: 考虑问题:
K-means Clustering一种迭代地算法 Iterative optimization algorithms
-----------------------------------------------------------------------------------------感谢贾神、陈工友,无私奉献 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 22:23:42- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |