| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 数据结构与算法 -> 集成学习02-回归问题 -> 正文阅读 |
|
[数据结构与算法]集成学习02-回归问题 |
要求:掌握机器学习回归的原理,并使用sklearn进行回归应用。 使用sklearn构建机器学习项目流程:一般来说,一个完整的机器学习项目分为以下步骤:
回归模型:1.线性回归模型 (a) 最小二乘估计: 损失函数: 可直接求权重: 注:为什么误差函数不用|y-yreal|? 首先,消除误差值的正负号影响,可以使用绝对值或平方解决;其次,使用绝对值不方便对误差函数求导。 (b) 几何解释: 为求y到平面x距离最近(误差最小)的参数,让y作垂直平面x的法向量,从而能得到最近似的y'值。 平面X的法向量为Y-Xw,与平面X互相垂直,所以 (Xw也位于x平面上) ? ?(c) 概率解释: 线性回归的最小二乘估计<==>噪声𝜖∽𝑁(0,𝜎2)的极大似然估计 2.线性回归的推广 (a) 多项式回归:将模型换成一个多项式函数 (b) 广义可加模型(GAM):在这个框架中,每一个变量都用一个非线性函数来代替,但是模型本身保持整体可加性。? ?
?(c)回归树模型: 基于树的回归方法主要是依据分层和分割的方式将特征空间划分为一系列简单的区域。对某个给定的待预测的自变量,用他所属区域中训练集的平均数或者众数对其进行预测。由于划分特征空间的分裂规则可以用树的形式进行概括,因此这类方法称为决策树方法。 决策树由结点(node)和有向边(diredcted edge)组成。结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类别或者某个值。区域𝑅1,𝑅2等称为叶节点,将特征空间分开的点为内部节点。 与线性模型的比较: 那么,哪种模型更优呢? 如果特征变量与因变量的关系能很好的用线性关系来表达,那么线性回归通常有着不错的预测效果。反之,如果特征变量与因变量的关系呈现高度复杂的非线性,那么树方法比传统方法更优。 ?(d)支持向量回归SVR: 在线性回归的理论中,每个样本点都要计算平方损失,但是SVR却是不一样的。SVR认为:落在𝑓(𝑥)的𝜖邻域空间中的样本点不需要计算损失,这些都是预测正确的,其余的落在𝜖邻域空间以外的样本才需要计算损失。 作业: 解答: ?损失函数: ?参数: (2)线性回归的最小二乘估计<==>噪声𝜖∽𝑁(0,𝜎2)的极大似然估计;区别是最小二乘法的角度是最小化预测与真实的偏差,极大似然估计是最大化事件发生概率。 ? (6)因为原问题与对偶问题就像是一个问题两个角度去看,如利润最大与成本最低等。有时侯原问题上难以解决,但是在对偶问题上就会变得很简单。再者,任何一个原问题在变成对偶问题后都会变成一个凸优化的问题。
结果: |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年12日历 | -2024/12/27 10:37:30- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |
数据统计 |