| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Task02:详读西瓜书+南瓜书第3章 线性模型 -> 正文阅读 |
|
[人工智能]Task02:详读西瓜书+南瓜书第3章 线性模型 |
这里写目录标题机器学习三要素https://blog.csdn.net/qq_35240204/article/details/106864541 一元线性回归模型一元线性回归我们试图学得模型 均方误差均方误差E斜体样式是回归任务最常用的的性能度量,我们需要做的就是试图让均方误差最小化 最小二乘法那么基于均方误差最小化来进行模型求解的方法就是“最小二乘法”。 事实上,最小二乘法不仅限于线性回归,最小二乘法还可用于曲线拟合。 确定损失函数(策略)因此,对于一元线性回归,我们的目的就很清楚了。 求解w和b(优化算法)基于“均方误差最小化”来进行模型求解的方法就称为最小二乘法。 事实上,当E关于w和b的偏导数均为0的时候,我们得到w和b的最优解 (1) 为什么这么求w和b什么是凸函数这里我们要注意,数学上的凸函数定义和这里的凸函数定义不同 梯度(多元函数的一阶导数)Hession(海塞)矩阵(多元函数的二阶导数)多元函数的凸函数判定
多元线性回归模型在日常生活中,数据集 D 中的样本一般由d个属性描述。 策略类似的,利用最小二乘法对ω和b进行估计,得到均方误差 求解ω和b接下来就是求解ω和b, 因此,学得模型 对数几率回归使用线性模型进行回归学习,我们学得了模型f(χ) 也可以变化为 这里的y表示样本x作为正例(取1)的概率 策略和算法如何求解ω和b? 线性判别分析(Linear Discriminant Analysis–LDA)思想:对于给定的训练样例集D,试图将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离。 损失函数(策略)在经过损失函数推导之后,得到损失函数,也就是LDA欲优化的目标(最大化J) 求解ω(算法)算法:求解损失函数,确定最优模型。 关于最小值点我们知道,使用拉格朗日乘积法求解出的结果是极值点。那么在这里为什么求出来的我们说是最小值点。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 4:39:27- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |