IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 开学报告 -> 正文阅读

[人工智能]开学报告

开学报告
??本人在暑假期间学习了Python的基础语法,也做了一些与该语言相关的练习题,目前正在学习的课程为DIVE INTO DEEP LEARNING。由于本人之前从未接触过该领域的相关知识,所以决定打好一个牢固的基础。我学习配置了一个环境来运行 Python、Pycharm、相关库以及该课程所需的代码,以快速入门并获得动手学习的经验,并且复习了高等数学和线性代数的相关知识,例如自动求导的代码实现和张量,张量在深度学习中是一个很重要的概念,因为它是一个深度学习框架中的一个核心组件,后续的所有运算和优化算法几乎都是基于张量进行的。

??接着我学习了线性回归模型,线性回归(linear regression)在回归的各种标准工具中最简单而且最流行。线性回归基于几个简单的假设:首先,假设自变量x和因变量y之间的关系是线性的,即y可以表示为x中元素的加权和,这里通常允许包含观测值的一些噪声,其次,我们假设任何噪声都比较正常,如噪声遵循正态分布。为了解释线性回归,我们举一个实际的例子:我们希望根据房屋的面积(平方英尺)和房龄(年)来估算房屋价格(美元)。为了开发一个能预测房价的模型,我们需要收集一个真实的数据集。这个数据集包括了房屋的销售价格、面积和房龄。在机器学习的术语中,该数据集称为训练数据集(training data set)或训练集(training set),每行数据(在这个例子中是与一次房屋交易相对应的数据)称为样本(sample),也可以称为数据点(data point)或数据样本(data instance)。我们要试图预测的目标(在这个例子中是房屋价格)称为标签(label)或目标(target)。预测所依据的自变量(面积和房龄)称为特征(feature)或协变量(covariate)。
??建模时采用线性代数表示法会比较方便。当我们的输入包含d个特征时,我们将预测结果 y ^ \hat{y} y^?(通常使用“尖角”符号表示估计值)表示为:
?????????? y ^ = w 1 x 1 + . . . + w d x d + b \hat{y} = w_{1}x_{1} + ... + w_{d}x_{d} + b y^?=w1?x1?+...+wd?xd?+b
??当我们的输入包含d个特征时,将所有特征放到向量 x ∈ R d \textbf{x}\in\mathbf{R}^d xRd中,并将所有权重放到向量 w ∈ R d \textbf{w}\in\mathbf{R}^d wRd中, y ^ \hat{y} y^?表示预测结果,可以用点积形式来简洁地表达模型:
?????????? y ^ = w ? x + b \hat{y} = \textbf{w}^\top\textbf{x} +b y^?=w?x+b
扩展:
用符号表示的矩阵 X ∈ R n × d \mathbf{X}\in\mathbf{R}^{n\times d} XRn×d可以很方便地引用整个数据集的n个样本。其中, X \mathbf{X} X的每一行是一个样本,每一列是一种特征。模型通过矩阵-向量乘法表示为:
?????????? y ^ = X w + b \hat{y} = \mathbf{X}\mathbf{w} + b y^?=Xw+b
??给定训练数据特征 X \mathbf{X} X和对应的已知标签 y y y,线性回归的目标是找到一组权重向量 w w w和偏置 b b b。当给定从 X \mathbf{X} X的同分布中取样的新样本特征时,找到的权重向量和偏置能够使得新样本预测标签的误差尽可能小。
??在训练模型时,我们希望寻找一组参数( w ? , b ? \mathbf{w}^*,\mathbf{b}^* w?,b?),这组参数能最小化在所有训练样本上的总损失。如下式:
?????????? w ? , b ? = arg?min ? w , b ∣ ∣ X w ? Y ∣ ∣ 2 2 ( w , b ) \mathbf{w}^*,\mathbf{b}^* = \argmin_{\mathbf{w},{\mathbf{b}}} ||\mathbf{X} \mathbf{w} - \mathbf{Y}||_2^2(\mathbf{w},\mathbf{b}) w?,b?=w,bargmin?Xw?Y22?w,b
如何获得 w \mathbf{w} w?
推导过程:
∣ ∣ X w ? Y ∣ ∣ 2 2 = ( X w ? Y ) T ( X w ? Y ) ||\mathbf{X} \mathbf{w} - \mathbf{Y}||_2^2 = (\mathbf{X}\mathbf{w}?\mathbf{Y})^{\mathrm{T}}(\mathbf{X}\mathbf{w}?\mathbf{Y}) Xw?Y22?=(Xw?Y)T(Xw?Y)
??????? = ( w T X T ? Y T ) ( X w ? Y ) =(\mathbf{w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}} - \mathbf{Y}^{\mathrm{T}})(\mathbf{X}\mathbf{w}?\mathbf{Y}) =(wTXT?YT)(Xw?Y)
??????? = w T X T X w ? w T X T Y ? Y T X w + Y T Y =\mathbf{w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\mathbf{X}\mathbf{w} - \mathbf{w}^{\mathrm{T}}\mathbf{X}^{\mathrm{T}}\mathbf{Y} - \mathbf{Y}^{\mathrm{T}}\mathbf{X}\mathbf{w} + \mathbf{Y}^{\mathrm{T}}\mathbf{Y} =wTXTXw?wTXTY?YTXw+YTY
将该式关于 w \mathbf{w} w求导 (使用向量求导法则) 并令其为 0, 可得
X T X w ? X T Y \mathbf{X}^{\mathrm{T}}\mathbf{X} \mathbf{w} - \mathbf{X}^{\mathrm{T}}\mathbf{Y} XTXw?XTY=0
最后
w = ( X T X ) ? 1 X T Y \mathbf{w} = (\mathbf{X}^{\mathrm{T}}\mathbf{X})^{-1}\mathbf{X}^{\mathrm{T}}\mathbf{Y} w=(XTX)?1XTY

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-09-14 13:20:36  更:2021-09-14 13:21:45 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 14:34:21-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码