| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 神经网络与深度学习 -> 正文阅读 |
|
[人工智能]神经网络与深度学习 |
马上期末考试了,就用这篇博客充当一下复习记录吧。一些部分可能有误,还请各位大佬批评指正。 第 1 章 绪论
有关神经网络、深度学习与人工智能的关系 问题:神经网络中除了深度学习还有什么? 因此神经网络与深度学习并不是相互包含的关系,深度学习与神经网络彼此有交集却并不等价也不存在包含关系。 问题:机器学习的步骤 特征提取:根据某些方法提取出有用的特征,提取出有用的特征,去除多余的或者起到干扰作用的特征,又或者在图像分类中提取边缘、在文本分类中去除停用词等。 特征转换:对提取出来的特征进行转换,如降维(PCA或LDA等方法)或升维。使得数据具有更好的表现力。 预测:选定一个合适的模型,学习一个函数(利用优化方法将损失函数降到最小)并在测试集上进行预测。 问题:深度学习的步骤 第 2 章 机器学习概述
问题:什么是机器学习 问题:常见的机器学习类型 有监督学习:对每一个样本都有“标准答案”,机器学习根据“标准答案”利用损失函数计算损失,通过对损失函数的最小化达到模型学习的目的。如分类、回归等问题。 无监督学习:每一个样本都没有“标准答案”,利用这些数据解决模式识别中的问题(如类别划分)。常见的无监督学习有PCA、聚类、核密度估计等。 半监督学习:部分样本有“标准答案”部分样本没有。利用这些数据训练一个模型来解决问题(分类、回归等)。 问题:机器学习四要素
理解机器学习的几个关键点 第 3 章 线性模型
交叉熵和MSE损失的异同: 交叉熵损失 如何直观理解: 那么,当样本的真实值为1也就是 y i = 1 y_i = 1 yi?=1时,此时 L i = ? [ y i ? log ? ( p i ) ] = ? log ? ( p i ) L_i = -\left[y_{i} \cdot \log \left(p_{i}\right)\right] = -\log \left(p_{i}\right) Li?=?[yi??log(pi?)]=?log(pi?)那么根据 l o g log log函数, p i p_i pi?越接近于1,也就是模型认为该样本为正类的概率越大(正确的)此时 L i L_i Li?越小;而若 p i p_i pi?越接近于0,也就是模型认为该样本为负类的概率越大(错误的),此时 L i L_i Li?越大。 当样本的真实值为0也就是
y
i
=
0
y_i = 0
yi?=0时,此时
L
i
=
?
[
(
1
?
y
i
)
?
log
?
(
1
?
p
i
)
]
=
?
log
?
(
1
?
p
i
)
L_i = -\left[(1-y_{i}) \cdot \log \left(1-p_{i}\right)\right] = -\log \left(1-p_{i}\right)
Li?=?[(1?yi?)?log(1?pi?)]=?log(1?pi?)那么根据
l
o
g
log
log函数,
p
i
p_i
pi?越接近于1,也就是模型认为该样本为正类的概率越大(错误的)此时
L
i
L_i
Li?越大;而若
p
i
p_i
pi?越接近于0,也就是模型认为该样本为负类的概率越大(正确的),此时
L
i
L_i
Li?越小。
参考:分类模型的 Loss 为什么使用 cross entropy 而不是 classification error 或 squared error MSE损失 第 4 章 前馈神经网络
神经网络的主要特征:
激活函数
常用激活函数:S 型激活函数、斜坡型激活函数、复合激活函数 S 型激活函数
缺点:
t
a
n
h
(
x
)
=
e
x
?
e
?
x
e
x
+
e
x
=
2
σ
(
2
x
)
?
1
tanh(x) = \frac{e^{x} - e^{-x}}{e^{x}+e^{x}} = 2\sigma(2x) - 1
tanh(x)=ex+exex?e?x?=2σ(2x)?1
缺点:
Leaky RELU ELU
其中𝑃(𝑋 ≤ 𝑥)是高斯分布𝒩(𝜇, 𝜎2)的累积分布函数,其中𝜇, 𝜎为超参数,一般设𝜇 = 0, 𝜎 = 1即可.由于高斯分布的累积分布函数为S型函数,因此GELU函数可以用Tanh函数或Logistic函数来近似. 前馈神经网络结构
前向传播及反向传播算法 第 5 章 卷积神经网络
卷积神经网络以及其三个结构特征 卷积神经网络(Convolutional Neural Network,CNN或ConvNet)是一种 特征:
卷积过程和不同类型的卷积
掌握卷积神经网络中卷积核、卷积层、卷积网络结构 卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。
各种不同类型的卷积(空洞卷积等)
针对以上,提出了空洞卷积: 残差网络机理 并不是这样的,在网络的训练过程中随着网络层数的增加,网络发生了退化(degradation)的现象:随着网络层数的增多,训练集loss逐渐下降,然后趋于饱和,当你再增加网络深度的话,训练集loss反而会增大。 那么为什么会出现这种现象呢? 那么如何避免这种情况呢,能不能在提取特征的同时保证信息不丢失? 第 6 章 循环神经网络
掌握递归神经网络(RNN)的前向传播,理解反向传播过程(BPTT) |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 3:29:19- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |