IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 第一门课:神经网络和深度学习(第四周)——深层神经网络 -> 正文阅读

[人工智能]第一门课:神经网络和深度学习(第四周)——深层神经网络

1. 深层神经网络

??深层神经网络其实就是包含更多的隐藏层神经网络。
??如下图所示,分别列举了逻辑回归、1个隐藏层的神经网络、2个隐藏层的神经网络和5个隐藏层的神经网络它们的模型结构。
在这里插入图片描述
??命名规则上,一般只参考隐藏层个数和输出层。例如,上图中的逻辑回归又叫1 layer NN,1个隐藏层的神经网络叫做2 layer NN,2个隐藏层的神经网络叫做3 layer NN,以此类推。如果是L-layer NN,则包含了L-1个隐藏层,最后的L层是输出层。

??下面以一个4层神经网络为例来介绍关于神经网络的一些标记写法。如下图所示,首先,总层数用L表示, L = 4 ° L=4_{\circ} L=4°? 输入层是第 0 层,输出层 是第L层。 n [ l ] n^{[l]} n[l] 表示第 l l l 层包含的单元个数, l = 0 , 1 , ? , L ° l=0,1,\cdots,L_{\circ} l=0,1?L°? 这个模型中, n [ 0 ] = n x = 3 n^{[0]}=n_{x}=3 n[0]=nx?=3,表示三个输入特征 x 1 , x 2 , x 3 ° n [ 1 ] = 5 x_{1},x_{2},x_{3 \circ} n^{[1]}=5 x1?x2?x3°?n[1]=5 n [ 2 ] = 5 , n [ 3 ] = 3 , n [ 4 ] = n [ L ] = 1 ° n^{[2]}=5,n^{[3]}=3,n^{[4]}=n^{[L]}=1_{\circ} n[2]=5n[3]=3n[4]=n[L]=1°? 第l层的激活函数输出用 a [ l ] a^{[l]} a[l] 表示, a [ l ] = g [ l ] ( z [ l ] ) ° W [ l ] a^{[l]}=g^{[l]}\left(z^{[l]}\right)_{\circ} W^{[l]} a[l]=g[l](z[l])°?W[l] 表示第 l l l 层的权重,用于计算 z [ l ] z^{[l]} z[l] 。另外,我们把输入层记为 a [ 0 ] a^{[0]} a[0],把输出层 y ^ \hat{y} y^? 记为 a [ L ] a^{[L]} a[L]

??注意 a [ l ] a^{[l]} a[l] W [ l ] W^{[l]} W[l] 中的上标 l l l 都是从1开始的, l = 1 , ? , L l=1,\cdots,L l=1?L
在这里插入图片描述

2. 深层网络中的前向传播

??接下来,我们来推导一下深层神经网络的正向传播过程。仍以上面讲过的4层神经网络为例,对于单个样本:
在这里插入图片描述
??如果有m个训练样本,其向量化矩阵形式为:
在这里插入图片描述
??综上所述, 对于第 l l l 层, 其正向传播过程的 Z [ l ] Z^{[l]} Z[l] A [ l ] A^{[l]} A[l] 可以表示为:
Z [ l ] = W [ l ] A [ l ? 1 ] + b [ l ] A [ l ] = g [ l ] ( Z [ l ] ) \begin{gathered} Z^{[l]}=W^{[l]} A^{[l-1]}+b^{[l]} \\ A^{[l]}=g^{[l]}\left(Z^{[l]}\right) \end{gathered} Z[l]=W[l]A[l?1]+b[l]A[l]=g[l](Z[l])???其中 l = 1 , ? ? , L 。 l=1, \cdots, L。 l=1,?,L

3. 核对矩阵的维数

在这里插入图片描述
在这里插入图片描述

4. 为什么使用深层表示?

??在图像处理领域,深层神经网络随着层数由浅到深,神经网络提取的特征也是从边缘到局部特征到整体,由简单到复杂。如果隐藏层足够多,那么能够提取的特征就越丰富、越复杂,模型的准确率就会越高。

??在语音识别领域,浅层的神经元能够检测一些简单的音调,然后较深的神经元能够检测出基本的音素,更深的神经元就能够检测出单词信息。如果网络够深,还能对短语、句子进行检测。

??除了从提取特征复杂度的角度来说明深层网络的优势之外,深层网络还有另外一个优点,就是能够减少神经元个数,从而减少计算量。

5. 前向传播和反向传播

前向传播:

  • 输入: a [ l ? 1 ] a^{[l-1]} a[l?1]

  • 输出: a [ l ] a^{[l]} a[l]

  • 缓存: z [ l ] , w [ l ] , b [ l ] z^{[l]},w^{[l]},b^{[l]} z[l],w[l],b[l]
    z [ l ] = W [ l ] ? a [ l ? 1 ] + b [ l ] a [ l ] = g [ l ] ( z [ l ] ) \begin{aligned} z^{[l]}&=W^{[l]} \cdot a^{[l-1]}+b^{[l]}\\ a^{[l]}&=g^{[l]}\left(z^{[l]}\right) \end{aligned} z[l]a[l]?=W[l]?a[l?1]+b[l]=g[l](z[l])?

  • 向量化写法
    Z [ l ] = W [ l ] ? A [ l ? 1 ] + b [ l ] A [ l ] = g [ l ] ( Z [ l ] ) \begin{aligned} Z^{[l]}&=W^{[l]} \cdot A^{[l-1]}+b^{[l]}\\ A^{[l]}&=g^{[l]}\left(Z^{[l]}\right) \end{aligned} Z[l]A[l]?=W[l]?A[l?1]+b[l]=g[l](Z[l])?

后向传播:

  • 输入: d a [ l ] d a^{[l]} da[l]
  • 输出: d a [ l ? 1 ] , d w [ l ] , d b [ l ] d a^{[l-1]}, d w^{[l]}, d b^{[l]} da[l?1],dw[l],db[l]

??我们之前所用到的: d z [ l ] = w [ l + 1 ] T d z [ l + 1 ] ? g [ l ] ′ ( z [ l ] ) d z^{[l]}=w^{[l+1] T} d z^{[l+1]} \cdot g^{[l]^{\prime}}\left(z^{[l]}\right) dz[l]=w[l+1]Tdz[l+1]?g[l](z[l]) d z [ l ] = d a [ l ] ? g [ l ] ′ ( z [ l ] ) d w [ l ] = d z [ l ] ? a [ l ? 1 ] d b [ l ] = d z [ l ] d a [ l ? 1 ] = w [ l ] T ? d z [ l ] \begin{aligned} d z^{[l]}&=d a^{[l]} * g^{[l]^{\prime}}\left(z^{[l]}\right) \\ d w^{[l]}&=d z^{[l]} \cdot a^{[l-1]} \\ d b^{[l]}&=d z^{[l]}\\ d a^{[l-1]}&=w^{[l] T} \cdot d z^{[l]} \end{aligned} dz[l]dw[l]db[l]da[l?1]?=da[l]?g[l](z[l])=dz[l]?a[l?1]=dz[l]=w[l]T?dz[l]?

  • 向量化写法
    d Z [ l ] = d A [ l ] ? g [ l ] ′ ( Z [ l ] ) d W [ l ] = 1 m d Z [ l ] ? A [ l ? 1 ] T d b [ l ] = 1 m n p ? sum ? ( d Z [ l ] , a x i s = 1 , k e e p d i m s = T r u e ) d A [ l ? 1 ] = W [ l ] T ? d Z [ l ] \begin{aligned} d Z^{[l]}&=d A^{[l]} * g^{[l]^{\prime}}\left(Z^{[l]}\right) \\ d W^{[l]}&=\frac{1}{m} d Z^{[l]} \cdot A^{[l-1] T}\\ d b^{[l]}&=\frac{1}{m} n p \cdot \operatorname{sum}\left(d Z^{[l]}\right., axis =1, keepdims = True )\\ d A^{[l-1]}&=W^{[l] T} \cdot d Z^{[l]} \end{aligned} dZ[l]dW[l]db[l]dA[l?1]?=dA[l]?g[l](Z[l])=m1?dZ[l]?A[l?1]T=m1?np?sum(dZ[l],axis=1,keepdims=True)=W[l]T?dZ[l]?

6. 搭建神经网络块

在这里插入图片描述

7. 参数 vs. 超参数

??参数:模型可以根据数据可以自动学习出的变量,应该就是参数。比如,深度学习的权重w,偏差b等。
??超参数:就是用来确定模型的一些参数,超参数不同,模型是不同的,超参数一般就是根据经验确定的变量。在深度学习中,超参数有:学习速率,梯度下降的迭代次数,隐藏层数量,隐藏层单元数量以及激活函数选择等等。

进行多种组合,各种尝试,目的是选择效果最好的参数组合,在第二门课会介绍具体方式。

8. 深度学习和大脑的关联性

在这里插入图片描述

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-07-31 16:38:15  更:2021-07-31 16:40:08 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年12日历 -2024/12/22 10:08:51-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码