| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> DAY4:AlexNet网络简介 -> 正文阅读 |
|
[人工智能]DAY4:AlexNet网络简介 |
一、AlexNet网络AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。AlexNet将LeNet的思想发扬光大,把CNN的基本原理应用到了很深很宽的网络中,其中引入了很多创新点(将在铺垫知识详细介绍)因此具有更强的图像处理效果。 二、铺垫知识(一)ReLU采用ReLU的深度卷积神经网络训练时间比等价的 1.相比起Sigmoid和tanh,ReLU在SGD中能够快速收敛,这是因为它线性(linear)、非饱和(non-saturating)的形式。 2.Sigmoid和tanh涉及了很多很expensive的操作(比如指数),ReLU可以更加简单的实现。 3.有效缓解了梯度消失的问题。 4.在没有无监督预训练的时候也能有较好的表现。 (二)Dropout深度学习可能存在过拟合问题,而Dropout正则化可以随机删除网络中的神经单元,不贡献连接权重而减少过拟合风险。同时强迫这些神经元去学习互补的一些特征。 (它会以0.5的概率对每个隐层神经元的输出设为0。那些“失活的”的神经元不再进行前向传播并且不参与反向传播。因此每次输入时,神经网络会采样一个不同的架构,但所有架构共享权重。这个技术减少了复杂的神经元互适应,因为一个神经元不能依赖特定的其它神经元的存在。因此,神经元被强迫学习更鲁棒的特征,它在与许多不同的其它神经元的随机子集结合时是有用的。) (三)GPU由于无网络太大,不能在单个GPU上进行训练,因此作者将网络分布在两个 (四)Overlapping Pooling重叠池化:习惯上,相邻池化单元归纳的区域是不重叠的,而重叠池化的池化步伐小于池化核,从而池化结果实现重叠。目的:实验发现在训练过程中通常观察采用重叠池化的模型,发现它更难过拟合。 (五)LRN?LRN (局部响应归一化)是一种提高深度学习准确度的技术方法。LRN 一般是在激活、池化函数后的一种方法。 ? 在 ALexNet 中,提出了 LRN 层,对局部神经元的活动创建竞争机制,使其中响应比较大对值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。 局部响应归一化,在ReLU激活后面加上LRN,从而有助于泛化。(BN是批归一化)下面是LRN公式: 三、网络框架下图是alexnet网络框架图,网络包含8个带权重的层;前5层是卷积层,剩下的3层是全连接层。最后一层全连接层的输出是1000维 如图所示分为两层,两层在两块GPU上运行;? 第2,4,5卷积层的核只与位于同一GPU上的前一层的核映射相连接; 第3卷积层的核与第2层的所有核映射相连; 全连接层的神经元与前一层的所有神经元相连; 在第1,2卷积层之后是局部响应归一化层LRN; 在响应归一化层LPN和第5卷积层之后是重叠池化; 在每个卷积层和全连接层的输出上是ReLU函数; 在第1,2,5层后面是重叠池化; 在前两个全连接层是Dropout。 (一)C1输入图片:227 × 227 × 3 卷积:11×11×3,步长为4,卷积核为96 特征图像:55×55×96【(227-11)/4+1=55】 ReLU:激活函数 池化:?27×27×96【(55-3)/2+1=27】? kernel size3,stride2 LRN:局部响应归一化处理 (二)C2输入图片:27×27×96为方便计算经过2像素扩展为31×31×96后分为两组为31×31×48 每组卷积:5×5×48,步长为1,卷积核为128 特征图像:27×27×128【(31-5)/1+1=27】 ReLU:激活函数 池化:?13×13×128【(27-3)/2+1=13】? kernel size3,stride2 LRN:局部响应归一化处理 (三)C3输入图片:每组13×13×128为方便计算经过1像素扩展为15×15×128 每组卷积:3×3×128,步长为1,卷积核为192 特征图像:13×13×192【(15-3)/1+1=13】 ReLU:激活函数 (四)C4输入图片:每组13×13×192为方便计算经过1像素扩展为15×15×192 每组卷积:3×3×192,步长为1,卷积核为192 特征图像:13×13×192【(15-3)/1+1=13】 ReLU:激活函数 (五)C5输入图片:每组13×13×192为方便计算经过1像素扩展为15×15×192 每组卷积:3×3×192,步长为1,卷积核为128 特征图像:13×13×128【(15-3)/1+1=13】 ReLU:激活函数 每组池化:6×6×128【(13-3)/2+1=6】? kernel size3,stride2 LRN:局部响应归一化处理 (六)F1输入图片:6×6×256 滤波器:6×6×256,4096个 神经元:4096个神经元 输出:4096×1 ReLU dropout (七)F2输入:4096×1 神经元:4096个神经元 输出:4096×1 ReLU dropout (八)F3输入:4096×1 神经元:1000个神经元 输出:1000×1 ReLU dropout 四、代码实现Pytorch
参考: 论文连接https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/16 15:21:47- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |