| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 吴恩达:神经网络和深度学习(Neural Networks and Deep Learning) -> 正文阅读 |
|
[人工智能]吴恩达:神经网络和深度学习(Neural Networks and Deep Learning) |
文章目录
1.1欢迎1.2 什么是神经网络最简单的神经网络 1.3 用神经网络进行监督学习CNN:适合于图像数据 RNN:适合(一维)时间序列数据 structured data结构化数据与unstructured data非结构化数据 1.4 为什么深度学习会兴起?data(big data) computer(CPU、GPU) algorithms 好的算法的提升和计算机性能的改进都是为了计算速度的提升,使得程序可以在可接受的时间内完成。而大数据更大的作用在于得到结果的准确性的提升。 activation function激活函数 sigmoid函数:有部分区域梯度趋于0,参数变化会很慢,机器学习会很慢 ReLU函数:rectified linear unit 修正线性单元,可以解决上述问题 idea、code和experiment的循环 2.1 二分分类logistic回归:二分分类算法 图片的矩阵表示:RGB通道
3
×
64
×
64
3\times64\times64
3×64×64参数 backward propagation反向传播 2.2 logistic回归二分分类问题,所以希望输出值是介于0到1之间的值 2.3 logistic回归损失函数 logistic regression cost functionloss function/error function: L ( y ^ , y ) = ? [ ( y l o g y ^ ) + ( 1 ? y ) l o g ( 1 ? y ^ ) ] L(\hat y,y)=-[(ylog\hat y)+(1-y)log(1-\hat y)] L(y^?,y)=?[(ylogy^?)+(1?y)log(1?y^?)] 损失函数应用于单个样本,成本函数是所有样本的总和。 c o s t f u n c t i o n : J ( w , b ) = 1 m ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) cost \quad function:J(w,b) = \frac{1}{m}\sum_{i=1}^{m}L(\hat y^{(i)},y^{(i)}) costfunction:J(w,b)=m1?∑i=1m?L(y^?(i),y(i)) 表示的是1到m项损失函数的平均 2.4 梯度下降法 gradient descentKaTeX parse error: Undefined control sequence: \part at position 81: …w-\alpha \frac{\?p?a?r?t? ?J(w,b)}{\part w… 2.5 导数2.6 更多导数的例子2.7计算图 computation graph2.8 使用计算图求导链式求导法则 2.9 logistic回归中的梯度下降法2.10 m个样本的梯度下降2.11 向量化 vectorization2.12 向量化的更多例子python的numpy库 np.dot() np.exp() np.log() np.zeros() np.abs() np.maximum() 2.13 向量化logistic回归numpy的广播函数 broadcasting
2.14 向量化logistic回归的梯度输出Z = w T X + b = n p . d o t ( w . T , X ) + b A = σ ( Z ) d Z = A ? Y d w = 1 m X d Z T d b = 1 m n p . s u m ( d Z ) w : = w ? α d w b : = b ? α d b Z = w^TX+b=np.dot(w.T,X)+b\\ A = \sigma(Z)\\dZ = A-Y\\ dw = \frac{1}{m}XdZ^T\\ db = \frac{1}{m}np.sum(dZ)\\ w:=w-\alpha dw\\ b:=b-\alpha db Z=wTX+b=np.dot(w.T,X)+bA=σ(Z)dZ=A?Ydw=m1?XdZTdb=m1?np.sum(dZ)w:=w?αdwb:=b?αdb 2.15 python中的广播2.16 python numpy向量的说明
2.17 Jupyter_ipython的快速指南shift+Enter 运行一段代码 cell run cell把文本语言变正常 2.18 (选修)logistic损失函数的解释i f y = 1 : p ( y ∣ x ) = y ^ i f y = 0 : p ( y ∣ x ) = 1 ? y ^ s o p ( y ∣ x ) = y ^ y ( 1 ? y ^ ) 1 ? y l o g p ( y ∣ x ) = y l o g y ^ + ( 1 ? y ) l o g ( 1 ? y ^ ) = ? L ( y ^ , y ) if\quad y=1:p(y|x) = \hat y\\ if\quad y=0:p(y|x) = 1-\hat y\\ so \quad p(y|x) = \hat y^y(1-\hat y)^{1-y}\\ log p(y|x) = ylog\hat y+(1-y)log(1-\hat y) = -L(\hat y,y) ify=1:p(y∣x)=y^?ify=0:p(y∣x)=1?y^?sop(y∣x)=y^?y(1?y^?)1?ylogp(y∣x)=ylogy^?+(1?y)log(1?y^?)=?L(y^?,y) 最小化损失函数就是最大化
l
o
g
P
(
y
∣
x
)
(
i
.
i
.
d
)
logP(y|x)\quad(i.i.d)
logP(y∣x)(i.i.d) 最大似然估计maximum likelihood function 3.1神经网络概览3.2 神经网络表示一般标准的话不把输入层input layer看做标准的层 所以一个三层神经网络一般叫做标准的双层神经网络 3.3 计算神经网络的输出[] : 方括号代表同一样本的不同层layer ():圆括号代表不同样本的同一层layer
3.4 多个样本的向量化3.5 向量化实现的解释3.6激活函数tanh激活函数几乎总比sigma函数表现更好,使得数据的平均值接近0,有标准化的效果。 但是输出层要求值为0或1,所以输出层建议用sigma函数。 选择激活函数的经验法则 sigma函数:二元分类,输出值要求是0或者1(输出层) ReLU函数:其他单元都用 3.7 为什么需要激活函数?可以理解成激活函数实际上是把输出值控制在一定的范围内。 3.8 激活函数的导数sigma函数 3.9 神经网络的梯度下降法3.10 直观理解反向传播3.11 随机初始化W初始化不能选择0,b可以 初始化选择的参数应该小一些,不然会减慢学习速度。 4.1 深层神经网络4.2 前向和反向传播4.3 深层网络中的前向传播4.4 核对矩阵的维数样本中各个量的维度 z [ 0 ] = w [ 0 ] x + b [ 0 ] ( n [ 1 ] , 1 ) ( n [ 1 ] , n [ 0 ] ) ( n [ 0 ] , 1 ) ( n [ 1 ] , 1 ) Z [ 0 ] = W [ 0 ] X + b ( n [ 1 ] , m ) ( n [ 1 ] , n [ 0 ] ) ( n [ 0 ] , m ) ( n [ 1 ] , m ) d Z [ l ] , d A [ l ] : ( n [ l ] , m ) z^{[0]} = \quad w^{[0]}\quad \quad x\quad+b^{[0]}\\ (n^{[1]},1) (n^{[1]},n^{[0]})(n^{[0]},1) (n^{[1]},1)\\ Z^{[0]} = \quad W^{[0]}\quad X+\quad b\\ (n^{[1]},m) (n^{[1]},n^{[0]})(n^{[0]},m) (n^{[1]},m)\\ dZ^{[l]},dA^{[l]}:(n^{[l]},m) z[0]=w[0]x+b[0](n[1],1)(n[1],n[0])(n[0],1)(n[1],1)Z[0]=W[0]X+b(n[1],m)(n[1],n[0])(n[0],m)(n[1],m)dZ[l],dA[l]:(n[l],m) 4.5 为什么使用深层表示4.6 搭建深层网络神经块4.7 参数VS超参数W、b:参数 影响W、b的参数叫做超参数 4.8 这和大脑有什么关系? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年12日历 | -2024/12/22 10:04:30- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |