| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 游戏开发 -> 类脑计算论文泛读 -> 正文阅读 |
|
[游戏开发]类脑计算论文泛读 |
??上学期听了何毓辉老师的《类脑计算与器件》课程,本文也是对上学期上课内容的大体总结。 参考文献:
忆阻器??忆阻器是一种统称,它一般指电导可以连续调节,并且调节结果可以保存的器件。主要有:阻变存储器、相变存储器、铁电晶体管、浮栅晶体管等。 ??从非晶态到晶态的过程称为“annealing”,对应上图中的加Set温度曲线,温度要超过结晶温度
T
c
r
y
s
\rm T_{crys}
Tcrys?,但不能到达熔融温度。从晶态到非晶态的过程称为“melt-quenching”,需要将温度身高到熔融温度
T
m
e
l
t
\rm T_{melt}
Tmelt?,并快速降温,对应图中的Reset曲线。 ??用于人工神经网路的忆阻器,我们比较关心它的线性度。长时增强效应(long term potentiation, LTP)和长时抑制效应(long term depression,LTD)是两个重要的衡量指标。阻变存储器的LTP和LTD虽然可能没有上图中那么线性,但大体还是有缓慢增加或减少的趋势,而相变存储器的LTD则是电导值始终位置在较低的水平。 1T1R突触结构??论文[1]中介绍了利用1个晶体管+1个RRAM作为突触,利用感知机模型实现人脸分类。人脸图像20×16个像素,训练样本包含三个不同的人的人脸。
f
(
x
)
=
tanh
?
(
ω
T
x
+
b
)
??????
tanh
?
(
a
)
=
sinh
?
a
cosh
?
a
=
e
a
?
e
?
a
e
a
+
e
?
a
f(x) = \tanh \left( { {\omega ^T}x + b} \right)\;\;\;\tanh (a) = { {\sinh a} \over {\cosh a} } = { { {e^a} - {e^{ - a} } } \over { {e^a}{\rm{ + } }{e^{ - a} } } }
f(x)=tanh(ωTx+b)tanh(a)=coshasinha?=ea+e?aea?e?a? ??但从算法方面考虑这一问题比较简单,硬件实现会有一些额外的问题。在硬件上,每个突触与一个权值对应。突触阵列能够方便地完成向量矩阵乘法(VMM),因为它是并行的乘加运算。所以RRAM阵列很适合用来做前向推理,但是更新权值比较麻烦。
??主要有两种方式,“Delta Rule”就是精准改变权值,计算出
ω
\omega
ω需要改变多少就改变多少。而前面提到RRAM的电导调整是非线性的,因此每次改电导值都需要再读出来确认是否改到位了。??另一种方式是“Manhattan Rule”,它只关心权值改变的方向,比如
ω
\omega
ω需要增大,那么这次修改就增大一次
ω
\omega
ω对应的电导值,而不关心实际电导变为了多少。后者因为没有验证权值更新的过程,所以相对来说需要更多的样本才能收敛,前者在修改单个权值时是do-while循环,时间不可控,而后者每次修改单个权值不需要循环,非常快。从总的时间上来说前者需要的时间更多,但考虑到功耗和训练结果等指标后,前者的性能更好。 潜行通路??1T1R用一个晶体管来选通RRAM,实际上一个晶体管的面积非常大,所以我们可以想办法把晶体管省去。但如果仅仅是把晶体管省去,就会引入潜行通路的问题。 ??如上图所示,我们希望 V i V_i Vi?只通过蓝色的路线对 I j I_j Ij?有贡献,但实际上由于 V i + 1 V_{i+1} Vi+1?悬空, V i V_i Vi?还会通过绿色的路线对 I j I_j Ij?产生贡献,这就是潜行通路(sneak path)。 1S1R突触结构??针对潜行通路的问题主要有两种办法,一种是用类似二极管的器件切断潜行通路,另一种是用差分对的结构进行补偿。这里先介绍第一种,就是1S1R的结构。 ??选通管几乎不会占用多余的面积,它与RRAM的工艺兼容性更好。如上图所示,它能够直接切断潜行通路。 差分对突触结构??第二种解决潜行通路的办法是引入差分对。 ??用两个突触电导的差来代表权重。 G i j = G i j + ? G i j ? {G_{ij} } = G_{ij}^ + - G_{ij}^ - Gij?=Gij+??Gij?? ??对于电流 I j + I_j^+ Ij+?,我们可以把它的组成分为三类,一类是 V i V_i Vi?仅通过 G i j + G_{ij}^ + Gij+?产生的电流;一类是 V i V_i Vi?经过 I j ? I_j^- Ij??所在路径的潜行通路电流,注意这部分电流不只图中画的蓝色部分,类似蓝色部分的电流还有好多条,可以把这部分电流对应的电导记作 Δ G 1 \Delta G_1 ΔG1?;最后一类是 V i V_i Vi?通过其它的潜行通路产生的电流,记作 Δ G 2 \Delta G_2 ΔG2?。 I j + = V i G i j + + V i ( Δ G 1 + Δ G 2 ) I j ? = V i G i j ? + V i ( Δ G 1 ′ + Δ G 2 ) \begin{array}{l} I_j^ + = {V_i}G_{ij}^ + + {V_i}(\Delta {G_1} + \Delta {G_2})\\ I_j^ - = {V_i}G_{ij}^ - + {V_i}(\Delta G_1' + \Delta {G_2}) \end{array} Ij+?=Vi?Gij+?+Vi?(ΔG1?+ΔG2?)Ij??=Vi?Gij??+Vi?(ΔG1′?+ΔG2?)? ??当输入向量维度比较大时,可以把 Δ G 1 \Delta G_1 ΔG1?和 Δ G 1 ′ \Delta G_1' ΔG1′?看做近似相等,那么: I j + ? I j ? = V i ( G i j + ? G i j ? ) I_j^ + - I_j^ - = {V_i}(G_{ij}^ + - G_{ij}^ - ) Ij+??Ij??=Vi?(Gij+??Gij??) ??这样就抵消了潜行通路的影响。论文[2]就是采用了这样的设计方法。 ??文中作者实现了对“Z”、“V”、“R”三种模式的识别,每个字母都是一个3×3的样本。值得注意的技巧是,作者改写电导值用的“半电压”。写电压为
V
w
V_w
Vw?,在突触两端分别施加
V
w
/
2
V_w/2
Vw?/2和
?
V
w
/
2
-V_w/2
?Vw?/2来达到改写电导值的目的,这么做有利于降低功耗。 反向传播??反向传播的思想非常简单,利用梯度下降法令损失
L
L
L最小。 ??上图是传统神经网络的最后一层,第k层。每有一组权值矩阵
W
W
W称为一层。权值矩阵
W
W
W的改变正比于当前
W
W
W在损失函数上的梯度。 ??写出
L
L
L关于
W
W
W的全微分式: δ k ? 1 = ? L ? s k ? 1 = ? x k ? 1 ? s k ? 1 ? s k ? x k ? 1 ? L ? s k = f k ? 1 ′ ( s k ? 1 ) ⊙ ( W δ k ) {\delta ^{k - 1} } = { {\partial L} \over {\partial {s^{k - 1} } } } = { {\partial {x^{k - 1} } } \over {\partial {s^{k - 1} } } }{ {\partial {s^k} } \over {\partial {x^{k - 1} } } }{ {\partial L} \over {\partial {s^k} } } = {f^{k - 1} }'\left( { {s^{k - 1} } } \right) \odot \left( {W{\delta ^k} } \right) δk?1=?sk?1?L?=?sk?1?xk?1??xk?1?sk??sk?L?=fk?1′(sk?1)⊙(Wδk) ??这样就得到了一个关于 δ \delta δ的递推公式,这也是“反向传播”这一名称的由来。损失误差 δ \delta δ可以逐层从后向前计算。 Δ W m × n ~ x m × 1 δ n × 1 T \Delta {W_{m \times n} } \sim x_{m \times 1}{\delta _{n \times 1}^T } ΔWm×n?~xm×1?δn×1T? ??利用器件实现反向传播的优势在于,可以利用RRAM阵列很快地计算出
Δ
W
\Delta W
ΔW。因为
Δ
W
\Delta W
ΔW是由一个列向量和一个行向量相乘得到的,可以把它们直接从行列方向送入阵列。 ??光有这样的结构还不行,还需要对输入的数据进行编码。 ??这里截取了论文[3]中的两张图,左边的是算法层面的,
x
x
x和
δ
\delta
δ都是连续值。而右图是将
x
x
x和
δ
\delta
δ做了脉冲编码,这里举的例子是将
Δ
W
\Delta W
ΔW量化为5个等级。两者都采用半电压输入,只有两者的脉冲同时有效时才能凑成一个完成的写电压。 ??上图是脉冲 x x x和 δ \delta δ的脉冲编码方式。 脉冲神经网络STDP??Spike Timing Dependent Plasticity,是生物大脑内的一种学习规则。 ?? t p r e t_{pre} tpre?是前一个神经元被激活的时刻, t p o s t t_{post} tpost?是后一个神经元被激活的时刻,神经元之间突触权值的变化量与前后神经元激活时刻的时间差有关。概括起来说就是,时间越近响应越强。 漏电积分点火神经元模型??生物细胞中神经元之间的信息传递是依靠钠钾离子的转移改变细胞膜电位实现的。利用一个电容和一个电阻可以建立起这样一个模型,神经元的激活可以用电容两端电压的暂态响应来描述。 ??这是来自论文[4]中的一张截图。它展示了当电容上的电压达到一定的阈值时,这个神经元就会产生一个脉冲信号,表示它被激活。 SpikeProp??用 ε ( t ) \varepsilon(t) ε(t)表示神经元脉冲响应函数。 ε ( t ) = { t τ exp ? ( 1 ? t τ ) , ?? t > 0 0 , ?? t ≤ 0 \varepsilon (t) = \left\{ {\begin{matrix} {\frac{t}{\tau }\exp \left( {1 - \frac{t}{\tau } } \right),\;t > 0}\\ {0,\;t \le 0} \end{matrix} } \right. ε(t)={τt?exp(1?τt?),t>00,t≤0? ??建立输入层 h h h、一层隐藏层 i i i、输出层 j j j,构成脉冲神经网络。有两层权重需要调整, ω h i \omega_{hi} ωhi?和 ω i j \omega_{ij} ωij?。利用梯度下降法经过复杂的计算可以得到近似结果。
Δ
ω
i
j
=
?
η
′
(
t
j
?
t
j
d
)
ε
(
t
j
?
t
i
?
d
)
\Delta {\omega _{ij} } = - \eta '\left( { {t_j} - t_j^d} \right)\varepsilon \left( { {t_j} - {t_i} - d} \right)
Δωij?=?η′(tj??tjd?)ε(tj??ti??d) ??权重变化量主要受到两部分控制。一部分是期望的脉冲产生时刻 t d t^d td和实际脉冲产生时刻 t t t的差值;另一部分是前级脉冲输入时刻实际脉冲产生时刻的差值对应的权值改变量 ε ( Δ t ) \varepsilon(\Delta t) ε(Δt),这一部分满足STDP规则。 ??有一个问题是时间量纲的转换。以
Δ
ω
i
j
\Delta {\omega _{ij} }
Δωij?为例,当
t
j
t_j
tj?早于
t
j
d
t_j^d
tjd?,电容充电太快,需要减小电导,因此此时的
t
j
t_j
tj?需要对应一个正电压,如上图左侧的
t
j
t_j
tj?脉冲所示;反之当
t
j
t_j
tj?晚于
t
j
d
t_j^d
tjd?,需要用电压保持器保持一个负电压,用于后续信号生成。 ??基于三端铁电存储器的突触和LIF神经元电路框图如上图所示。采用三端忆阻器件,使得读写可以同时进行。图中只画出了一个突触,实际上一般会有多个突触同时接到一个神经元上。 ??上图展示了电压采样的过程,有两个自由度可以调整
V
G
S
\rm V_{GS}
VGS?,一个是调节
V
P
O
S
T
\rm V_{POST}
VPOST?本身的大小,另一个是采样时刻,对应了
Δ
ω
i
j
\Delta \omega_{ij}
Δωij?的计算过程。 ??
ω
h
i
\omega_{hi}
ωhi?是输入层和隐藏层之间的权重,这一层的误差需要对输出层的误差进行累加,如上图所示。这里除了送入神经元的误差信号与前面不同以外,别的都是一样的。 ??由于误差信号是在输出层产生的,在第一次输入样本的的时候,误差信号并没有产生,因此需要将同一个样本输入两次才能正确更新两层权重。这里是两层神经网络,需要把样本送入两边,那么如果是n层神经网络,需要重复送入几遍?答案还是两遍,因为我们在第一次输入的时候就能获得每一层的误差。 ReSuMe??SpikeProp的推导相对来说比较复杂,Remote Supervised Method,ReSuMe是另一种较为简单的实现SNN的方式。 ??论文[5]提出了一种用互补石墨烯铁电晶体管(C-GFTs)实现的方案。ReSuMe的基本思想是由两个忆阻器件组成突触,整体电导值是两者之和。其中一个负责增大电导,另一个负责减小电导。 应用??SNN适合结合动态视觉传感器(Dynamic Vision Sensors, DVS)使用。一个像素由亮变暗和由暗变亮会产生不同的脉冲。在一幅图上构建两张突触网络,一张展现由有亮变暗的像素点,一张展现由暗变亮的像素点。将两者结合起来看就可以看出物体的运动方向。 ??上图截自2012 Neural Networks的Extraction of temporally correlated features from dynamic vision sensors with spike-timing-dependent plasticity,图像数据的表示方式是Address-Event Representation, AER。只有发生明暗变化才会发送数据,比较适合监控场景。 非监督学习??论文[6]用1T1R的突触结构实现了手写数字识别的非监督学习。它也是遵循STDP的学习法则。只是做了简化,下图是权值改变曲线,它是STDP曲线的一级近似。当后级神经元的脉冲在前级神经元的脉冲之后10ms内产生,则增大权值;反之减小权值。 ??神经元的输出是宽度为10ms的高电平+10ms的低电平,加在后级突触的晶体管栅极。这意味着在神经元被激活之后的10ms内,其后级的突触电导能够被读或者被改写。 ??RRAM的一端接
V
T
E
\rm V_{TE}
VTE?,叫做Top Electrode,在平常是固定的高电平读电压。前级神经元产生的脉冲会产生读电流,后级神经元不断积分。而在后级神经元被激活的时候,后级神经元会发出一对正负脉冲加载
V
T
E
\rm V_{TE}
VTE?上,用来改电导值。正脉冲位于前10ms内,负脉冲位于后10ms内。这一简单的设计就实现了
Δ
t
>
0
\Delta t>0
Δt>0时,正脉冲在窗口期内;
Δ
t
<
0
\Delta t<0
Δt<0时,负脉冲在窗口期内。 ??上图是它实际工作的过程。最后的结果如下图所示,训练之后,10个输出神经元的突触权重正好构成了对应的数字。为了避免产生多个输出,输出神经元之间也有连接,在生物上称为“侧抑制”,“Lateral Inhibition”。也可以称之为“Winner Take All”。就是当其中一个神经元激活时,其它神经元的积分过程直接终止。 ??还有一个值得一提的地方是,训练的时候对背景的抑制也是训练成功的关键。在输入训练样本的时候同时交替输入一些噪声,能够提高学习的效率。这部分噪声产生的脉冲会抑制对应的背景的权值,使得训练效果更好。实验结果表面,引入9%的噪声能够达到最好的学习效率。 强化学习??强化学习也很大程度上依赖外部的计算资源,论文[7]是用数模混合的方式实现强化学习的一个例子,但它只是用模拟硬件做向量矩阵运算,在器件层面没有特别的地方。这里简单介绍强化学习的一些基本理论。 ??强化学习算法通过优化策略来使收益最大。把 s s s状态下,采取行动 a a a的概率记为 π ( s , a ) \pi(s,a) π(s,a),它满足: ∑ a π ( s , a ) = 1 \sum\limits_a {\pi \left( {s,a} \right)} = 1 a∑?π(s,a)=1 ??把状态
s
s
s下,采取行动
a
a
a,转移到状态
s
′
s'
s′的奖励记作
R
s
s
′
a
R_{ss'}^a
Rss′a?,采取某个策略
π
\pi
π的总收益记作
Q
π
(
s
,
a
)
Q^{\pi}(s,a)
Qπ(s,a)。 ??上面这个收益相当于是目标函数,需要令其最大,据此优化策略
π
\pi
π。其中有一个折扣系数
γ
\gamma
γ,它表示相比于以后的收益,我们更注重当前的收益
R
s
s
′
a
R_{ss'}^a
Rss′a?。 卷积神经网络??论文[8]和论文[9]介绍了卷积神经网络相关的设计。全连接神经网络主要有两个问题。一个是参数特别多,但又是稀疏的;另一个是可诠释性的问题,隐藏层的突触含义不能直观地解释。卷积神经网络利用卷积核提取图像中的特征,可解释性强且参数少了很多。 ??上图是一个典型的卷积神经网络的结构框图。包含卷积、降采样(池化)和全连接等操作。降采样能够有效防止过拟合。一般来说,n个卷积核能够得到n通道的特征图;卷积核的维度和将要参与运算的特征图的维度高一个维度。比如单张图像,卷积核就是二维的,但可以有多个,那就是三维;对于多通道的特征图,卷积核就是三维的,而且也可以有多个,那就是四维。 ??针对第二个问题,作者采用的方法是,将原本一个卷积核,分成两个卷积核,令正负计算结果分开。输入样本与正的卷积核卷积,输入样本取反后与负的卷积核卷积。这样做虽然花费了更大的面积,但是解决了卷积核包含正负的问题,而且可以多个卷积核并行计算。 ??卷积核的电导值是需要提前写好的。采用写Write with Verify 的方式,将当前电导值转换成电压信号读出,并利用两个DAC、一个比较器和几个逻辑门判断当前的电导值是否在一定的误差容限范围内,从而确保电导值写到位。 ??论文[9]提出了一种并行性更高的方案。因为论文[8]中的卷积是由输入特征图滑动输入得到的,所以需要一段时间。但其实也可以采用更大的面积来实现卷积核,用空间换时间,令卷积结果同时输出。 ??文中对一个4×4的图采用3×3的卷积核进行卷积,结果是2×2的特征图。可以从卷积核的四列直接得到结果。 ??将神经网络与强化学习结合,就有了深度Q值网络(Deep Q-Network, DQN)。原本的Q值表示离散的,有限的,遇到无限的state和action时,Q值表就不再适用,所以DQN就是完成了问题的泛化,对没有遇到过的state也能做出判断。这部分没有细看就不详细写了…… 稀疏编码协方差矩阵??有m个n维的样本构成样本矩阵
X
m
×
n
X_{m\times n}
Xm×n?,注意样本是横放的,在上面的左图中,我为了突出同一列是同一种属性所以画了竖线。 v a r ( x ) = ∑ i = 1 m ( x i ? x ˉ ) ( x i ? x ˉ ) m ? 1 = 1 m ? 1 < x , x > {\mathop{\rm var} } \left( x \right) = { {\sum\nolimits_{i = 1}^m {\left( { {x_i} - \bar x} \right)\left( { {x_i} - \bar x} \right)} } \over {m - 1} } = {1 \over {m - 1} } < x,x > var(x)=m?1∑i=1m?(xi??xˉ)(xi??xˉ)?=m?11?<x,x> c o v ( x , y ) = ∑ i = 1 m ( x i ? x ˉ ) ( y i ? y ˉ ) m ? 1 = 1 m ? 1 < x , y > {\mathop{\rm cov} } \left( {x,y} \right) = { {\sum\nolimits_{i = 1}^m {\left( { {x_i} - \bar x} \right)\left( { {y_i} - \bar y} \right)} } \over {m - 1} } = {1 \over {m - 1} } < x,y > cov(x,y)=m?1∑i=1m?(xi??xˉ)(yi??yˉ?)?=m?11?<x,y> ??因此
X
T
X
X^TX
XTX几乎就是协方差矩阵,只差除以
m
?
1
m-1
m?1,这个系数不影响我们定性分析数据。 PCA??实对称矩阵一定可以相似对角化。 P ? 1 ( X T X ) P = Λ {P^{ - 1} }\left( { {X^T}X} \right)P = \Lambda P?1(XTX)P=Λ ??等式右边是由特征值组成的对角矩阵 Λ \Lambda Λ。可以理解为在某个空间坐标系下,这组样本的各个维度是不相关的(非对角元素为0),而对角元素中的最大值表明在这一维度上能够最明显地区分出这这组样本。 稀疏编码??人脑里就像是有一个“词典”,当我们认识一样事物,就会从里面拿出一些词来描述Ta。这个词典非常非常大,而我们每次只需要少量的词。 x m × 1 = D m × n a n × 1 {x_{m \times 1} } = {D_{m \times n} }{a_{n \times 1} } xm×1?=Dm×n?an×1? ?? n ? m n\gg m n?m, a a a包含很多0,是稀疏的。我们的目标是找到一个最好的 a a a,它既能准确地描述 X X X,又能用最少的词来表示,所以就得到了下面这个目标函数: arg ? min ? a ( ∥ x ? D a ∥ 2 + λ ∥ a ∥ 0 ) \mathop {\arg \min }\limits_a \left( { { {\left\| {x - Da} \right\|}_2} + \lambda { {\left\| a \right\|}_0} } \right) aargmin?(∥x?Da∥2?+λ∥a∥0?) ??可以把这个字典
D
D
D做成忆阻阵列,向量矩阵乘法是向量在各个矩阵的列向量方向上的投影,我们要找一个合适的
a
a
a实际上就是将
x
x
x按照字典中的向量进行分解。 ??字典 D D D不一定是一个完备正交集,很可能字典里有两个词非常像,所以不能直接拿 x x x和 D D D相乘的结果的输出作为最终结果。在这里引入了LIF神经元,我们可以把那些激活的神经元作为系数编码的结果 a a a。 LCA??局域竞争算法(Locally Competitive Algorithm, LCA),是论文[10]中提出的一种方法,它利用协方差矩阵巧妙地抑制相似的词被激活。 d u d t = 1 τ ( ? u + x T D ? a ( D T D ? I n ) ) { {du} \over {dt} } = {1 \over \tau }\left( { - u + {x^T}D - a\left( { {D^T}D - {I_n} } \right)} \right) dtdu?=τ1?(?u+xTD?a(DTD?In?)) a i = { u i ?????? i f ?? u i > λ 0 ?????? o t h e r w i s e {a_i} = \left\{ {\begin{matrix} { {u_i}\;\;\;{\rm{if} }\;{u_i} > \lambda }\\ {0\;\;\;{\rm{otherwise} } } \end{matrix} } \right. ai?={ui?ifui?>λ0otherwise? ??先不看公式的后半部分,前面一半和LIF神经元的模型几乎一模一样。都是包含漏电项和积分项。 ??公式的后半部分包含
D
T
D
D^TD
DTD,这里有个前提是
D
D
D的每个列向量都是已经归一化而且均值为0,因此
D
T
D
D^TD
DTD的对角线上均为1,
D
T
D
?
I
n
D^TD-I_n
DTD?In?即使对角线上都是0的方阵,而非对角元素表示字典中不同的两个词之间的相关性。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年1日历 | -2025/1/16 17:58:12- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |