反向传播算法

反向传播算法对于快速训练大型神经网络来说至关重要。本文将介绍该算法的工作原理。

请向下滚动…

简单的神经网络

在右边,您会看到一个神经网络,其中包含一个输入节点、一个输出节点,以及两个隐藏层(分别有两个节点)。

相邻的层中的节点通过权重 wij 相关联,这些权重是网络参数。

激活函数

每个节点都有一个总输入 x 、一个激活函数 f(x) 以及一个输出 y=f(x) f(x) 必须是非线性函数,否则神经网络就只能学习线性模型。

常用的激活函数是 S 型函数:f(x)=11+ex

误差函数

目标是根据数据自动学习网络的权重,以便让所有输入 xinput 的预测输出 youtput 接近目标 ytarget

为了衡量与该目标的差距,我们使用了一个误差函数 E 。 常用的误差函数是 E(youtput,ytarget)=12(youtputytarget)2

正向传播

首先,我们取一个输入样本 (xinput,ytarget) ,并更新网络的输入层。

为了保持一致性,我们将输入视为与其他任何节点相同,但不具有激活函数,以便让其输出与输入相等,即 y1=xinput

正向传播

现在,我们更新第一个隐藏层。我们取上一层节点的输出 y ,并使用权重来计算下一层节点的输入 x
xj=
iin(j)wijyi+bj

正向传播

然后,我们更新第一个隐藏层中节点的输出。 为此,我们使用激活函数 f(x)
y=f(x)

正向传播

使用这两个公式,我们可以传播到网络的其余内容,并获得网络的最终输出。
y=f(x)
xj=
iin(j)wijyi+bj

误差导数

反向传播算法会对特定样本的预测输出和理想输出进行比较,然后确定网络的每个权重的更新幅度。 为此,我们需要计算误差相对于每个权重 dEdwij 的变化情况。
获得误差导数后,我们可以使用一种简单的更新法则来更新权重:
wij=wijαdEdwij
其中,α 是一个正常量,称为“学习速率”,我们需要根据经验对该常量进行微调。

[注意] 该更新法则非常简单:如果在权重提高后误差降低了 (dEdwij<0 ),则提高权重;否则,如果在权重提高后误差也提高了 (dEdwij>0 ),则降低权重。

其他导数

为了帮助计算 dEdwij ,我们还为每个节点分别存储了另外两个导数,即误差随以下两项的变化情况:
  • 节点 dEdx 的总输入,以及
  • 节点 dEdy 的输出。

反向传播

我们开始反向传播误差导数。 由于我们拥有此特定输入样本的预测输出,因此我们可以计算误差随该输出的变化情况。 根据我们的误差函数 E=12(youtputytarget)2 ,我们可以得出:
Eyoutput=youtputytarget

反向传播

现在我们获得了 dEdy ,接下来便可以根据链式法则得出 dEdx
Ex=dydxEy=ddxf(x)Ey
其中,当 f(x) 是 S 型激活函数时,ddxf(x)=f(x)(1f(x))

反向传播

一旦得出相对于某节点的总输入的误差导数,我们便可以得出相对于进入该节点的权重的误差导数。
Ewij=xjwijExj=yiExj

反向传播

根据链式法则,我们还可以根据上一层得出 dEdy 。此时,我们形成了一个完整的循环。
Eyi=jout(i)xjyiExj=jout(i)wijExj

反向传播

接下来,只需重复前面的 3 个公式,直到计算出所有误差导数即可。
1 y 1 x input 2 y 2 x 2 dE/dy 2 dE/dx 2 f w 12 dE/dw 3 y 3 x 3 dE/dy 3 dE/dx 3 f w 13 dE/dw 4 y 4 x 4 dE/dy 4 dE/dx 4 f w 24 dE/dw w 34 dE/dw 5 y 5 x 5 dE/dy 5 dE/dx 5 f w 25 dE/dw w 35 dE/dw 6 y output x 6 dE/dy 6 dE/dx 6 f w 46 dE/dw w 56 dE/dw E y target
正在计算…