![Python人工智能](https://wfqqreader-1252317822.image.myqcloud.com/cover/801/40107801/b_40107801.jpg)
3.3 反向传播
在反向传播方法中,采用梯度下降学习方法训练神经网络,其中混合权重向量W经过多次迭代更新,公式为
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-084-1.jpg?sign=1739232252-2bvqv6bj7t3whWz6pN0M4DcuPtktGPNR-0-4a6d14e1298064f87e3326229b09981f)
式中,η是学习率,分别是第t+1和第t次迭代时的权重向量;
为损失函数(Cost Function)或残差函数(Error Function)针对权值矩阵W在第t次迭代时的梯度。权重或偏置
的算法可表示为
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-084-5.jpg?sign=1739232252-ODIUkxkhBbgx3xptriUF0Yaeiyw9Nlk2-0-d7f7314011bfc6313a60dc883ee0ea8f)
通过公式可看到,梯度下降学习方法的核心依赖针对每个权值对损失函数或残差函数的梯度计算。
由微分链式法则可知,如果,那么下面的公式成立。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-084-7.jpg?sign=1739232252-J05hVqsHHzYQDgnQLYXzfV3UOzRt2d6V-0-f7ecb32d9a2a8824daee9cfc2ae584fc)
这个公式可以扩展用于任意个数的变量。现在,来看一个非常简单的神经网络来理解反向传播算法,反向传播网络如图3-13所示。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-084-8.jpg?sign=1739232252-BJlJ7Waev0F1GmshVtpVWePtpaqtl7xV-0-dc8525fdb54cd1d5c8226e5f65d75eef)
图3-13 反向传播网络
假设网络的输入是一个二维向量,对应的标记输出和预测输出分别为y和
。同时,假设这个神经网络中的所有激活函数都是Sigmoid。设连接第l-1层的第i个单元和第l层的第j个单元的权值为
,第l层的第i个单元的偏置为
。下面推导一个数据点的梯度;总梯度可以对训练(或者一个小批量)中使用的所有数据点求和得到。如果输出值是连续的,那么损失函数C可以选择使用预测误差的平方表示。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-084-13.jpg?sign=1739232252-oWpRIfJ3J469XR5ZCKi9X6aFI4kjBsgg-0-acecf0f5764890bc5cfeb544c9da296b)
神经网络中的权值和偏置(累积表示为向量W)可以通过最小化损失函数得到。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-1.jpg?sign=1739232252-zBHoMxZRI1gC91GL5aoPYDCH33pzJDvX-0-69f9d200ae6bc5592323a37afdc28a69)
为了通过梯度下降迭代得到最小化损失函数,需要计算损失函数相对于每个权值w∈W的梯度。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-2.jpg?sign=1739232252-u4ulqZSyrFa0ltboMhcRUuNufuNOsv53-0-3fddf674821d66e87856df93267d95e2)
现在有了所需的一切,下面来计算损失函数C相对于权重的梯度。根据微分的链式法则,得到
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-4.jpg?sign=1739232252-ZDrtrgllmTpnhLTqcecBL1gKfdgi7EQR-0-8b06e47f08a3e894ae5f6488f6109054)
我们来看一下这个公式:
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-5.jpg?sign=1739232252-HiEBlIYkyOeIOEVVLS7v48g3bsfRVrNn-0-de3ee83973871ce1cb7a80d0fc9c874e)
由前面的公式可以发现,导数仅仅是预测的误差。在通常情况下,对于回归问题,输出单元的激活函数是线性的,因此下面的等式成立:
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-6.jpg?sign=1739232252-8Z3KdamdrwEUYaJjw3X7Ydm3TcDpLD3y-0-ad31ffec01174462ddaf16e046877330)
因此,如果要计算损失函数相对于总输入的梯度,它会是。这依然等价于输出的预测误差。输出单元的总输入作为输入的权值和激活函数,可以表示为
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-8.jpg?sign=1739232252-ek6qu1NcAUVBFS2FwzcZfQmFFLcyjbdq-0-179897e4c3dc7ac38aa6dc9368641b68)
这意味着,和损失函数对权重
的导数通过以下公式作为输出层的输入。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-11.jpg?sign=1739232252-HUZ8gM7SYxFx65Jm49DkuBhvxMj2goGL-0-3db09aab7eccce45a07b56829a1f7a42)
可以看出,在计算损失函数相对于最终输出层上一层权重的导数过程中,误差被反向传播。当计算损失函数相对于泛化权重的梯度的时候,这一过程将会更加明显。当使用j=1和k=2的权值
时,损失函数C相对于这个权值的梯度为
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-14.jpg?sign=1739232252-RWDj21Z0r40VZ8OjpjUgfcYXfC09nXqh-0-bf60a5dc9bf36c205fb6c8ddbba15897)
现在,,这意味着
。
因此,如果计算出损失函数相对于神经元总输入的梯度为,则可以通过简单乘以该权重关联的激活函数z来得到影响总输入s的任意权重w的梯度。
损失函数相对于总输入的梯度可通过链式法则推导如下:
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-085-19.jpg?sign=1739232252-qXPxLyrWfUjgI7qMphLdRoUEXeVhlNyH-0-cab84cfbb735150cbca9363fa8d4038e)
由于神经网络中的所有单元(除了输出单元)都是Sigmoid激活函数,因此下面的公式成立:
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-086-1.jpg?sign=1739232252-bfhKoahAJT1SAaP3D8oj7dSbdOMeqjDb-0-0a75020de9e0a250e899aba63fbeb347)
结合以上公式,可得
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-086-2.jpg?sign=1739232252-iY3mJRNFpl1JK9kuX9VbpdmGVa0Ml2ag-0-9ffe84e86bfbe5e95d3d683d7c4e7f68)
在推导的梯度公式中可以看出,预测的误差与对应的激活函数和权值组合,以计算每一层权值的梯度被反向传播。这就是反向传播算法名称的由来。
【例3-6】 利用Python实现反向传播神经网络。
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-086-4.jpg?sign=1739232252-3znyr1lPrWAtrF5EnssUvgW8ilBQxlYx-0-29ca5dff7b63c05112fb50e4db5a01cf)
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-087-1.jpg?sign=1739232252-JrNypofYUyY0NcnP24gJMaLol3BqBjmz-0-d419c4fc73030875f6b4ef9a7c4f1084)
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-088-1.jpg?sign=1739232252-REKAd8bP5P4UrJhpFoRMlv4eJJvvf40m-0-a50649fc6ee82401d1832d06908fc6fa)
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-089-1.jpg?sign=1739232252-2srrZ8X89yPNKhLXR9dNEhVHjW2GfEB8-0-e6203b0e38fcd7645161e8cb1a1cfb24)
运行程序,输出如下:
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-089-2.jpg?sign=1739232252-pvEQ2UDwUYFTYCEb9t14ZB7BfF7Zxi9H-0-0a0b650f6546a0a72eb547c7fb0b2a5d)
![](https://epubservercos.yuewen.com/CBEF87/20862582601479206/epubprivate/OEBPS/Images/41374-00-090-1.jpg?sign=1739232252-uHLbcBOs0iI31y26HkSHiSebyjOnz1AK-0-22d24cf26f211c7845669ae740ec409c)