龙空技术网

机器视觉学习笔记:BP神经网络详解

自兴AI在线 630

前言:

眼前你们对“bp神经网络算法简书”大体比较看重,朋友们都想要了解一些“bp神经网络算法简书”的相关知识。那么小编也在网摘上收集了一些有关“bp神经网络算法简书””的相关文章,希望同学们能喜欢,你们一起来了解一下吧!

BP神经网络的代表者是D.Rumelhart和J.McCelland,"反向传播(backpropagation)"一词的使用出现在1985年后,它的广泛使用是在1986年D.Rumelhart和J.McCelland所著的Parallel Distributed Processing这本书出版以后。BP神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用梯度下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidden layer)和输出层(output layer)。

一、BP神经网络的模型

BP神经网络的过程主要分为两个阶段,第一阶段是信号的前向传播来传递信息,第二阶段是误差的反向传播来调整中间层的权重和偏置。

二、BP神经网络的流程

BP神经网络的流程:

1、前向传播;

2、误差反向传播;

3、迭代判定标准。

以三层BP神经网络为例:

(1)前向传播

假设输入层的节点个数为n,隐含层的节点个数为l,输出层的节点个数为m。输入层到隐含层的权重w_ij,隐含层到输出层的权重为w_jk,输入层到隐含层的偏置为a_j,隐含层到输出层的偏置为b_k,学习速率为η,激励函数为g(x),一般选择sigmoid函数。形式为:

隐含层的输出为:

输出层的输出为:

(2)误差反向传播

误差反向传播的目的是更新权值,最终使目标输出与期望输出的误差函数最小。期望输出为Yk,则误差函数为:

min(E)是个最优化的过程,我们知道梯度最大值的方向,即为函数值下降最快的方向,因此采用梯度下降法。

隐含层到输出层的权值更新:

输入层到隐含层的权值更新:

同理,可得偏置的更新

(3)迭代判定标准

常用判断迭代结束的标准主要是指定迭代的最大次数和相邻两次误差输出小于指定值。

标签: #bp神经网络算法简书 #bp神经网络模型预测 #bp神经网络工作原理 #bp算法通俗理解 #人工智能bp神经网络算法实验总结