欢迎来到天天文库
浏览记录
ID:6935355
大小:32.75 KB
页数:9页
时间:2018-01-31
《人工神经网络在电能计量综合误差分析中的应用》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、人工神经网络在电能计量综合误差分析中的应用 (呼伦贝尔学院,内蒙古海拉尔021008) 摘要:文章尝试将ANN技术引入电能计量综合系统误差的分析中,并与以前用的数学模型方法进行了对比。 关键词:人工神经网络;电能计量;误差 中图分类号:TM933.4文献标识码:A文章编号:1007—6921(XX)07—0086—02 能计量的综合误差是下述几项误差的代数和:①电能表的误差εw。②电流互感器的合成误差εLH。③电压回路二次导线压降及继电器接触电阻引起的计量误差εr。 电能计量的综合误差ε可用下式表达:ε=εw+εLH+εYH+
2、δr按照数学公式进行系统误差推算对于已知的实验点来说结果比较准确,而对于未知的试验点需要进行插值拟合计算,算法更加难以摸索。 人工神经网络技术的发展,尤其是BP算法的提出,使人工神经网络技术从理论研究转向实际应用,目前已广泛应用于各个工程技术领域。 本文作者尝试将ANN技术引入系统综合误差的分析,并与以前的数学模型方法进行了对比。 1BP网的网络模型 BP网络的模型(两层)如图1所示。 740)this.width=740"border=undefined#111nmousewheel="returnzoom_img(event,
3、this)"> 对上述模型的的描述如下:X=[x1,x2,∧xi∧xn]T为网络的输入向量。Vk=[vk1,vk2∧vki∧vkn]为隐层第k个节点和输入层之间的权向量(vki就是网络第i个输入节点到隐层第k个节点的连接权值),可以看出从输入层到隐层之间的权值可表示为V=[V1,v2∧Vk∧Vq]T。T=[t1,t2∧tk∧tq]T为隐层的净输入,Z=[Z1,z2∧zk∧zq]T为隐层的输出,同时也作为输出层的输入。Wj=[wj1,wj2∧wjk∧wjq]为隐层到输出层第j个节点的权值向量,所以隐层到输出层之间的连接
4、权值矩阵为W=[W1,Ww∧Wj∧wm]T,S=[s1,s2∧sj∧sm]T为输出层的净输入,Y=[y1,y2∧yj∧ym]T。 2BP算法的改进 2.1学习率的调整 标准的BP算法存在着收敛速度慢的问题,为了解决这个问题,有必要对该算法进行改进。本节讨论一种通过学习速率的调整以提高收敛速度的方法。 在BP算法中,连接权的调整决定于梯度和学习速率,但是在上述基本的BP算法中,学习速率是不变的。实际上学习速率对收敛速度的影响很大。对于固定学习速率的BP算法来说,学习速率的选取是很困难的,如果学习速率选得小了,则显然收敛速度会很慢,但如果把
5、学习速率选得大了,又会导致网络训练过程的振荡,同样会降低网络的收敛速度。事实上我们可以通过对它的在线调整,大大地提高收敛速度。 学习速率的调整原则是使它在每一步保持尽可能大的值,而又不至于使学习过程中产生振荡。学习速率可以根据误差变化的信息和误差函数对连接权梯度变化的信息进行启发式调整,也可以根据误差函数对学习速率的梯度直接进行调整。 首先介绍根据总误差变化的信息对学习速率进行启发式调整的方法,其规则是: ①若总误差E减少(即新误差比老误差小),则学习速率增加。 ②若总误差E增加(即新误差比老误差大),则学习速率减小。当新误差与
6、老误差之比超过一定值,则学习速率快速下降。 上述规则可用如下迭代方程来表示: 740)this.width=740"border=undefined#111nmousewheel="returnzoom_img(event,this)"> 要求式中参数α>1、β>1、k>1,典型的取值是α=1.05、β=0.7、k=1.04。 上述方法可以在学习过程的每一步进行学习速率的调整,但对于同一步中的不同权值却仍然采用相同的学习速率。由于误差面的复杂性,这显然不符合实际情况。为此我们可以采用学习速率的局部调整方法来代替上述的全局调整方法以
7、对网络作进一步改善。 2.2动量法 BP网主要存在着收敛速度慢和容易陷入局部最小点的问题,通过上述的学习速率的动态调整,大大地加速了网络的收敛速度。本节介绍的动量法主要解决BP网存在的另一个问题,即使网络能跳出局部最小点,同时在一定程度上也能加快网络的收敛速度。 所谓动量法就是在原有权值修改公式的基础上再加上一个动量项,事实上该方法的道理很简单,局部最小点的跳出可以利用权值修改的贯性来实现。权值的修改可用下式表示: 740)this.width=740"border=undefined#111nmousewheel="returnz
8、oom_img(event,this)"> 上式中mcΔwjk(n-1)即
此文档下载收益归作者所有