基于bp神经网络的客户特征属性约简

基于bp神经网络的客户特征属性约简

ID:21875097

大小:54.00 KB

页数:6页

时间:2018-10-25

基于bp神经网络的客户特征属性约简_第1页
基于bp神经网络的客户特征属性约简_第2页
基于bp神经网络的客户特征属性约简_第3页
基于bp神经网络的客户特征属性约简_第4页
基于bp神经网络的客户特征属性约简_第5页
资源描述:

《基于bp神经网络的客户特征属性约简》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、基于BP神经网络的客户特征属性约简:针对数据收集中的海量数据,该文提出了一种基于BP神经X络的属性约简。通过神经X络计算分析原始数据中的各属性权值,从原始数据的众多属性中提炼出与客户流失度相关性较大的属性,找出对最终结果有关联的变量,删除那些不相关或不重要的属性,从而提高模型的效率和准确率。  关键词:客户;神经X络;属性约简;数据挖掘。  :TP183:A:1009-3044(2011)11-2640-02  1特征属性约简的意义  在数据挖掘中,我们要面对海量的原始数据,在这些数据中,并不是所有的信息都是有用的,如何在其

2、中找到最关键最有用的属性,从而提高模型的效率和准确率,是我们研究的一个重点。把源表的信息原封不动的汇总起来没有太大意义,必须关注用户某些关键指标的波动情况。如在电信用户的挖掘中我们要关注:用户本月话费与往月话费相比是上升还是下降了,幅度有多大?用户通话时长怎样变化?当月的短信费用占总体费用的比例是多少等等。这些衍生的分析信息是数据挖掘不可缺少的输入变量,那么与用户有关的特征就变得更多了。大致有如下几个方面:客户个人属性(包括客户ID、性别、年龄、职业、是否离X、收入等),客户合同属性(包括入X时长、付费类型、入X渠道、资费标

3、识、消费限额等级等),客户缴费属性(包括缴费方式、欠费次数、当月金额、当月欠费金额、连续三个月平均消费额、最近三个月消费情况等),客户通话及短信属性(包括通话时长、通话次数、长途次数比例、拨打客服次数等等)。  客户属性如此之多,而且很多属性还需要进一步细化,因此将所有属性都应用于挖掘模型中是不现实的。属性约简是数据挖掘的一个关键步骤,在数据收集阶段,很难确切知道哪些属性是相关的,哪些属性是不重要的,所有的属性都被认为是有用的,全部存在数据库。实际上,数据库中的属性并不是同等重要,有些甚至是冗余的,而且对于特定的数据挖掘任务

4、,用户往往只对属性的某个子集感兴趣。因此要对众多属性进行约简,即在尽量保持数据库分类能力不变的条件下,删除那些不相关或不重要的属性。本文就是利用神经X络的属性约简方法对客户属性进行有效的选择,提高挖掘的效率。  2BP神经X络  神经X络(NeuralNet层的神经X络,Xi为输入层样本,Uik为第k层的i神经元输入总和,Xik为输出;Wij为从第k-1层的第j个神经元到第k层的第i个神经元的权系数,f为各个神经元激发函数,则各变量关系可用下面数学式表示:  人工神经X络具有以下特点:  1)具有高速信息处理的能力;  2)

5、神经X络的知识存储容量大;  3)具有很强的不确定性信息;  4)具有很强的健壮性;  5)一种具有高度非线性的系统。  BP神经X络适合模拟直感思维,它具有的并行处理、自适应性、容错性和强大的学习能力等特性,都是决策树所需要的;决策树则适用于模拟逻辑思维,它具有的易于分析推理、较强的知识表达能力、导出的规则容易理解等能与神经X络互补。通过神经X络不断的学习调整形成的X络结构,可以去掉冗余信息,从而简化数据的属性维度。客户流失模型的构造如下所示,它包括神经X络特征简约部分以决策树算法对流失客户的划分部分。  在图1中,神经X

6、络部分包括:学习规则的选取、神经X络结构的确定、各种参数的选择,将提取的客户数据作为原始数据输入神经X络,逐步调整客户数据各属性权值大小进行学习。按属性对分类的相关度进行简约。  3BPX络的学习过程及算法  BPX络是应用较为广泛的神经X络,它采用有教师的学习规则,算法核心是一边向后传播误差,一边修正误差来不断调节权值,采用两趟传播对每个学习过程进行计算,以实现或逼近得到期望输出。输入信号经过输入层和隐含层,在输出端产生输出信号称为工作信号正向传播。X络权值在信号向前传递中保持不变,各层神经元状态只影响其下一层神经元状态。

7、当不能在输出层得到期望输出时,则转入误差信号的反向传播。X络实际输出与期望输出之间差值即为误差信号,误差信号反向传播是误差信号由输出端逐层向前传播。在反向传播中,由误差反馈进行调整X络权值,通过不断修正权值使X络实际输出更接近期望输出。  BPX络算法如下:  1)初始化权值为一系列小随机数:  2)给定X1X2…Xn为输入向量,Y1Y2…Yn为目标输出;  3)从第一个隐含层开始计算各层各单元的净输入值:即  其中Ojk为输出到j单元上的k单元的输出值;N为与j单元相连的输出单元数;Wjk为j单元与k单元之间的连接权值; 

8、 4)由净输入值和激活函数得出激活值ajaj=fj(Sj)  5)由激活值aj计算出输出值OjOj=G(aj)(3-24)  其中G为输出函数,中间层的G(aj)=aj:输出层的G则需根据输入输出模式具体确定;  6)由输出层反向逐层计算连接权的修正值△Wij  7)重复步骤(3)至(6)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。