欢迎来到天天文库
浏览记录
ID:22972443
大小:57.50 KB
页数:8页
时间:2018-11-02
《logitboost法与累积比数logit模型在》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、Logitboost法与累积比数Logit模型在【摘要】 目的:探讨Logitboost和累积比数Logit模型这两种方法应用于判别分析的优缺点。方法:简要介绍Logitboost和累积比数Logit模型的原理,并采用此两种方法分别对同一个实例进行判别分析。结果:两种方法的判别正确率均较高。Logitboost判别效果高于累积比数Logit模型判别。讨论:在迭代轮数适当的情况下,Logitboost判别正确率更高,受迭代次数影响较大;而累积比数Logit模型的稳定性较强。在对事件进行判别时,可根据数据资料的具体特点选用判别
2、方法,也可将两种方法结合应用,取其判别效果较好者。【关键词】累积比数Logit模型判别分析Logitboost 睡眠质量 LogitboostandCumulativeOddsLogitModelandTheirApplicationinDiscriminantAnalysis AbstractObjective:TopareLogitboostulativeoddslogitmodel,anddiscusstheircharacteristicsinantanalysis.Methods:Theultimatepr
3、incipleofLogitboostandCumulativeoddslogitmodelethodstosolvethesameproblem.ResultsLogitboost’seffectisbetterthanCumulativeoddslogitmodel.Conclusion:TheeffectofLogitboosteasure.ButCumulativeoddslogitmodelisstable.odel;discriminantanalysis;Logitboost;sleepquality 判别分
4、析(discriminantanalysis)是判别样品所属类型的一类统计方法,其应用之广可与回归分析相媲美。进行判别时,通常是根据已经掌握的一批分类明确的样品建立判别函数。从判别准则上分为Fisher判别和Bayes判别,但由于这两种传统的判别方法各有利弊,对资料有特定要求,如Fisher判别要求资料服从多元正态分布,Bayes判别要求已知先验概率,当不满足条件时,判别效果往往不理想,给人们的实际工作带来许多困难。本研究以一个实例简介Logitboost法和累积比数Logit模型在判别分析中的应用。 1原理 1.1累积
5、比数Logit模型判别累积比数Logit模型是二分类Logit模型的扩展,主要用于处理反应变量为有序分类变量的资料。该模型对资料要求不严,解释变量既可以是连续型变量,也可以是无序分类变量或有序分类变量[1]。只要资料满足比例优势假定条件(proportionaloddsassumption),即自变量的回归系数与分割点无关,且各自变量与Logit P呈线性关系,即可应用此方法。设应变量Y为K个等级的有序变量,第k(k=1,2,…,K)个等级的概率分别为{π1,π2,…,πk},且∑ki=1πk=1。影响因素xT=(x1,x2
6、,…,xP)为自变量,xi(i=1,2,…,p)可以是连续变量、无序或有序分类变量。则累积比数Logit模型可以表示为:logit(P(y>k
7、x))=ln(P(y>k
8、x)1-P(y>k
9、x))=-αk+∑pi=1βixi(k=1,2,…,K-1)等价于:P(y≤k
10、x)=11+e(-αk+∑pi=1βixi) 每类结果的概率:P(y=k
11、x)=P(y≤k
12、x)-P(y≤k-1
13、x)=11+e(-αk+∑pi=1βixi)-11+e(-αk-1+∑pi=1βixi)k=1,2,…K式中,αk和βi为待估
14、参数。该模型实际上是将K个等级人为地分成{1,…,k}和{k+1,…,K}两类,在这两类基础上定义的LogitP表示属于前k个等级的累积概率与后K-k个等级的累积概率的比数之对数。故该模型称为累积比数模型。对于K类反应变量,K-1个累积Logit模型各有一个不同的αk估计,而对于xi,K-1个模型的系数βi均相同[2]。 1.2Logitboost判别Boosting是由Schzpire于1990年首先提出[3],后经Freud和Schapire改进的一种机器学习方法。Frieman、Hastie、Tibshirani于2
15、000年又进一步改进,称为Logitboost,属于提升算法的一种。其基本思想是:基于现有样本数据集构建一个基础的“弱分类器”,反复调用该“弱分类器”,通过对每轮中错判的样本赋予更大的权重,使其更关注那些难判的样本,经过多轮循环,最后采用加权的方法将各轮的“弱分类器”合成“强分类器”,从而
此文档下载收益归作者所有