自然语言处理中的最大熵方法

自然语言处理中的最大熵方法

ID:5456242

大小:318.50 KB

页数:38页

时间:2017-11-12

自然语言处理中的最大熵方法_第1页
自然语言处理中的最大熵方法_第2页
自然语言处理中的最大熵方法_第3页
自然语言处理中的最大熵方法_第4页
自然语言处理中的最大熵方法_第5页
资源描述:

《自然语言处理中的最大熵方法》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、自然语言处理中的 最大熵方法马金山信息检索研究室http://ir.hit.edu.cn纲要熵理论的发展信息熵最大熵理论最大熵理论的应用什么是熵什么是熵?没有什么问题在科学史的进程中曾被更为频繁地讨论过普里高津熵定律是自然界一切定律中的最高定律里夫金&霍华德熵的提出德国物理学家克劳修斯(RudolphJ.Eclausius)于1865提出熵的概念其经典意义定义为:R表示可逆过程,即体系的熵变等于可逆过程吸收或耗散的热量除以它的绝对温度。熵原理的形象比喻一滴墨水滴入一杯清水中,墨水扩散后均匀地分布在清水中比喻热力体系的自发过程总是趋于温度均匀分布,反之不行。微观世界中

2、熵的含义热力学定律都是对物质宏观性质进行考察得到的经验定律宏观物体是大量微观粒子构成的1872年,波尔兹曼(L.Boltzmann)指出熵是大量微观粒子的位置和速度的分布概率的函数,是描述系统中大量微观粒子的无序性的宏观参数熵值高意味着无序性强!熵增原理一个孤立系统的熵,自发性地趋于极大,随着熵的增加,有序状态逐步变为混沌状态,不可能自发地产生新的有序结构。当熵处于最小值,即能量集中程度最高、有效能量处于最大值时,那么整个系统也处于最有序的状态,相反为最无序状态。熵增原理预示着自然界越变越无序熵的普遍性熵概念的泛化熵理论是存在问题的,需要发展和完善熵与信息1948年

3、电气工程师香农(Shannon)创立了信息论,将信息量与熵联系起来。他用非常简洁的数学公式定义了信息时代的基本概念:熵H(p)=-p(x)logp(x)单位:bits通信中的熵表示“是”和“否”1=是0=否表示“是”、“否”和“可能是”11=是00=否10(01)=可能是一条消息的熵就是编码这条消息所需二进制位即比特的个数。随机事件的熵熵定量的描述事件的不确定性设随机变量,它有A1,A2,…,An共n个可能的结局,每个结局出现的机率分别为p1,p2,...,pn,则的不确定程度,即信息熵为:熵越大,越不确定熵等于0,事件是确定的例子抛硬币掷色子(32个面)不公平的硬

4、币熵的图形信息熵的意义信息熵概念为测试信息的多少找到了一个统一的科学定量计量方法,是信息论的基础。信息熵将数学方法和语言学相结合最大熵理论熵增原理在无外力作用下,事物总是朝着最混乱的方向发展事物是约束和自由的统一体事物总是在约束下争取最大的自由权,这其实也是自然界的根本原则。在已知条件下,熵最大的事物,最可能接近它的真实状态最大熵原则下点的分布对一随机过程,如果没有任何观测量,既没有任何约束,则解为均匀分布最大熵原则下点的分布最大熵原则下点的分布最大熵原则下点的分布选择最好的模型研究某个随机事件,根据已知信息,预测其未来行为。当无法获得随机事件的真实分布时,构造统计

5、模型对随机事件进行模拟。满足已知信息要求的模型可能有多个。基于最大熵原理选择模型选择熵最大的模型Jaynes证明:对随机事件的所有相容的预测中,熵最大的预测出现的概率占绝对优势Tribus证明,正态分布、伽玛分布、指数分布等,都是最大熵原理的特殊情况基于最大熵的统计建模特征空间的确定特征选择建立统计模型基于最大熵的统计建模即发现满足已知条件的熵最大的模型基于最大熵的统计建模已有特征f1(x,y),f2(x,y)…,fn(x,y)特征的经验概率:特征的期望概率:如果样本足够多,可信度高的特征的经验概率与真实概率一致的由训练样本习得的模型,对可信度高的特征的估计应满足约

6、束等式:基于最大熵的统计建模事件的熵计算模型的最大熵得其中最大熵模型求解参数估计GIS算法(GeneralizedIterativescaling)DarrochandRatcliff,1972IIS算法(ImprovedIterativeScaling)DellaPietra1995Input:特征函数特征分布Output:最优参数值最优模型IIS算法1Startwithforall2DoforeachaLetbethesolutiontobUpdatethevalueof3Gotostep2ifnotallhaveconverged词义消歧的例子词义消歧确定多义

7、词在一个句子中所表达的词义“打”的语义:S1,S2,S3,S4S1打人S2打酱油S3打球S4打电话他打完篮球后给我打了个电话??确定“打”的语义没有任何先验知识概率分布:P(S1)=0.25P(S2)=0.25P(S3)=0.25P(S4)=0.25H(p)=-4X(0.25log20.25)=2熵值最大,最合理确定“打”的语义先验知识:取S1或S3的概率:0.6取S2或S4的概率:0.4概率分布:P(S1)=0.3P(S2)=0.2P(S3)=0.3P(S4)=0.2H(p)=-2X(0.2log20.2)-2X(0.3log20.3)符合约束的分布中

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。