欢迎来到天天文库
浏览记录
ID:51991098
大小:46.00 KB
页数:9页
时间:2020-03-27
《生物信息计算中几个常用 数学模型.ppt》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、生物信息计算中几个常用数学模型概念与方法Bayes公式、Bayes统计马氏链(Markovchains)隐马氏链(HiddenMarkovchains)Poisson过程与连续时间马氏链熵、相对熵与信息增益神经网络(neuralnetworks(NN)):Multi-layerfeed-forwardNN,self-organizedlearningNN,recurrentNN(HopfieldNN,Bolztmannmachine)Bayes公式、Bayes统计例:一个信号源分别以0.6、0.4的概率发出信号I、II。接收端以图中所示概率接收到信号。现在接收到信号II,要判断
2、系统发出的信号是什么?利用Bayes公式可以计算出接收到II的条件下,发的是I与II的概率:P(接收II)=0.4x0.7+0.6x0.2=0.4P(发I
3、收II)=0.6x0.2/0.4=0.3P(发II
4、收II)=0.4x0.7/0.4=0.7可见判断发出的是信号II,比较合理,因为这样判断正确的概率是0.7,错误的概率只有0.3.Bayes统计的基本想法就是这样.Bayes统计是生物信息中最常用的思想和方法之一.隐马氏链(模型)有时,我们所关心的马氏链是看不见的,我们能够看见的是另一个随机序列,称为观测序列。二者合在一起组成一个隐马氏模型(HMM〕在MA中,我们只能看见多个
5、DNA(蛋白)序列,并不知道每个DNA(蛋白)序列中哪里应该是插入、删除、或错读。后者正是作MA时,我们要找出的,于是,这二者就组成一个隐马氏模型在GeneFinding中,隐马氏模型被许多作者广泛地使用,例如Genescan,GeneMark.hmm是效果较好的著名软件。我们利用HMM得到了可以抗干扰的基因识别算法.熵、相对熵与信息增益随机事件的信息量H(h):应满足:1.是该随机事件的概率的函数:h(A)=H(P(A)),2.如果事件A与B相互独立,则h(AB)=h(A)+h(B)3.H非负.上面的2等价于H(pq)=H(p)H(q),即H(p)=-logp随机试验(变量)的
6、熵(Shanon)随机试验(变量)的熵是它的不确定性的度量.随机试验(变量X)的熵也是知道它的试验结果(值)可以得到的信息量.它应该是H=E(-logp(X))(p(.)是X的分布)如一个系统可以由一个随机变量(向量)来描述,这个系统的复杂性就是这个随机变量(向量)的信息量.相对熵给定分布(m(1),…m(s))与(n(1),…,n(s)),它们的相对熵是[m(i)log(m(i)/n(I))]对所有I之和.两个分布的相对熵表达它们之间的差别—相对熵是非负的,而当它们相等时相对熵为0,两个分布的差别越大,相对熵越大。两个分布的相对熵也称信息增益,意思是将一个分布错当为另一个分布时
7、,所增加的信息量.在由基因芯片的癌症与正常样本的基因表达数据中,要选择相关基因时,可以考虑利用每个基因中癌症与正常样本的分布的相对熵的大小来衡量其与癌症的相关性。在GeneFinding中,一个重要的步骤是决定Donor及accepter的位置。利用最小熵的原则,可以逐次得到重要的位点及其分布。熵与相对熵的应用相对熵
此文档下载收益归作者所有