欢迎来到天天文库
浏览记录
ID:32871714
大小:572.29 KB
页数:28页
时间:2019-02-17
《创新群体三年来取得的创新性成绩或实质性进展》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、创新群体三年来取得的创新性成绩或实质性进展——2010年工作总结1代表性成果1.1简介三年来,创新群体对复杂系统的分析与综合、故障预测与预测维护技术、综合优化调度和智能信息处理四方面进行了深入研究,取得了一批高水平的成果。下面介绍课题在各个方面的具体代表性成果。1.2复杂系统的分析与综合针对多维空间分布系统及其它若干类型的动态系统,(1)基于矩阵多项式化零空间的几何结构,得到了一个新的多维空间分布动态系统稳定的充分条件,并从理论上证明了该条件较已有判据具有更小的保守性。在此基础上,利用一种矩阵多项式的参数化形式和线性矩阵不等式的解连续依赖于系数变化的特性,得到了一个多维空
2、间分布动态系统稳定的渐近充分必要条件。上述条件皆表示为线性矩阵不等式的形式;(2)基于矩阵多项式所张成的空间的几何结构,得到了一个多维空间分布动态系统在一个超长方体频率空间上有界的充分条件。在此基础上,利用参数化线性矩阵不等式的思想,得到了一个多维空间分布动态系统在一个超长方体频率空间上有界的渐近充分必要条件。在频率域可由二次矩阵不等式描述、且是道路连通集时,得到了系统频率响应有界的充分必要条件。上述条件皆表示为线性矩阵不等式的形式,并可应用于多维带通滤波器设计;(3)基于卡尔曼滤波器在确定性框架下的解释,提出了一种基于预测误差灵敏度惩罚的鲁棒滤波器设计方法。得到了与卡尔
3、曼滤波器具有类似结构和基本相同计算复杂度的、可以递推实现的鲁棒滤波算法。该算法可同时优化滤波精度和降低模型误差的影响。得到了算法的收敛条件。该算法在估计性能和计算效率两方面都比已有的鲁棒滤波算法更好;(4)研究了多维空间分布系统状态估计问题,提出了一种可递推实现的分布式估计算法。得到了该算法收敛的充分必要条件。与最优的集总式算法相比,该方法可显著降低计算复杂度而不过多地牺牲滤波精度;(5)研究了同时具有未建模动态和参数扰动的多时滞系统的鲁棒稳定性判断问题。得到了该系统基于线性矩阵不等式的、稳定的充分条件和渐近充分必要条件;(6)研究了基于规范化最小二乘的鲁棒状态估计算法。
4、解决了该算法一个近10年未能得到完整解决的理论问题,得到了该算法收敛的最为一般的条件。该条件与已有结论相一致、并将其包含为一个特殊情形;(7)研究了Hammerstein系统的开环1辨识问题。设计了递推辨识算法,证明了估计序列的强一致收敛性。设计了递推辨识算法和针对跟踪问题的适应控制器,证明了跟踪的最优性和参数估计的强一致性,得到了参数估计序列收敛速度的较精确刻画;(8)研究了NARX系统的非参数辨识问题。分析了NARX系统渐近分布函数的存在性、唯一性、混合相依性等基本性质,设计了非线性函数任意给定点函数值的估计算法,证明了估计序列的强一致收敛性,得到了收敛速度的较精确刻
5、画;(9)研究了结构服从幂律约束的大规模基因调控系统的基于静态实验数据的直接因果关系辨识问题。提出了基于对数似然函数极大化和子空间夹角极小化的辨识算法。基于仿真数据、实验数据及测试问题(DreamInitiative)的计算结果都表明,该算法在降低假阳性率、提高参数估计精度等方面都具有很好的性能。另外,该算法的计算复杂度随着系统规模的增加仅线性增加,克服了其他算法计算量指数增加而难于适用于实际问题的困难;(10)研究了同时具有参数扰动和随机测量数据丢失的动态系统鲁棒状态估计问题。在系统参数是模型误差的一次可导函数和数据丢失服从伯努利分布的情形下,推导出了基于估计误差灵敏度
6、惩罚的递推状态估计算法,并在对象二次稳定的条件下证明状态估计的收敛性;(11)研究了分区线性ARX模型的递推辨识问题,在分区数和模型阶数都已知的条件下,根据加权最小二乘准则,得到了递推估计每个线性模型参数的算法,并推导出了为保证参数估计值几乎处处收敛的关于测试信号的持续激励条件。针对复杂工业过程控制与优化问题建模中存在的输入变量混杂(即同时存在数值型变量和符号型变量)、输入维数高等难题,(1)提出了一种可同时处理数值型和符号型变量的新的ANFIS方法。该方法首先在ANFIS结构中引入规则激发强度转换矩阵,直接作用于规则激发强度的计算过程,从而使符号型输入变量无需经过ANF
7、IS的输入层,避免了在输入层处理符号型变量的难题。同时,针对上述ANFIS结构,提出了模糊规则前件/后件及规则激发强度转换矩阵中参数的学习方法;(2)提出了迭代递增式神经网络建模方法。该方法首先按照特定的判别标准,确定各输入变量对输出的影响程度。将各输入变量按上述影响程度的大小依次加入到神经元网络输入中,在每次增加输入变量时,采用相应的训练数据进行神经元网络学习,在学习过程中适当调整前次已确定的神经元网络中各节点参数,迭代上述过程直至所有输入变量均加入到神经元网络输入中,从而完成对具有高维输入的模型的建模。针对复杂生物系统,(
此文档下载收益归作者所有