欢迎来到天天文库
浏览记录
ID:36627012
大小:1.52 MB
页数:50页
时间:2019-05-13
《基于稀疏表示的欠定混叠盲信号分离算法研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、广东工业大学学位论文基于稀疏表示的欠定混叠盲信号分离算法研究姚楚君指导教师:刘海林教授学科门类:理学专业名称:应用数学申请学位级别:硕士论文提交日期:2008年4月30日论文答辩日期:2008年5月学位授予单位:广东工业大学VIIADissertationSubmittedtoGuangdongUniversityofTechnologyfortheDegreeofMasterofScienceStudyonUnderdeterminedBlindSignalSeparationAlgorithmBasedonSparseRepresent
2、ationMSCCandidate:Chu-JunYaoSupervisor:Prof.Hai-LinLiuMay2008FacultyofAppliedMathematicsGuangdongUniversityofTechnologyGuangzhou,Guangdong,P.R.China,510006VII独创性声明摘要盲信号分离(BSS)是信号处理领域一个极富挑战的研究课题。由于盲分离在语音识别、图像增强、声纳问题、生物医学信号分析(EEG、MEG、ECG)、数据挖掘以及无线通信等众多领域有着广泛的应用前景,盲分离成了信号处理领域
3、和神经网络领域的研究热点。经过近二十年的发展,有关盲分离的理论和算法都得到了较快发展,提出了很多有效的,在分离能力、计算速度等方面性能各异的算法。随着盲信号分离研究的发展,它的应用领域也越来越广泛后,人们也感觉到BSS算法的一些不足和受限。最近,有些学者开始逐渐将注意力转向病态情形下或者欠定(传感器数目少于源信号数目,即)问题的研究,并且提出了一些有效的算法,进一步扩宽了BSS的应用领域。然而,对于欠定混叠的盲分离研究还很不成熟,许多理论问题和算法实现技术有待于进一步探索。这促使我将欠定混叠的盲分离算法的研究作为本论文的研究对象。针对于瞬时
4、线性混叠的欠定情况下,基于稀疏分量分析方法的盲分离算法中存在的一些问题,对盲信号分离问题的理论、算法进行了较深入地研究。本论文主要做了以下两方面的工作:(1):针对欠定条件下SCA算法在源信号不严格稀疏情况下,算法难以达到满意效果的问题,提出了一种新的聚类方法直接估计出欠定混叠矩阵。首先,将所有观测信号向量经过广义球面坐标变换,然后对球面坐标系下的所有观测信号向量进行聚类,从而估计混叠矩阵。该算法不同于大多数盲稀疏分离算法,主要是利用广义球面坐标变换,将估计混叠矩阵的列向量线聚类问题变为计算数据的中心点问题,而且降低源信号的稀疏性的要求,适
5、用范围更广。(2):源信号的稀疏程度会直接影响欠定混叠盲源分离算法的精度。一个重要的稀疏条件是源信号向量是阶稀疏的,也就是说源信号向量最多只有个非零元()。在任何采样时刻,源信号至多只有个非零元的情况下,如果混叠矩阵和源信号满足一些辨识条件,我们提出了一种新的BSS算法:辨识混叠矩阵的超平面聚类方法和源信号恢复算法。数值仿真和结果分析表明本文算法的有效性。VII独创性声明关键词:稀疏分量分析;欠定混叠;稀疏阶;球面坐标变换;超平面聚类VII独创性声明ABSTRACTBlindSignalSeparation(BSS)isachallengi
6、ngresearchtopicinsignalprocessingfield.Becauseofthepromisingapplicationsinspeechrecognition,imageprocessing,sonarproblem,medicalandbiologicaldataanalysis(EEG、MEG、ECG),dataminingandwirelesscommunicationetal,BSShasbecomeoneofthehottestspotsinsignalprocessingfieldandneuralnet
7、workfield.Afternearlytwentyyears,thetheoriesandalgorithmsaboutBSShavegotgreatdevelopments.Manyeffectivealgorithmshavebeenpresented,andtheirperformancesaredifferentfromtheabilitytoseparatesourcesignals,time-consumingetal.AsthedevelopmentandthewiderapplicationsofBSS,theresea
8、rchershaveknowntheshortageandlimitofBSSalgorithms.Recently,someresearchersgivetheirattent
此文档下载收益归作者所有