最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt

最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt

ID:62066815

大小:3.96 MB

页数:85页

时间:2021-04-14

最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt_第1页
最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt_第2页
最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt_第3页
最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt_第4页
最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt_第5页
资源描述:

《最新ch05_辐状基底函数类神经网路-药学医学精品资料.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、最新ch05_辐状基底函数类神经网路-药学医学精品资料5章節目錄第一節序論第二節RBF網路架構第三節RBF中心點選取法第四節RBF學習演算法第五節應用實例第六節其他應用本章重點回顧本章習題2台大生工系水資源資訊系統研究室第一節序論或稱為半徑式類神經網路特質主要在於模擬大腦皮質層軸突的局部調整功能為基本前饋式類神經網路以函數逼近的方式來建構網路,最早衍生於解決多變數的內插問題, 後由Powell(1987)加以發展,以不規則位置的資料點,求得相對應的輻狀基底函數, 之後陸續有許多學者也提出類似理論,解決內插問題與近似的理論。輻狀基底函數類神經網路(Radia

2、lBasisFunctionANN)3台大生工系水資源資訊系統研究室輸出層→扮演著將隱藏層的輸出進行線性組合(或線性映射)獲得輸出值的角色yC12345輸入層隱藏層……7台大生工系水資源資訊系統研究室高維度空間的範例分類(pattern-classification)問題,比低維度空間更符合線性分離趨勢,因此我們經常會建構高維度隱藏空間的RBFNN,即隱藏層神經元個數較多。◆模擬函數Z=cos(3x)sin(2y)共121筆輸入隱藏層神經元2個藍色為函數值紅色為RBF推估值8台大生工系水資源資訊系統研究室另一方面,由於隱藏層神經元的個數,會直接影響網路建構

3、輸入與輸出間映射關係的能力,愈高維度的隱藏層空間將可帶來愈精確的近似推估值(Mhaskar,1996;Niyogi和Girosi,1996)。隱藏層神經元8個藍色為函數值紅色為RBF推估值◆模擬函數Z=cos(3x)sin(2y)共121筆輸入9台大生工系水資源資訊系統研究室第二節RBF網路架構屬於基本的前饋式類神經網路,其架構包含了輸入層、單一隱藏層及輸出層。10台大生工系水資源資訊系統研究室當訓練範例資料輸入網路後,直接由輸入層將輸入向量傳給隱藏層中的每個輻狀基底函數,也就是計算輸入向量與隱藏層各神經元中心點的距離後,經函數轉換獲得隱藏層各神經元的輸出

4、。cj表隱藏層第j個神經元中心點表輻狀基底函數表示x與cj間之歐氏距離11台大生工系水資源資訊系統研究室將隱藏層的輸出值經加權傳至輸出層即可求得網路輸出值。y為輸出層的輸出值, 為隱藏層第j個神經元至輸出層的權重值, 為隱藏層第j個神經元的輸出值。12台大生工系水資源資訊系統研究室輻狀基底函數的型式(1)線性函數(2)三次函數(3)薄平面曲線函數(4)Duchon多變數曲線13台大生工系水資源資訊系統研究室(5)高斯函數(6)二次多變數函數(7)二次多變數倒函數→本章所採用的為”高斯函數”14台大生工系水資源資訊系統研究室RBF並沒有特定的方法可用來決定隱

5、藏層神經元的個數M、每個神經元的中心點cj以及標準偏差σj。因此,建構RBFNN一般採用複合式學習法,即前階段採非監督式學習選取中心點,而後階段採監督式學習調整連結權重向量。第三節RBF中心點選取法中心點選取之重要原因(1)降低中心點的個數,可有效地降低網路的複雜度,也可以有效地過濾雜訊(noise);(2)決定中心點的個數,等於決定了整個網路的大小;(3)中心點的初始位置,對於網路訓練的收斂速度與穩定性有著相當大的影響。15台大生工系水資源資訊系統研究室隨機選取聚類法(clustering)選取:K-Means聚類法、FuzzyC-Means聚類法、模糊

6、最小-最大分類法、模糊減法聚類法、山型聚類法等(CH07)非監督式選取垂直最小平方法在前階段非監督式學習中,採用中心點選取法,也就是在選取中心點的過程,同時決定了隱藏層神經元的個數與位置。可分為:16台大生工系水資源資訊系統研究室5.3.1隨機選取法RBF中心點選取最簡單的方法就是從訓練範例資料點,隨機選取固定個數的中心點(Haykin,1999)。為了避免造成所有的輻狀基底函數過度陡峭或過度平緩,建議採用標準偏差值,即式中m1為中心點個數dmax為所有中心點間最大的距離值輻狀基底函數採高斯函數17台大生工系水資源資訊系統研究室其缺點有二:須備大量的訓練範

7、例資料才能夠經由隨機選取,獲得具有代表性的中心點。當輸入空間範圍很大的時候,選取的中心點也必須夠多才足具代表性。18台大生工系水資源資訊系統研究室5.3.2垂直最小平方法(OLS)OLS是由Chen等人(1991)提出的方法,其中心點選取的主要概念是將所有訓練範例的輸入點皆視為潛在的中心點,當加入一個新的中心點時,網路輸出誤差值便會減少。OLS選取中心點的停止標準為誤差值達到可接受的程度即可。演算方法根據著名的Gram-Schmidt垂直理論。19台大生工系水資源資訊系統研究室Gram-Schmidt垂直理論◆利用Cholesky分解法表示U矩陣U=SA其

8、中是上三角矩陣,為正對角矩陣將一組ui的向量(以U矩陣表示,

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。