神经网络与机器学习(加)simon haykin

神经网络与机器学习(加)simon haykin

ID:14862861

大小:37.13 MB

页数:601页

时间:2018-07-30

神经网络与机器学习(加)simon haykin_第1页
神经网络与机器学习(加)simon haykin_第2页
神经网络与机器学习(加)simon haykin_第3页
神经网络与机器学习(加)simon haykin_第4页
神经网络与机器学习(加)simon haykin_第5页
资源描述:

《神经网络与机器学习(加)simon haykin》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、[GeneralInformation]书名=神经网络与机器学习(原书第3版)作者=(加)海金著页数=572SS号=12759105出版日期=2011.03封面书名版权前言目录第0章导言0.1什么是神经网络0.2人类大脑0.3神经元模型0.4被看作有向图的神经网络0.5反馈0.6网络结构0.7知识表示0.8学习过程0.9学习任务0.10结束语注释和参考文献第1章Rosenblatt感知器1.1引言1.2感知器1.3感知器收敛定理1.4高斯环境下感知器与贝叶斯分类器的关系1.5计算机实验:模式分类1.6批量感知器算法1.7小结和讨论注释和参考文献习题第2章通

2、过回归建立模型2.1引言2.2线性回归模型:初步考虑2.3参数向量的最大后验估计2.4正则最小二乘估计和MAP估计之间的关系2.5计算机实验:模式分类2.6最小描述长度原则2.7固定样本大小考虑2.8工具变量方法2.9小结和讨论注释和参考文献习题第3章最小均方算法3.1引言3.2LMS算法的滤波结构3.3无约束最优化:回顾3.4维纳滤波器3.5最小均方算法3.6用马尔可夫模型来描画LMS算法和维纳滤波器的偏差3.7朗之万方程:布朗运动的特点3.8Kushner直接平均法3.9小学习率参数下统计LMS学习理论3.10计算机实验I:线性预测3.11计算机实验Ⅱ

3、:模式分类3.12LMS算法的优点和局限3.13学习率退火方案3.14小结和讨论注释和参考文献习题第4章多层感知器4.1引言4.2一些预备知识4.3批量学习和在线学习4.4反向传播算法4.5异或问题4.6改善反向传播算法性能的试探法4.7计算机实验:模式分类4.8反向传播和微分4.9Hessian矩阵及其在在线学习中的规则4.10学习率的最优退火和自适应控制4.11泛化4.12函数逼近4.13交叉验证4.14复杂度正则化和网络修剪4.15反向传播学习的优点和局限4.16作为最优化问题看待的监督学习4.17卷积网络4.18非线性滤波4.19小规模和大规模学习

4、问题4.20小结和讨论注释和参考文献习题第5章核方法和径向基函数网络5.1引言5.2模式可分性的Cover定理5.3插值问题5.4径向基函数网络5.5K-均值聚类5.6权向量的递归最小二乘估计5.7RBF网络的混合学习过程5.8计算机实验:模式分类5.9高斯隐藏单元的解释5.10核回归及其与RBF网络的关系5.11小结和讨论注释和参考文献习题第6章支持向量机6.1引言6.2线性可分模式的最优超平面6.3不可分模式的最优超平面6.4使用核方法的支持向量机6.5支持向量机的设计6.6XOR问题6.7计算机实验:模式分类6.8回归:鲁棒性考虑6.9线性回归问题的

5、最优化解6.10表示定理和相关问题6.11小结和讨论注释和参考文献习题第7章正则化理论7.1引言7.2良态问题的Hadamard条件7.3Tikhonov正则化理论7.4正则化网络7.5广义径向基函数网络7.6再论正则化最小二乘估计7.7对正则化的附加要点7.8正则化参数估计7.9半监督学习7.10流形正则化:初步的考虑7.11可微流形7.12广义正则化理论7.13光谱图理论7.14广义表示定理7.15拉普拉斯正则化最小二乘算法7.16用半监督学习对模式分类的实验7.17小结和讨论注释和参考文献习题第8章主分量分析8.1引言8.2自组织原则8.3自组织的特

6、征分析8.4主分量分析:扰动理论8.5基于Hebb的最大特征滤波器8.6基于Hebb的主分量分析8.7计算机实验:图像编码8.8核主分量分析8.9自然图像编码中的基本问题8.10核Hebb算法8.11小结和讨论注释和参考文献习题第9章自组织映射9.1引言9.2两个基本的特征映射模型9.3自组织映射9.4特征映射的性质9.5计算机实验I:利用SOM解网格动力学问题9.6上下文映射9.7分层向量量化9.8核自组织映射9.9计算机实验Ⅱ:利用核SOM解点阵动力学问题9.10核SOM和相对熵之间的关系9.11小结和讨论注释和参考文献习题第10章信息论学习模型10.

7、1引言10.2熵10.3最大熵原则10.4互信息10.5相对熵10.6系词10.7互信息作为最优化的目标函数10.8最大互信息原则10.9最大互信息和冗余减少10.10空间相干特征10.11空间非相干特征10.12独立分量分析10.13自然图像的稀疏编码以及与ICA编码的比较10.14独立分量分析的自然梯度学习10.15独立分量分析的最大似然估计10.16盲源分离的最大熵学习10.17独立分量分析的负熵最大化10.18相关独立分量分析10.19速率失真理论和信息瓶颈10.20数据的最优流形表达10.21计算机实验:模式分类10.22小结和讨论注释和参考文献

8、习题第11章植根于统计力学的随机方法11.1引言11.2统计力学1

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。