人工智能实验报告.doc

人工智能实验报告.doc

ID:50387551

大小:201.50 KB

页数:9页

时间:2020-03-05

人工智能实验报告.doc_第1页
人工智能实验报告.doc_第2页
人工智能实验报告.doc_第3页
人工智能实验报告.doc_第4页
人工智能实验报告.doc_第5页
资源描述:

《人工智能实验报告.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、“人工智能”实验报告ArtificialIntelligence老师:刘丽珏班级:物联网1201学号:0909120615姓名:钱晓雪日期:2014.4.15目录一、搜索策略实验群4二、产生式系统实验群5三、神经网络实验群6四、实验心得和体会9实验一:搜索策略实验群姓名钱晓雪年级物联网1201班指导老师刘丽珏日期2014年4月15日实验目的 熟悉和掌握启发式搜索的定义、估价函数和算法过程,并利用A*算法求解N数码难题,理解求解流程和搜索顺序。搜索图算法比较广度优先启发式(1)启发式(2)Open表Open{S}Open{1,2}Open{3,4,2}Open{7,4,2}Open{4,2}O

2、pen{8,2}Open{2}Open{5,6}Open{9,G,6}Open{G,6}Open{S}Open{1,2}Open{5,6,1}Open{3,4,5,6}Open{9,G,3,4,6}Open{10,9,G,3,4}Open{8,10,9,G,3}}Open{S}Open{2}Open{5,}Open{G}Close表S123456789S1374859S25f(x)=g(x)f(x)=h(x)f(x)*=g(x)*+h(x)*估价函数搜索节点次序记录S-1-2-3-5-6-7-8-9-G初始节点s-1-3-7-4-8-2-5-9-目标节点GS-2-5-G观测结果学生结论广度优

3、先搜索算法是一种搜索策略,与之相对应的还有深度优先搜索算法。广度优先是指从图G中的某点为始点出发,标记出所有与之相邻的点,并再以所有与之相邻的点为始点,搜索所有与这些点相邻的点,从而逐层向下扩展,实现对图的遍历。同理,深度优先搜索是指从某点出发,逐层向下扩展,直到无路可扩展时向上回溯,它是优先考虑图的深度(指从某点的扩展深度),而广度优先则优先考虑图的广度(指从某点的可扩展量)。 贪婪算法是一种不追求最优解,只希望得到较为满意解的方法。贪婪算法一般可以快速得到满意的解,因为它省去了为找最优解要穷尽所有可能而必须耗费的大量时间。贪婪算法常以当前情况为基础作最优选择,而不考虑各种可能的整体情况,

4、所以贪婪法不要回溯。A*算法结合了启发式方法(这种方法通过充分利用图给出的信息来动态地作出决定而使搜索次数大大降低)和形式化方法(这种方法不利用图给出的信息,而仅通过数学的形式分析,如Dijkstra算法)。它通过一个估价函数(HeuristicFunction)f(h)来估计图中的当前点p到终点的距离(带权值),并由此决定它的搜索方向,当这条路径失败时,它会尝试其它路径。我们说如果在一般的图搜索算法中应用了上面的估价函数对OPEN表进行排序的,就称A算法。在A算法之上,如果加上一个条件,对于所有的结点x,都有h(x)<=h*(x),那就称为A*算法。如果取h(n)=0同样是A*算法,这样它

5、就退化成了有序算法。A*算法是否成功,也就是说是否在效率上胜过蛮力搜索算法,就在于h(n)的选取,它不能大于实际的h*(n),要保守一点,但越接近h*(n)给我们的启发性就越大,是一个难把握的东西。实验二:神经网络实验群姓名钱晓雪指导老师:刘丽珏日期:2014年4月15日实验目的 理解反向传播网络的结构和原理,掌握反向传播算法对神经元的训练过程,了解反向传播公式。通过构建BP网络实例,熟悉前馈网络的原理及结构。网络拓朴图   训练数据集(输入节点0,输入节点1,输入节点2,输入节点5)(0,0,0,0)(0,0,1,0)(0,1,1,1)(1,0,0,0)(1,0,1,1)(1,1,0,1)

6、(1,1,1,1)(输入节点0,输入节点1,输入节点4)(0,0,0)(0,1,0)(1,0,1)(Known,New,Short,Home,Reads)(1,1,0,1,0)(0,1,1,0,1)(0,0,0,0,0)(1,0,0,1,0)(1,1,1,1,1)(1,0,0,0,0)(0,0,1,0,0)(0,1,1,0,1)(1,0,0,1,0)(1,1,0,0,0)(0,0,1,1,0)(1,1,0,0,0)(1,0,1,1,1)(1,1,1,0,1)(1,1,1,1,1)(1,0,1,0,1)(1,1,1,1,1)(0,1,1,0,1)训练误差第1代误差1.68第51代误差0.52第

7、101代误差0.11第151代误差0.05第201代误差0.03第1代误差0.018第51代误差0.010第101代误差0.010第151代误差0.010第201代误差0.010第1代误差4.67第51代误差0.66第101代误差0.12第151代误差0.06第201代误差0.03模拟的问题或函数多数赞成表决器异或问题MailReading(邮件信息识别)观测结果经过200代的进化,误差以明显的阶梯型降低 由

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。