欢迎来到天天文库
浏览记录
ID:27842829
大小:26.00 KB
页数:5页
时间:2018-12-06
《人工智能入门,人工智能开发入门.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、人工智能入门,人工智能开发入门 对人工智能领域来说,2016年是值得纪念的一年。不仅计算机「学」得更多更快了,我们也懂得了如何改进计算机系统。一切都在步入正轨,因此,我们正目睹着前所未有的重大进步:我们有了能用图片来讲故事的程序,有了无人驾驶汽车,甚至有了能够创作艺术的程序。如果你想要了解2016年的更多进展,请一定要读一读这篇文章。AI技术已逐步成为许多技术的核心,所以,理解一些常用术语和工作原理成为了一件很重要的事。 人工智能是什么? 人工智能的很多进步都是新的统计模型,其中绝大多数来自于一项称作「人工神经网络」(arTIficialneur
2、alnetworks)的技术,简称ANN。这种技术十分粗略地模拟了人脑的结构。值得注意的是,人工神经网络和神经网络是不同的。很多人为了方便起见而把「人工神经网络」中的人工二字省略掉,这是不准确的,因为使用「人工」这个词正是为了与计算神经生物学中的神经网络相区别。以下便是真实的神经元和神经突触。 我们的ANN中有称作「神经元」的计算单元。这些人工神经元通过「突触」连接,这里的「突触」指的是权重值。这意味着,给定一个数字,一个神经元将执行某种计算(例如一个sigmoid函数),然后计算结果会被乘上一个权重。如果你的神经网络只有一层,那么加权后的结果就
3、是该神经网络的输出值。或者,你也可以配置多层神经元,这就是深度学习的基础概念。 它们起源何处? 人工神经网络不是一个新概念。事实上,它们过去的名字不叫神经网络,它们最早的状态和我们今天所看到的也完全不一样。20世纪60年代,我们把它称之为感知机(perceptron),是由McCulloch-Pitts神经元组成。我们甚至还有了偏差感知机。最后,人们开始创造多层感知机,也就是我们今天通常听到的人工神经网络。 如果神经网络开始于20世纪60年代,那为什么它们直到今天才流行起来?这是个很长的故事,简单来说,有一些原因阻碍了ANN的发展。比如,我们
4、过去的计算能力不够,没有足够多的数据去训练这些模型。使用神经网络会很不舒服,因为它们的表现似乎很随意。但上面所说的每一个因素都在变化。如今,我们的计算机变得更快更强大,并且由于互联网的发展,我们可使用的数据多种多样。 它们是如何工作的? 上面我提到了运行计算的神经元和神经突触。你可能会问:「它们如何学习要执行何种计算?」从本质上说,答案就是我们需要问它们大量的问题,并提供给它们答案。这叫做有监督学习。借助于足够多的「问题-答案」案例,储存在每个神经元和神经突触中的计算和权值就能慢慢进行调整。通常,这是通过一个叫做反向传播(backpropagaTI
5、on)的过程实现的。 想象一下,你在沿着人行道行走时看到了一个灯柱,但你以前从未见过它,因此你可能会不慎撞到它并「哎呦」惨叫一声。下一次,你会在这个灯柱旁边几英寸的距离匆匆而过,你的肩膀可能会碰到它,你再次「哎呦」一声。直到第三次看到这个灯柱,你会远远地躲开它,以确保完全不会碰到它。但此时意外发生了,你在躲开灯柱的同时却撞到了一个邮箱,但你以前从未见过这个邮箱,你径直撞向它——「灯柱悲剧」的全过程又重现了。这个例子有些过度简化,但这实际上就是反向传播的工作原理。一个人工神经网络被赋予多个类似案例,然后它试着得出与案例答案相同的答案。当它的输出结果
6、错误时,这个错误会被重新计算,每个神经元和神经突触的值会通过人工神经网络反向传播,以备下次计算。此过程需要大量案例。为了实际应用,所需案例的数目可能达到数百万。 既然我们理解了人工神经网络以及它们的部分工作原理,我们可能会想到另外一个问题:我们怎么知道我们需要多少神经元?为什么前文要用粗体标出「多层」一词?其实,每层人工神经网络就是一个神经元的集合。在为ANN输入数据时我们有输入层,同时还有许多隐藏层,这正是魔法诞生之地。最后,我们还有输出层,ANN最终的计算结果放置于此供我们使用。 一个层级本身是神经元的集合。在多层感知机的年代,我们起初认为
7、一个输入层、一个隐藏层和一个输出层就够用了。那时是行得通的。输入几个数字,你仅需要一组计算,就能得到结果。如果ANN的计算结果不正确,你再往隐藏层上加上更多的神经元就可以了。最后我们终于明白,这么做其实只是在为每个输入和输出创造一个线性映射。换句话说,我们了解了,一个特定的输入一定对应着一个特定的输出。我们只能处理那些此前见过的输入值,没有任何灵活性。这绝对不是我们想要的。 如今,深度学习为我们带来了更多的隐藏层,这是我们如今获得了更好的ANN的原因之一,因为我们需要数百个节点和至少几十个层级,这带来了亟需实时追踪的大量变量。并行程序的进步也使我们能
8、够运行更大的ANN批量计算。我们的人工神经网络正变得如此之大,使我们不能再在整个网络中同时运行
此文档下载收益归作者所有