人工智能深度学习未来应该如何发展的详细概述.doc

人工智能深度学习未来应该如何发展的详细概述.doc

ID:27840541

大小:435.50 KB

页数:10页

时间:2018-12-06

人工智能深度学习未来应该如何发展的详细概述.doc_第1页
人工智能深度学习未来应该如何发展的详细概述.doc_第2页
人工智能深度学习未来应该如何发展的详细概述.doc_第3页
人工智能深度学习未来应该如何发展的详细概述.doc_第4页
人工智能深度学习未来应该如何发展的详细概述.doc_第5页
资源描述:

《人工智能深度学习未来应该如何发展的详细概述.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、人工智能深度学习未来应该如何发展的详细概述  多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。然而,从12,13年甚嚣尘上,到如今的尘埃落地,浪潮一再的退去。面对疲软的风口,养肥的猪,人工智能将何去何从?  AIWinterIsWellOnItsWay  多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。在2014,2015,2016年,很多事件每每推动人们对Ai的理解边界。例如AlphaGo等。特斯拉等公司甚至宣称:全自动驾驶汽车正在路上。  但是现在,2018年中

2、期,事情开始发生变化。从表面上看,NIPS会议仍然很火,关于AI的新闻也很多,ElonMask仍然看好自动驾驶汽车,而GoogleCEO不断重申AndrewNg的口号,即AI比电力作出了更大的贡献。但是这些言论已经开始出现裂纹。裂纹最明显的地方是自动驾驶-人工智能深度学习未来应该如何发展的详细概述  多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。然而,从12,13年甚嚣尘上,到如今的尘埃落地,浪潮一再的退去。面对疲软的风口,养肥的猪,人工智能将何去何从?  AIWinterIsWellOnItsWay  多年来,

3、深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。在2014,2015,2016年,很多事件每每推动人们对Ai的理解边界。例如AlphaGo等。特斯拉等公司甚至宣称:全自动驾驶汽车正在路上。  但是现在,2018年中期,事情开始发生变化。从表面上看,NIPS会议仍然很火,关于AI的新闻也很多,ElonMask仍然看好自动驾驶汽车,而GoogleCEO不断重申AndrewNg的口号,即AI比电力作出了更大的贡献。但是这些言论已经开始出现裂纹。裂纹最明显的地方是自动驾驶-这种现实世界中的实际应用。  深度学习尘埃落定  当Ima

4、geNet有了很好的解决方案(注意这并不意味着视觉问题得到已经解决【1】),该领域的许多杰出研究人员(甚至包括一直保持低调的GeoffHinton)都在积极地接受采访,在社交媒体上发布内容(例如YannLecun,吴恩达,李飞飞等)。他们的话,可以总结为:世界正处在一场巨大的AI革命中。然而,好几年已经过去了,这些人的Twitter信息变得不那么活跃了,比如AndrewNg:  2013年-每天0.413推文  2014年-每天0.605条推文  2015-每天0.320条推文  2016-每天0.802推文  2017-每天0.668推文  2018-每天0.2

5、63推文(至5月24日)  也许这是因为Andrew的某些夸张言论,在当下会被进行更详细的审查,如下面的推文【2】所示:    不可否认,深度学习的热度已经大大下降,赞美深度学习作为AI终极算法的推文少得多了,而且论文正在变得不那么“革命”,现在大家换了个词,叫:进化。  自从AlphaZero以来,DeepMind已经许久没有产出令人惊叹的东西了。OpenAI更是相当的低调,他们最近一次出现在媒体的报道上,是他们做了一个自动打Dota2【3】的机器人[我一开始以为,这是跟AlphaGo一样的伟大,然后后来证明,并不是]。  从某些文章来看【4】,貌似Google

6、实际上并不知道如何处理Deepmind,因为他们的结果显然不如原先预期的那么实际......至于杰出的研究人员,他们一般都为了funding在各种政府机构间游走,YannLecun甚至【5】从Facebook的AI首席科学家的位置上下台了。  像这种从富有的大公司向政府资助的研究机构的逐渐转变表明,这些公司对这类研究的兴趣(我认为是谷歌和Facebook)实际上正在慢慢消失。这些都是早期迹象,没有人大声的宣扬,但这些行动就像肢体语言,也能传达某种意思。  大规模深度学习(实际并没有)  深度学习的一个重要口号是它可以轻松的扩展。我们在2012年拥有60M参数的Al

7、exNet,现在我们已经有至少1000倍的数量的模型了吗?好吧,我们可能会这样做,但问题是-这些东西有1000x的能力提升吗?100倍的能力?openAI的研究派上用场:    因此,就视觉应用而言,我们看到VGG和Resnets在计算资源应用的一个数量级上饱和(就参数数量而言实际上较少)。Xception是谷歌Inception架构的一种变体,实际上它在ImageNet上的表现只是略微优于其他模型,因为AlexNet基本上解决了ImageNet。  因此,在比AlexNet计算量提高100倍的情况下,我们在视觉方面已经有了近乎饱和的体系结构,换句话说,图像分类的

8、精确已经提

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。