欢迎来到天天文库
浏览记录
ID:27840541
大小:435.50 KB
页数:10页
时间:2018-12-06
《人工智能深度学习未来应该如何发展的详细概述.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、人工智能深度学习未来应该如何发展的详细概述 多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。然而,从12,13年甚嚣尘上,到如今的尘埃落地,浪潮一再的退去。面对疲软的风口,养肥的猪,人工智能将何去何从? AIWinterIsWellOnItsWay 多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。在2014,2015,2016年,很多事件每每推动人们对Ai的理解边界。例如AlphaGo等。特斯拉等公司甚至宣称:全自动驾驶汽车正在路上。 但是现在,2018年中
2、期,事情开始发生变化。从表面上看,NIPS会议仍然很火,关于AI的新闻也很多,ElonMask仍然看好自动驾驶汽车,而GoogleCEO不断重申AndrewNg的口号,即AI比电力作出了更大的贡献。但是这些言论已经开始出现裂纹。裂纹最明显的地方是自动驾驶-人工智能深度学习未来应该如何发展的详细概述 多年来,深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。然而,从12,13年甚嚣尘上,到如今的尘埃落地,浪潮一再的退去。面对疲软的风口,养肥的猪,人工智能将何去何从? AIWinterIsWellOnItsWay 多年来,
3、深度学习一直处于所谓的人工智能革命的最前沿,许多人相信深度学习将带领我们进入通用AI时代。在2014,2015,2016年,很多事件每每推动人们对Ai的理解边界。例如AlphaGo等。特斯拉等公司甚至宣称:全自动驾驶汽车正在路上。 但是现在,2018年中期,事情开始发生变化。从表面上看,NIPS会议仍然很火,关于AI的新闻也很多,ElonMask仍然看好自动驾驶汽车,而GoogleCEO不断重申AndrewNg的口号,即AI比电力作出了更大的贡献。但是这些言论已经开始出现裂纹。裂纹最明显的地方是自动驾驶-这种现实世界中的实际应用。 深度学习尘埃落定 当Ima
4、geNet有了很好的解决方案(注意这并不意味着视觉问题得到已经解决【1】),该领域的许多杰出研究人员(甚至包括一直保持低调的GeoffHinton)都在积极地接受采访,在社交媒体上发布内容(例如YannLecun,吴恩达,李飞飞等)。他们的话,可以总结为:世界正处在一场巨大的AI革命中。然而,好几年已经过去了,这些人的Twitter信息变得不那么活跃了,比如AndrewNg: 2013年-每天0.413推文 2014年-每天0.605条推文 2015-每天0.320条推文 2016-每天0.802推文 2017-每天0.668推文 2018-每天0.2
5、63推文(至5月24日) 也许这是因为Andrew的某些夸张言论,在当下会被进行更详细的审查,如下面的推文【2】所示: 不可否认,深度学习的热度已经大大下降,赞美深度学习作为AI终极算法的推文少得多了,而且论文正在变得不那么“革命”,现在大家换了个词,叫:进化。 自从AlphaZero以来,DeepMind已经许久没有产出令人惊叹的东西了。OpenAI更是相当的低调,他们最近一次出现在媒体的报道上,是他们做了一个自动打Dota2【3】的机器人[我一开始以为,这是跟AlphaGo一样的伟大,然后后来证明,并不是]。 从某些文章来看【4】,貌似Google
6、实际上并不知道如何处理Deepmind,因为他们的结果显然不如原先预期的那么实际......至于杰出的研究人员,他们一般都为了funding在各种政府机构间游走,YannLecun甚至【5】从Facebook的AI首席科学家的位置上下台了。 像这种从富有的大公司向政府资助的研究机构的逐渐转变表明,这些公司对这类研究的兴趣(我认为是谷歌和Facebook)实际上正在慢慢消失。这些都是早期迹象,没有人大声的宣扬,但这些行动就像肢体语言,也能传达某种意思。 大规模深度学习(实际并没有) 深度学习的一个重要口号是它可以轻松的扩展。我们在2012年拥有60M参数的Al
7、exNet,现在我们已经有至少1000倍的数量的模型了吗?好吧,我们可能会这样做,但问题是-这些东西有1000x的能力提升吗?100倍的能力?openAI的研究派上用场: 因此,就视觉应用而言,我们看到VGG和Resnets在计算资源应用的一个数量级上饱和(就参数数量而言实际上较少)。Xception是谷歌Inception架构的一种变体,实际上它在ImageNet上的表现只是略微优于其他模型,因为AlexNet基本上解决了ImageNet。 因此,在比AlexNet计算量提高100倍的情况下,我们在视觉方面已经有了近乎饱和的体系结构,换句话说,图像分类的
8、精确已经提
此文档下载收益归作者所有