英特尔专用AI芯片憋了三年半终于要放大招了.doc

英特尔专用AI芯片憋了三年半终于要放大招了.doc

ID:28134378

大小:308.50 KB

页数:15页

时间:2018-12-08

英特尔专用AI芯片憋了三年半终于要放大招了.doc_第1页
英特尔专用AI芯片憋了三年半终于要放大招了.doc_第2页
英特尔专用AI芯片憋了三年半终于要放大招了.doc_第3页
英特尔专用AI芯片憋了三年半终于要放大招了.doc_第4页
英特尔专用AI芯片憋了三年半终于要放大招了.doc_第5页
资源描述:

《英特尔专用AI芯片憋了三年半终于要放大招了.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、英特尔专用AI芯片憋了三年半终于要放大招了  英特尔那款专用AI芯片的大招已经憋三年半了。  准确来说,Nervana——英特尔砸了4.08亿美元(也有报道称3.5亿)买下的那家加州创企——他们那款专用AI芯片的大招已经憋三年半了。  2014年4月,在Nervana获得首笔60万美元的成立之初,这家公司就宣布要打造一款“深度学习专用硬件”。而在2014年8月,在获得第二笔融资(330万美元)后,其CEONaveenRao就表示,“用户能在大约6个月后尝试到这些深度学习专用硬件。”  三年多后,在经历了第三轮2050万美

2、元融资并且被英特尔收购后,在今年10月17日,英特尔CEO科再奇在采访中表示,这块芯片在今年年底就会正式和用户见面。与此同时他还说,Facebook正在参与合作打造这款AI专用芯片。  然而,随着2017年转眼就要余额不足,英特尔这款Nervana专用AI芯片的还是没有正式亮相。尤其是在欧美连珠炮假日季“感恩节-圣诞节-元旦”来临的12月底,我们可以大胆地假设一句——明年见(也许是2018英特尔专用AI芯片憋了三年半终于要放大招了  英特尔那款专用AI芯片的大招已经憋三年半了。  准确来说,Nervana——英特尔砸了4

3、.08亿美元(也有报道称3.5亿)买下的那家加州创企——他们那款专用AI芯片的大招已经憋三年半了。  2014年4月,在Nervana获得首笔60万美元的成立之初,这家公司就宣布要打造一款“深度学习专用硬件”。而在2014年8月,在获得第二笔融资(330万美元)后,其CEONaveenRao就表示,“用户能在大约6个月后尝试到这些深度学习专用硬件。”  三年多后,在经历了第三轮2050万美元融资并且被英特尔收购后,在今年10月17日,英特尔CEO科再奇在采访中表示,这块芯片在今年年底就会正式和用户见面。与此同时他还说,F

4、acebook正在参与合作打造这款AI专用芯片。  然而,随着2017年转眼就要余额不足,英特尔这款Nervana专用AI芯片的还是没有正式亮相。尤其是在欧美连珠炮假日季“感恩节-圣诞节-元旦”来临的12月底,我们可以大胆地假设一句——明年见(也许是2018CES?)  不过,虽然大招一再推迟,但是英特尔集团上下依旧对于Nervana项目十分看重。英特尔CEO科再奇不仅在不同场合内一再为Nervana站台,而且在收购Nervana后短短几个月间,前NervanaCEO就被晋升为英特尔人工智能事业部总负责人,直接向科再奇汇

5、报——在以资历排位著称的英特尔内,晋升速度堪称火箭。    ▲前NervanaCEO、英特尔人工智能事业部总负责人NaveenRao  今天,我们就来扒一扒Nervana与这块英特尔专用AI芯片,同时也来看一看英特尔这三年多的等待和3.5亿美元的资金砸出了多大一个响来?也看看英特尔这个曾经PC时代当之无愧的霸主,如今能不能靠着Nervana在人工智能领域提刀再战?  比GPU更好、更快、更强大  深度学习分为训练(Training)和应用(Inference)两个阶段,Nervana芯片瞄准的是训练阶段,这一阶段需要计算

6、机处理大量的数据,现有的CPU难以满足如此强大的计算需求,这也是英伟达靠着GPU崛起的重要原因。  目前Nervana芯片主要应用在云计算数据机房内。NervanaCEONaveenRao曾经表示,Nervana使用的这种新型芯片设计架构比GPU更快、功耗更低、性能更好。    ▲英特尔Nervana深度学习专用芯片设计架构  根据英特尔在2016年11月的AIDay上,我们第一次了解到了这块Nervana深度学习专用芯片的设计架。这款芯片为2.5D封装,搭载了32GB的HBM2内存,内存带宽为8Tbps。芯片中没有缓存

7、,完全通过软件去管理片上存储。它可以支持各类神经网络算法框架的加速,比如Nervana的Neon、谷歌的TensorFlow、Facebook的Caffe等。  NervanaCEO表示,之所以这款芯片能够做到比更快CPU、比GPU更快地加速处理深度神经网络,原因有二:  1、这块芯片由“处理集群”阵列构成,处理被称作“活动点(flexpoint)”的简化数学运算,基于张量处理器的架构。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。    2、“互联(interconnect)”技术——这是Ner

8、vana芯片的真正亮眼之处,不过Nervana一直这一技术的细节讳莫如深——NaveenRao将这项互连技术描述为一种模块化架构,其芯片结构可以在编程上扩展成与其它芯片的高速串行连接,帮助用户创造更大、更多元化的神经网络模型。  在GPU上,数据在芯片内部处理和芯片外部通信处理有很大的不同,必须将内存映射到I/O,在

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。