建立FPGA深度学习加速生态圈,为人工智能赋能.doc

建立FPGA深度学习加速生态圈,为人工智能赋能.doc

ID:27881845

大小:86.00 KB

页数:8页

时间:2018-12-06

建立FPGA深度学习加速生态圈,为人工智能赋能.doc_第1页
建立FPGA深度学习加速生态圈,为人工智能赋能.doc_第2页
建立FPGA深度学习加速生态圈,为人工智能赋能.doc_第3页
建立FPGA深度学习加速生态圈,为人工智能赋能.doc_第4页
建立FPGA深度学习加速生态圈,为人工智能赋能.doc_第5页
资源描述:

《建立FPGA深度学习加速生态圈,为人工智能赋能.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、建立FPGA深度学习加速生态圈,为人工智能赋能  毫无疑问,如果评选2016年度科技界十大最耀眼热词,人工智能&深度学习必定会华丽丽地上榜。从年初阿尔法狗战胜世界围棋冠军李世石,到年末世界互联网大会上BAT大佬们的集体AI秀,每一个信号都在不断提示着我们,人工智能时代来了,未来已来,且就在我们身边。  1956年,约翰·麦卡锡等人出席的达特茅斯会议正式标志着人工智能的诞生。经过60年的发展,人工智能历经了三次浪潮,发展可谓起起落落。  第一次,达特茅斯会议确立了人工智能这一术语,第一款感知神经网络软件

2、和聊天软件诞生,数学定理被证明,人类第一次进入了人工智能的狂欢时期。然而,人们很快发现,这些理论和模型只能解决一些非常简单的问题,他们把问题想得过于简单,人工智能随即进入低谷。  第二次,八十年代Hopfield神经网络和BT训练算法的提出,使得人工智能再次兴起,出现了语音识别、语音翻译模型也为第二次人工智能的热潮点燃了希望之火。但这些设想迟迟未能进入人们的生活之中,第二次浪潮也随之破灭。  第三次,随着2006年Hinton提出的深度学习技术,以及2012年ImageNet竞赛在图像识别领域带来的突

3、破,人工智能再次迎来了烈火烹油式的爆发。特别是到了2016年,大数据技术的日臻成熟以及高性能计算和算法的跨越式进步,为人工智能的发展带来了真正的动力。  高性能计算加速深度学习落地,GPU与FPGA各有所长  而这一次人工智能热潮的兴起,与前两次有着截然不同的本质区别,其中高性能计算应用加速能力的大幅提升功不可没。在恒扬数据应用加速部门产品经理张军看来,深度学习模型是构建在海量的数据和强有力超算能力基础之上的,传统计算架构已经无法支撑深度学习大规模并行计算需求,因此,通过底层应用加速计算过程结合深度学

4、习算法上的优化,是推动人工智能整个产业链发展的重要环节。  目前针对深度学习的分布式加速主要有三种方式:GPU、FPGA和NPU。GPU是最先被引入深度学习领域的,我们熟知的阿尔法狗就是由1920个CPU+280个GPU搭建的超算平台,作为最早看好深度学习应用加速的公司,英伟达是该领域当仁不让的领导者,通过打造CUDA平台,GPU在SIMD单指令多数据流架构中的优势被全面激发,结合高并行计算和高计算吞吐的特点,GPU可以大规模适用于具备计算密集、高并行、SIMD应用等特点的深度学习训练模型领域。目前,

5、GPU已经在深度学习训练模型领域开创性地创建了包含CNN、DNN、RNN、LSTM以及强化学习网络等算法在内的应用加速平台和完整的生态系统。  GPU虽火,但从技术上讲,也有一定的局限性。  首先,运行能效比不佳。相比较而言,运行深度学习算法实现同样的性能,GPU所需功耗远大于FPGA,通常情况下,GPU只能达到FPGA能效比的一半或更低。  其次,应用过程中无法充分发挥并行计算优势。深度学习包含两个计算环节,即训练(Off-line)和推理(On-line)环节。GPU在深度学习算法模型训练上非常高

6、效,但在推理时一次性只能对于一个输入项进行处理,并行计算的优势不能发挥出来。  第三,硬件结构固定不具备可编程性。目前来看,深度学习算法还未完全成熟,算法还在迭代衍化过程中,若深度学习算法发生大的变化,GPU无法像FPGA一样可以灵活的配置硬件结构,快速切入市场。而以上这些不足,恰恰可以通过FPGA加速的方式来弥补。  可以说,GPU和FPGA在加速深度学习算法方面各有所长。据张军介绍,单纯从性能角度来看,目前看FPGA的性能要弱于GPU,但FPGA在性能功耗比方面的表现却非常惊艳,以恒扬NSA系列深

7、度学习加速卡来看,性能功耗比可以做到70GFlops/W,是英伟达M4的2倍多,是Intel众核芯片的5倍,优势还是相当明显的。这一点,对大型数据中心而言至关重要,可以节省大量服务器部署及机房建设、用电成本。  从计算优势来讲,目前大家看到在深度学习模型训练领域基本使用的是SIMD架构,即只需一条指令可以平行处理大量数据,这一点正好可以发挥GPU并行计算优势,但是容易让人忽略的是,在完成训练模型后,深度学习还需要进行推理计算环节,即MISD单一数据需要用多条指令平行处理,而这部分计算,正是FPGA最为

8、擅长的。  根据赛灵思全球战略与市场营销高级副总裁SteveGlasev介绍,他认为FPGA未来在超级数据中心将成主流应用,尤其是在深度学习方面,在这方面GPU强在训练,而FPGA强在推断。一旦需要大规模部署训练模型,就必须大幅度提高效率,这需要新的推断引擎来提升效率,比如3到4倍,同时还要最小限度损失精确性,这正是FPGA的强项。他预测,未来至少95%的机器学习计算都是用于推断,只有不到5%是用于模型训练,这是两者的区别。  另外,不同架构的FPGA由

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。