人工智能大风口下的TPU-NPU-CPU-GPU.doc

人工智能大风口下的TPU-NPU-CPU-GPU.doc

ID:27839204

大小:886.00 KB

页数:6页

时间:2018-12-06

人工智能大风口下的TPU-NPU-CPU-GPU.doc_第1页
人工智能大风口下的TPU-NPU-CPU-GPU.doc_第2页
人工智能大风口下的TPU-NPU-CPU-GPU.doc_第3页
人工智能大风口下的TPU-NPU-CPU-GPU.doc_第4页
人工智能大风口下的TPU-NPU-CPU-GPU.doc_第5页
资源描述:

《人工智能大风口下的TPU-NPU-CPU-GPU.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、人工智能大风口下的TPU/NPU/CPU/GPU  人工智能将推动新一轮计算革命,深度学习需要海量数据并行运算,传统计算架构无法支撑深度学习的大规模并行计算需求。因此,深度学习需要更适应此类算法的新的底层硬件来加速计算过程。  芯片也为响应人工智能和深度学习的需要,在速度和低能耗方面被提出了更高的要求,目前使用的GPU、FPGA均非人工智能定制芯片,天然存在局限性,除具有最明显的优势GPU外,也有不少典型人工智能专用芯片出现。    一、谷歌——TPU(TensorProcessingUnit)即谷歌的张量处理器    TPU是一款为机器学习而定制的芯

2、片,经过了专门深度机器学习方面的训练,它有更高效能(每瓦计算能力)。大致上,相对于现在的处理器有7年的领先优势,宽容度更高,每秒在芯片中可以挤出更多的操作时间,使用更复杂和强大的机器学习模型,将之更快的部署,用户也会更加迅速地获得更智能的结果。  根据Google一位杰出硬件工程师NormJouppi在一篇部落格文章中的说法,该种加速器早在一年多前就运用于Google的数据中心:“TPU已经启动许多Google的应用,包括用以改善搜索引擎结果关联度的RankBrain,以及在街景服务(StreetView)改善地图与导航的精确度与质量。”  谷歌专门为

3、人工智能研发的TPU被疑将对GPU构成威胁。不过谷歌表示,其研发的TPU不会直接与英特尔或NVIDIA进行竞争。  二、中星微——中国首款嵌入式神经网络处理器(NPU)芯片    中星微在今年6月20日,率先推出中国首款嵌入式神经网络处理器(NPU)芯片,这是全球首颗具备深度学习人工智能的嵌入式视频采集压缩编码系统级芯片,并取名“星光智能一号”。这款基于深度学习的芯片运用在人脸识别上,最高能达到98%的准确率,超过人眼的识别率。该芯片于今年3月6日实现量产,目前出货量为十几万件。  NPU采用了“数据驱动”并行计算的架构,单颗NPU(28nm)能耗仅为

4、400mW,极大地提升了计算能力与功耗的比例,可以广泛应用于高清视频监控、智能驾驶辅助、无人机、机器人等嵌入式机器视觉领域。    三、英特尔——非传统意义上的英特尔处理器(CPU)    英特尔公司开发的第二代XeonPhi处理器完美契合了人工智能的需求。XeonPhi并非传统意义上的英特尔处理器(CPU),最新的XeonPhi协处理器拥有多达72个内核,而且每个内核有两个用于提供更好的单核浮点运算性能的英特尔AVX-512SIMD处理单元,所以这些处理器非常适合运行机器学习/深度学习工作任务。  四、人工智能风口下最受关注的还是要数GPU  GPU

5、因其并行计算优势最先被引入深度学习,全球可编程图形处理技术的领军企业英伟达借此已开始打造新的计算平台。目前,包括谷歌、Facebook、微软等科技巨头公司在内的人工智能领域研究的领先者,已经在使用英伟达所提供的专门应用于该领域研究的芯片产品。  Facebook的人工智能硬件平台BigSur就是依托Nvidia的GPU而打造的。GPU在人工智能中的应用十分广泛,因为这种芯片上搭载的处理核心数量多于Intel生产的传统处理器,使得它们十分适用于AI软件所需要的海量计算。“BigSur”的设计特点是易于维修的主板,它装有8个NVIDIA的TeslaM40。

6、  (1)GPU对于人工智能领域的意义又是什么呢?英伟达(NVIDIA)制造的图形处理器(GPU)专门用于在个人电脑、工作站、游戏机和一些移动设备上进行图像运算工作,是显示卡的“心脏”。该公司正从一家显卡供应商转变为人工智能服务器供应商。  GPU在“深度学习”领域发挥着巨大的作用,因为GPU可以平行处理大量琐碎信息。深度学习所依赖的是神经系统网络——与人类大脑神经高度相似的网络——而这种网络出现的目的,就是要在高速的状态下分析海量的数据。例如,如果你想要教会这种网络如何识别出猫的模样,你就要给它提供无数多的猫的图片。而GPU擅长的正是海量数据的快速处

7、理。  对于人工智能和深度学习来说,目前硬件加速主要靠使用图形处理单元(GPU)集群作为通用计算图形处理单元(GPGPU)。  与传统的通用处理器(GPP)相比,GPU的核心计算能力要多出几个数量级,也更容易进行并行计算。尤其是英伟达的CUDA,作为最主流的GPGPU编写平台,各个主要的深度学习工具均用其来进行GPU加速。    (2)GPU有什么优势呢?GPU最明显的优势是更快的处理速度,相比于CPU,GPU的一大优势是高速度。国内最好的人工智能硬件研究项目“寒武纪”小组的最新研究结果表明,GPU能够提供平均58.82X倍于CPU的速度。GPU的另一

8、大优势,是它对能源的需求远远低于CPU。    最新款的专门用于人工智能研究领域的TeslaP

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。