AI芯片产业生态梳理幻灯片课件.ppt

AI芯片产业生态梳理幻灯片课件.ppt

ID:58613764

大小:4.30 MB

页数:24页

时间:2020-10-20

AI芯片产业生态梳理幻灯片课件.ppt_第1页
AI芯片产业生态梳理幻灯片课件.ppt_第2页
AI芯片产业生态梳理幻灯片课件.ppt_第3页
AI芯片产业生态梳理幻灯片课件.ppt_第4页
AI芯片产业生态梳理幻灯片课件.ppt_第5页
资源描述:

《AI芯片产业生态梳理幻灯片课件.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、AI芯片作为产业核心,也是技术要求和附加值最高的环节,在AI产业链中的产业价值和战略地位远远大于应用层创新。腾讯发布的《中美两国人工智能产业发展全面解读》报告显示,基础层的处理器/芯片企业数量来看,中国有14家,美国33家。AI芯片产业生态梳理单击此处添加标题文字Page2目录AI芯片分类1AI芯片产业生态2中国AI芯片公司3……4Page4AI芯片分类——从应用场景分Cloud/DataCenter云端在深度学习的Training阶段,由于对数据量及运算量需求巨大,单一处理器几乎不可能独立完成一个模型的训练过程,T

2、raining环节目前只能在云端实现,在设备端做Training目前还不是实际。在Inference阶段,由于目前训练出来的深度神经网络模型大多仍非常复杂,其推理过程仍然是计算密集型和存储密集型的,若部署到资源有限的终端用户设备上难度很大,因此,云端推理目前在人工智能应用中需求更为明显。GPU、FPGA、ASIC(GoogleTPU1.0/2.0)等都已应用于云端Inference环境。Device/Embedded设备端在设备端Inference领域,智能终端数量庞大且需求差异较大,如高级辅助驾驶ADAS、虚拟现实VR

3、等设备对实时性要求很高,推理过程不能交由云端完成,要求终端设备本身需要具备足够的推理计算能力,一些低功耗、低延迟、低成本的专用芯片也会有很大的市场需求。可以分成“Cloud/DataCenter(云端)”和“Device/Embedded(设备端)”两大类Page5AI芯片分类——从技术架构分通用芯片GPUFPGA基于FPGA的半定制化芯片深鉴科技DPU、百度XPU(256核、基于FPGA的云计算加速芯片(与赛灵思Xilinx合作)全定制化ASIC芯片TPU寒武纪Cambricon-1A等类脑计算芯片IBMTrueNo

4、rth、Westwell西井科技、高通Zeroth等Page6AI芯片分类象限图TrainingInferenceGPUTPU2.0VSCloud/DataCenterDevice/Embedded?GPU/FPGA/ASICFPGA/ASICPage7AI芯片产业生态InferenceOnDevice设备端推理MobileADASCVNLPVRInferenceOnCloud云端推理GPUFPGAASICTrainingOnCloud云端训练GPUASICTPU1.0/2.0TPU2.0TrainingOnDevi

5、ce设备端训练?Page8Training训练CPUVSGPU架构ControlALUALUALUALUCacheDRAMDRAMCPUGPUPage9CPU和GPU对比说明CPU架构2007年以前,人工智能研究受限于当时算法、数据等因素,对于芯片并没有特别强烈的需求,通用的CPU芯片即可提供足够的计算能力。GoogleBrain项目,使用包含16000个CPU核的并行计算平台,训练超过10亿个神经元的深度神经网络。CPU的串行结构并不适用于深度学习所需的海量数据运算需求,用CPU做深度学习训练效率很低,在早期使用深

6、度学习算法进行语音识别的模型中,拥有429个神经元的输入层,整个网络拥有156M个参数,训练时间超过75天。在内部结构上,CPU中70%晶体管都是用来构建Cache(高速缓冲存储器)和一部分控制单元,负责逻辑运算的部分(ALU模块)并不多,指令执行是一条接一条的串行过程。GPU架构GPU整个就是一个庞大的计算矩阵,GPU具有数以千计的计算核心、可实现10-100倍应用吞吐量,还支持对深度学习至关重要的并行计算能力,可以比传统处理器更加快速,大大加快了训练过程。GPU由并行计算单元和控制单元以及存储单元构成,拥有大量的核(

7、多达几千个)和大量的高速内存,擅长做类似图像处理的并行计算,以矩阵的分布式形式来实现计算。同CPU不同的是,GPU的计算单元明显增多,特别适合大规模并行计算。Page10通用计算GPU—NVIDIA一家独大2010年NVIDIA就开始布局人工智能产品,2014年发布了新一代PASCALGPU芯片架构,这是NVIDIA的第五代GPU架构,也是首个为深度学习而设计的GPU,它支持所有主流的深度学习计算框架。2016年上半年,NVIDIA又针对神经网络训练过程推出了基于PASCAL架构的TESLAP100芯片以及相应的超级计

8、算机DGX-1。DGX-1包含TESLAP100GPU加速器,采用NVLINK互联技术,软件堆栈包含主要深度学习框架、深度学习SDK、DIGITSGPU训练系统、驱动程序和CUDA,能够快速设计深度神经网络(DNN),拥有高达170TFLOPS的半精度浮点运算能力,相当于250台传统服务器,可以将深度学习的训练速度加

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。