详细分析AI芯片的最新格局.doc

详细分析AI芯片的最新格局.doc

ID:28142126

大小:971.00 KB

页数:33页

时间:2018-12-08

详细分析AI芯片的最新格局.doc_第1页
详细分析AI芯片的最新格局.doc_第2页
详细分析AI芯片的最新格局.doc_第3页
详细分析AI芯片的最新格局.doc_第4页
详细分析AI芯片的最新格局.doc_第5页
资源描述:

《详细分析AI芯片的最新格局.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、详细分析AI芯片的最新格局  AI芯片设计是人工智能产业链的重要一环。自2017年5月以来,各AI芯片厂商的新品竞相发布,经过一年多的发展,各环节分工逐渐明显。  AI芯片的应用场景不再局限于云端,部署于智能手机、安防摄像头、及自动驾驶汽车等终端的各项产品日趋丰富。除了追求性能提升外,AI芯片也逐渐专注于特殊场景的优化。    图:自2017年5月以来发布的AI芯片一览  目前,人工智能产业链中,包括提供AI加速核的IP授权商,各种AI芯片设计公司,以及晶圆代工企业。  按部署的位置来分,AI芯片可以部署在数据中心(云

2、端),和手机,安防摄像头,汽车等终端上。  按承担的任务来分,可以被分为用于构建神经网络模型的训练芯片,与利用神经网络模型进行推断的推断芯片。训练芯片注重绝对的计算能力,而推断芯片更注重综合指标,单位能耗算力、时延、成本等都要考虑。  训练芯片受算力约束,一般只在云端部署。推断芯片按照不同应用场景,分为手机边缘推断芯片、安防边缘推断芯片、自动驾驶边缘推断芯片。为方便起见,我们也称它们为手机AI芯片、安防AI芯片和汽车AI芯片。  由于AI芯片对单位能耗算力要求较高,一般采用14nm/12nm/10nm等先进工艺生产。台

3、积电目前和Nvidia、Xilinx等多家芯片厂商展开合作,攻坚7nmAI芯片。    图:AI芯片投资地图  AI芯片市场规模:未来五年有接近10倍的增长,2022年将达到352亿美元。根据我们对相关上市AI芯片公司的收入统计,及对AI在各场景中渗透率的估算,2017年AI芯片市场规模已达到39.1亿美元,具体情况如下:  2017年全球数据中心AI芯片规模合计23.6亿美元,其中云端训练芯片市场规模20.2亿美元,云端推断芯片3.4亿美元。  2017年全球手机AI芯片市场规模3.7亿美元。  2017年全球安防摄

4、像头AI芯片市场规模3.3亿美元。  2017年全球自动驾驶AI芯片的市场规模在8.5亿美元。    图:AI芯片市场规模及竞争格局  Nvidia在2017年时指出,到2020年,全球云端训练芯片的市场规模将达到110亿美元,而推断芯片(云端+边缘)的市场规模将达到150亿美元。  Intel在刚刚结束的2018DCI峰会上,也重申了数据业务驱动硬件市场增长的观点。Intel将2022年与用于数据中心执行AI加速的FPGA的TAM预测,由70亿美元调高至80亿美元。  而同时我们也注意到:  1.手机SoC价格不断上

5、升、AI向中端机型渗透都将为行业创造更广阔的市场空间。    图:历代Apple手机芯片成本趋势  2.安防芯片受益于现有设备的智能化升级,芯片需求扩大。    图:自动驾驶算力需求加速芯片升级  3.自动驾驶方面,针对丰田公司提出的算力需求,我们看到当下芯片算力与L5级自动驾驶还有较大差距。英飞凌公司给出了各自动驾驶等级中的半导体价值预测,可以为我们的TAM估算提供参考。    图:英飞凌对各自动驾驶等级中半导体价值的预测  结合以上观点,及我们对AI在各应用场景下渗透率的分析,我们预测:  云端训练芯片市场规模在2

6、022年将达到172亿美元,CAGR~54%。  云端推断芯片市场规模在2022年将达到72亿美元,CAGR~84%。  用于智能手机的边缘推断芯片市场规模2022年将达到38亿美元,CAGR~59%。  用于安防摄像头的边缘推断芯片市场规模2022年将达到18亿美元,CAGR~41%。  用于自动驾驶汽车的边缘推断芯片市场规模2022年将达到52亿美元,CAGR~44%。  云端训练芯片:TPU很难撼动NvidiaGPU的垄断地位  训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权

7、重参数的过程。CPU由于计算单元少,并行计算能力较弱,不适合直接执行训练任务,因此训练一般采用“CPU+加速芯片”的异构计算模式。  目前Nvidia的GPU+CUDA计算平台是最成熟的AI训练方案,除此还有:    图:AI芯片工作流程  第三方异构计算平台OpenCL+AMDGPU或OpenCL+Intel/Xilinx的FPGA。  云计算服务商自研加速芯片(如Google的TPU)这两种方案。各芯片厂商基于不同方案,都推出了针对于云端训练的AI芯片。    图:云端训练芯片对比  Google  在GPU之外,

8、云端训练的新入竞争者是TPU。Google在去年正式发布了其TPU芯片,并在二代产品中开始提供对训练的支持,但比较下来,GPU仍然拥有最强大的带宽(900GB/s,保证数据吞吐量)和极高的深度学习计算能力(120TFLOPSvs.TPUv245TFLOPS),在功耗上也并没有太大劣势(TPU进行训练时,引入浮点数计算,需要逾200

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。