AI进入爆发期,千亿芯片市场空间.doc

AI进入爆发期,千亿芯片市场空间.doc

ID:27481359

大小:441.00 KB

页数:12页

时间:2018-12-04

AI进入爆发期,千亿芯片市场空间.doc_第1页
AI进入爆发期,千亿芯片市场空间.doc_第2页
AI进入爆发期,千亿芯片市场空间.doc_第3页
AI进入爆发期,千亿芯片市场空间.doc_第4页
AI进入爆发期,千亿芯片市场空间.doc_第5页
资源描述:

《AI进入爆发期,千亿芯片市场空间.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、AI进入爆发期,千亿芯片市场空间  AI进入爆发期,千亿芯片市场空间    AI沉浮数十载,“预期-失望-进步-预期”周期中破浪前行。AI(人工智能)概念诞生于1956年达特茅斯(Dartmouth)会议,1959年划时代论文《计算机器与智能》中提出AI领域著名的图灵测试;此后算法和研究不断迭代,经历1956-1974年的推理黄金时代、1974-1980年的第一次瓶颈期、1980-1987年专家系统发展、1987-1993年的第二次寒冬及1993-2010年学习期复苏,之后跟随大数据、云计算兴起,算法模型和并行运算的结合双轮驱动人工智

2、能发展,目前进入爆发期,表现在三个层面:  (1)生态基础层面:移动互联网、物联网的快速发展为人工智能产业奠定生态基础;  (2)软件层面:已有数学模型被重新发掘,新兴合适算法被发明,重要成果包括图模型、图优化、神经网络、深度学习、增强学习等;  (3)硬件层面:摩尔定律助力,服务器强大的计算能力尤其是并行计算单元的引入使人工智能训练效果显著提速,除原有CPU外,GPU、FPGA、ASIC(包括TPU、NPU等AI专属架构芯片)各种硬件被用于算法加速,提速人工智能在云端服务器和终端产品中的应用和发展。  技术体系分层,核心处理芯片成基

3、础层关键。人工智能技术体系分为基础层、技术层与应用层。基础层主要包括人工智能核心处理芯片和大数据,是支撑技术层的图像识别、语音识别等人工智能算法的基石。人工智能算法需要用到大量的卷积等特定并行运算,常规处理器(CPU)在进行这些运算时效率较低,适合AI的核心处理芯片在要求低延时、低功耗、高算力的各种应用场景逐渐成为必须。核心处理芯片和大数据,成为支撑人工智能技术发展的关键要素。    根据赛迪咨询发布报告,2016年全球人工智能市场规模达到293亿美元。人工智能芯片是人工智能市场中重要一环,根据英伟达,AMD,赛灵思,谷歌等相关公司数

4、据,我们测算2016年人工智能芯片市场规模将达到23.88亿美元,约占全球人工智能市场规模8.15%,而到2020年人工智能芯片市场规模将达到146.16亿美元,约占全球人工智能市场规模12.18%。人工智能芯片市场空间极其广阔。    芯片承载算法,是竞争的制高点  人工智能的基础是算法,深度学习是目前最主流的人工智能算法。深度学习又叫深度神经网络(DNN:DeepNeuralNetworks),从之前的人工神经网络(ANN:ArtificialNeuralNetworks)模型发展而来。这种模型一般采用计算机科学中的图模型来直观表

5、达,深度学习的“深度”便指的是图模型的层数以及每一层的节点数量。神经网络复杂度不断提升,从最早单一的神经元,到2012年提出的AlexNet(8个网络层),再到2015年提出的ResNET(150个网络层),层次间的复杂度呈几何倍数递增,对应的是对处理器运算能力需求的爆炸式增长。深度学习带来计算量急剧增加,对计算硬件带来更高要求。我们下文首先对深度学习算法进行简单分析,阐述其和AI芯片的关系。    深度学习算法分“训练”和“推断”两个过程。简单来讲,人工智能需要通过以大数据为基础,通过“训练”得到各种参数,把这些参数传递给“推断”部

6、分,得到最终结果。  “训练”和“推断”所需要的神经网络运算类型不同。神经网络分为前向计算(包括矩阵相乘、卷积、循环层)和后向更新(主要是梯度运算)两类,两者都包含大量并行运算。“训练”所需的运算包括“前向计算+后向更新”;“推断”则主要是“前向计算”。一般而言训练过程相比于推断过程计算量更大。一般来说,云端人工智能硬件负责“训练+推断”,终端人工智能硬件只负责“推断”。  “训练”需大数据支撑并保持较高灵活性,一般在“云端”(即服务器端)进行。人工智能训练过程中,顶层上需要有一个海量的数据集,并选定某种深度学习模型。每个模型都有一些

7、内部参数需要灵活调整,以便学习数据。而这种参数调整实际上可以归结为优化问题,在调整这些参数时,就相当于在优化特定的约束条件,这就是所谓的“训练”。云端服务器收集用户大数据后,依靠其强大的计算资源和专属硬件,实现训练过程,提取出相应的训练参数。由于深度学习训练过程需要海量数据集及庞大计算量,因此对服务器也提出了更高的要求。未来云端AI服务器平台需具备相当数据级别、流程化的并行性、多线程、高内存带宽等特性。  “推断”过程可在云端(服务器端)进行,也可以在终端(产品端)进行。等待模型训练完成后,将训练完成的模型(主要是各种通过训练得到的参

8、数)用于各种应用场景(如图像识别、语音识别、文本翻译等)。“应用”过程主要包含大量的乘累加矩阵运算,并行计算量很大,但和“训练”过程比参数相对固化,不需要大数据支撑,除在服务器端实现外,也可以在终端实现。“推断”所需参数

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。