都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc

都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc

ID:28151234

大小:130.00 KB

页数:7页

时间:2018-12-08

都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc_第1页
都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc_第2页
都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc_第3页
都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc_第4页
都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc_第5页
资源描述:

《都是人工智能受益者,Intel和 NVIDIA境遇大不同.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、都是人工智能受益者,Intel和NVIDIA境遇大不同  “我们有好几次几乎就破产了。”通常创始人不太谈论自己公司濒死的经历,然而Nvidia的老板黄仁勋,说出上面那句话时似乎毫不为意。作为一家开发微处理器和相关软件的公司,Nvidia业绩连创新高。上个季度,这家公司收入增长55%达到22亿美元。  过去12个月里,黄仁勋的公司股价几乎翻了两番。  Nvidia的成功很大一部分要归因于他们的芯片产品:图形处理单元(GPU)。GPU也可以理解为显卡,可以让电脑在玩游戏时表现的更出色。然而现在GPU有了一个新的用武

2、之地:为人工智能(AI)程序提供所需的大量计算能力,特别是在数据中心里。  这些芯片销量非飞涨(如图所示),是信息技术长期转型的最明显标志。由于摩尔定律的减慢(目前芯片的计算能力大约每两年翻一番),以及云计算和AI的快速崛起,处理器市场正在重构。这对半导体产业及其霸主英特尔,产生了深远的影响。  都是人工智能受益者,Intel和NVIDIA境遇大不同  “我们有好几次几乎就破产了。”通常创始人不太谈论自己公司濒死的经历,然而Nvidia的老板黄仁勋,说出上面那句话时似乎毫不为意。作为一家开发微处理器和相关软件的

3、公司,Nvidia业绩连创新高。上个季度,这家公司收入增长55%达到22亿美元。  过去12个月里,黄仁勋的公司股价几乎翻了两番。  Nvidia的成功很大一部分要归因于他们的芯片产品:图形处理单元(GPU)。GPU也可以理解为显卡,可以让电脑在玩游戏时表现的更出色。然而现在GPU有了一个新的用武之地:为人工智能(AI)程序提供所需的大量计算能力,特别是在数据中心里。  这些芯片销量非飞涨(如图所示),是信息技术长期转型的最明显标志。由于摩尔定律的减慢(目前芯片的计算能力大约每两年翻一番),以及云计算和AI的快

4、速崛起,处理器市场正在重构。这对半导体产业及其霸主英特尔,产生了深远的影响。    过去的日子对英特尔来说,简直顺风顺水。无论个人电脑市场还是服务器领域,英特尔生产的中央处理器(CPU),可以胜任几乎所有的“工作负载”。因为制造了强大的CPU,英特尔掌控了个人电脑市场80%的份额,以及几乎完全垄断服务器市场。  过去一年,英特尔的收入接近600亿美元。  如今这个单极世界开始崩溃。CPU的更新换代速度,已经无法满足需求。机器学习和其他AI应用,需要大量的数据,对数据处理能力的需求比几年前整个数据中心的消耗还多。

5、所以英特尔的客户,例如Google和微软以及其他大数据中心运营商,正在选择来自其他厂商越来越专业的处理器,甚至开始自己设计处理器。  Nvidia的GPU就是一例。这个产品最初被设计用来执行交互式视频游戏所需的大规模复杂计算,也就是给大型游戏加速。GPU有数百个专门用于计算数据的“核心”,所有的核心都是并行工作。而CPU只有几个核心,顺序地处理计算任务。  Nvidia最新的处理器有3584个核心,而因特尔服务器CPU最多有28个。  在2008-2009年的全球金融危机期间,已经接近破产的Nvidia迎来了自

6、己的幸运时刻。这家公司发现对冲基金和研究机构,正在把他们处理器用于新的领域,例如计算复杂的投资策略或者研究气候变化模型。  Nvidia开发了一种称为CUDA的编程架构,帮助客户为不同的任务对处理器进行编程。CUDA能够让GPU解决复杂的计算问题。所以当几年前云计算、大数据和AI开始崛起之后,能够满足需求的Nvidia芯片简直堪称生逢其时。  每一个互联网巨头都在使用Nvidia出品的GPU,驱动他们各自的AI服务在大量数据中进行挖掘,无论是医学图像或是人类语音等等。Nvidia来自数据中心运营商的销售收入,在

7、过去一年增长了三倍,达到2.96亿美元。  然而在众多的专用处理器中,GPU只是其中的一种。随着云计算公司为了保持领先优势,不断提高运营效率而混合和匹配芯片,处理器的范围正在扩大。“为正确的工作找到合适的工具”,负责Google基础设施的UrsHlzle说,要在灵活性、速度和成本间取得平衡。  候选范围的一端是ASIC,意思是专用集成电路。顾名思义,这种芯片为了单一目的而搭建,速度最快、能效最高。许多创业公司正在开发这种内建AI算法的芯片。Google已经为语音识别而建造了一个称为TPU的ASIC芯片。  另一

8、端是现场可编程门阵列:FPGA。这种芯片可以编程,也就有了更大的灵活性。尽管这种芯片不容易调教,微软还是把他们加入到很多服务器中,例如在线搜索必应(Bing)。“我们现在有世界上最多的FPGA”,微软计算云Azure的CTO说。  偏执的时候到了  英特尔近年来专注于制造更强大的CPU,而不是生产ASIC或FPGA。  人们普遍认为,传统的处理器不会很快失去地位:每一台服务器都需要它们

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。