回顾台北GTC的重要发布.doc

回顾台北GTC的重要发布.doc

ID:27867646

大小:336.00 KB

页数:9页

时间:2018-12-06

回顾台北GTC的重要发布.doc_第1页
回顾台北GTC的重要发布.doc_第2页
回顾台北GTC的重要发布.doc_第3页
回顾台北GTC的重要发布.doc_第4页
回顾台北GTC的重要发布.doc_第5页
资源描述:

《回顾台北GTC的重要发布.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、回顾台北GTC的重要发布  NVIDIA创始人兼首席执行官黄仁勋在近日召开的台北GTC上发布了HGX-2,这是一个“构建模块”云服务器平台,让服务器制造商能够围绕NVIDIAGPU创建更强大的系统,实现高性能计算和人工智能。该平台的性能在五年内增长了500倍,并得到了包括所有计算机制造商和ISV在内的生态系统的支持。    黄仁勋表示,计算系统将为全球范围内数万亿美元的产业带来改变,而GPU在计算生态系统中处于核心位置。他认为想要实现在材料科学、能源和医学等方面的一系列突破,都有赖于更高的计算能力。  “计算需求之大前所未有,我们需要扩展摩尔定律,

2、”黄仁勋表示。  性能飙升  黄仁勋详述了基于GPU的深度学习驱动的技术“寒武纪大爆炸”。在不到十年的时间内,GPU计算能力增长了20倍,即每年增长1.7倍,远超摩尔定律。  但由于AI的发展,我们对性能的需求还在“增长(而没有放缓)”。“在此之前,软件是由人类编写的,软件工程师只能编写有限的软件,但机器不会感到疲惫。”  “只要有数据,只要知道如何创建架构,我们就能够打造强大的软件,”黄仁勋如是说。“全球每个开发软件的公司都需要一台AI超级计算机。”  推出全新服务器  NVIDIAHGX-2融合了NVIDIANVSwitch互联结构等突破性功能

3、,将16个NVIDIATeslaV100TensorCoreGPU无缝连接为单一“巨型GPU”。NVIDIA的合作伙伴将于今年晚些时候推出首批基于HGX-2的系统。  “有了与你们的合作,任何人都可以使用这种未来融合型计算方式实现高性能计算和AI应用的创建,”黄仁勋对整个计算机行业中合作伙伴的支持表示了感谢。“我们有各种服务器。”    行业合作伙伴广泛采用NVIDIA的服务器平台  大无止境  HGX-2的核心是NVIDIATeslaV100GPU,它配备了32GB高带宽内存容量,可提供每秒125万亿次浮点计算的深度学习性能。  通过NVSwit

4、ch将多达16个TeslaV100GPU连接在一起,造就了黄仁勋口中“全球最大的GPU”。  “每个GPU都能同时以300GB/s的带宽、10倍的PCIExpress与其他GPU进行通信,”黄仁勋介绍说。“也就是说所有GPU彼此之间都能同时对话。”  黄仁勋还详细介绍了新款NVIDIADGX-2,这是首款使用HGX-2服务器平台构建的系统。它重达350磅,可提供每秒2千万亿次浮点计算能力和512GBHBM2内存。  “这是有史以来创建的最快的单一计算机:一个操作系统、一个编程模型,你可以将它编程为一台计算机,”黄仁勋说道。“这就像是一台个人电脑,不

5、过速度相当快。”  业界新法则  黄仁勋表示,DGX-2仅用六个月就实现了十倍于上一代计算性能的飞跃。在AlexNet图像识别基准测试中,相较于五年前基于一对NVIDIAGPU所达到的性能也实现了500倍的飞跃。  “业界已经迎来了新的法则,”黄仁勋说道。“这个新的计算法则告诉我们:’如果你能够做到,而且如果你愿意在整个堆栈中进行优化,实现性能提升的速度就会非常快。’”  其结果就是:技术堆栈上下都涌现了一系列深度学习速度纪录,从单芯片性能到庞大的数据中心系统。    NVIDIA为技术堆栈上下都提供了创纪录的性能  NVIDIAGPUCloud(

6、NGC)扩展了这种性能的可访问性。它让研究人员不再受限于台式机和服务器系统,而是能够借力于由亚马逊、谷歌、阿里巴巴和甲骨文等提供商提供的云系统。  “这一软件的每一层都经过调优并通过了测试,”黄仁勋还补充说,如今有2万家公司已经下载了NGC。  真实世界的结果令人惊叹。黄仁勋在场上与一位NVIDIAAI研究员一起,演示了实时移除照片中的细节,例如树木或路灯。  牢记PLASTER原则  黄仁勋说道,除了演示之外,要大规模地部署这样的深度学习应用,需要搞定七大挑战:可编程性(programmability)、延迟(latency)、准确性(accur

7、acy)、模型大小(size)、吞吐量(throughput)、能效(energyefficiency)和学习频率(rateoflearning)。用这七个单词的英文首字母作为缩写就是PLASTER。    黄仁勋解释说,推理并非易事。  扩展能力将成为将新一代人工智能服务推向实际运作的关键,这是一种称为推理的过程,适用于语音合成与识别、图像与视频处理、以及推荐服务等等。  王者“KONG”  为展示这种扩展能力,黄仁勋演示了一个令人惊叹的花卉识别系统,基于一个CPU能达到的速度为每秒4张图像,而采用一个GPU则能扩展至每秒2500张图像,最高还能

8、达到这一速度的4倍,这要归功于通过Kubernetes为更多位于桌面、数据中心和云服务提供商快速添加更多GPU以提供支持的

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。