Nvidia与ARM共同合作打造AI芯片专用IP.doc

Nvidia与ARM共同合作打造AI芯片专用IP.doc

ID:27499644

大小:160.50 KB

页数:9页

时间:2018-12-04

Nvidia与ARM共同合作打造AI芯片专用IP.doc_第1页
Nvidia与ARM共同合作打造AI芯片专用IP.doc_第2页
Nvidia与ARM共同合作打造AI芯片专用IP.doc_第3页
Nvidia与ARM共同合作打造AI芯片专用IP.doc_第4页
Nvidia与ARM共同合作打造AI芯片专用IP.doc_第5页
资源描述:

《Nvidia与ARM共同合作打造AI芯片专用IP.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、Nvidia与ARM共同合作打造AI芯片专用IP  一年一度的GTC至今已经迎来了第十个年头,虽然它每年或多或少的给网友一些“失望”,但它也终究是代表着GPU行业的高水平技术大会。那么,今年的GTC大会,英伟达又给业界带来了哪些惊喜呢?  日前,英伟达公司创始人兼首席执行官黄仁勋宣布了该公司在芯片、AI平台、自动驾驶上的一系列新动作。    一、光线追踪(ray-tracing)  开场介绍的第一个项目就是英伟达在前不久GDC上发布的NVIDIARTX光线追踪技术(ray-tracing),这项技术是英伟达耗时10年打

2、造的,能够提供电影级画质的实时渲染,渲染出逼真的反射、折射和阴影画面,几乎与真实世界的照片或视频很难区分开来。现场展示的视频片段就是用光线追踪技术实时渲染的,而且并不需要一个超级强大的超算电脑,只需要一台DGX-Station。  在真实世界中,我们看到的3D物体被光源照亮,且光子可以在到达观看者的眼睛以前从一个物体反弹到另一个物体。光线追踪技术则是反过来,通过从我们的眼睛(观景式照相机)反向追踪光线捕捉这些效果,通过追踪2D视表面上每个像素的光线的路径,并应用到场景的3D模型中。    可想而知,这种技术的计算量非常

3、大,一般渲染复杂的特殊效果可能需要花上几天甚至几周的时间,所以此前该项技术一直仅限于高成本的电影制作中。  不过,目前,随着GPU性能日益强悍,能够支持光线追踪的电脑也越来越多,通过Volta架构的GPU配合英伟达的RTX技术,产品设计师、游戏设计师、建筑师们能够在几秒内即可生成逼真的产品模型。二、新版QuadroGV100,首次采用Volta架构  QuadroGV100具有32GB内存,且可借助NVIDIANVLink2互联技术,通过并联两块QuadroGPU扩展至64GB,在所有适用于此类应用的平台中其性能最高。

4、  在性能方面,GV100基于NVIDIAVoltaGPU架构,可提供每秒7.4万亿次浮点运算的双精度性能、每秒14.8万亿次浮点运算的单精度性能、以及每秒118.5万亿次浮点运算的深度学习性能。NVIDIARTX内置的NVIDIAOptiXAI-denoiser可实现实时的AI去噪,英伟达表示且其性能相当于采用CPU时的100倍。    三、医疗图像处理超级电脑Clara  黄仁勋在现场推出了第一款专用于医疗图像处理的超级电脑Clara,它能够支持CUDA、CUDNN、TensorRT、OGL、RTX技术。  在现场

5、,黄仁勋展示了一个医疗图像实时处理的影像片段。这个段影像是用十几年的超声波老设备拍摄而成,本来只能看到2D的黑白图像。然而当数据传进Clara后,配合人工智能软件,可以在2D图像中分析出3D的腔膛形状(图中红色部分)。因此,医院可以在现有医疗设备上直接接入这台电脑。    目前,英伟达正在和众多医疗厂商合作,除了GE通用电气、三星电子等大厂外,还有像图玛深维、推想科技等AI医疗创业公司。  四、新版TensorRT推理软件TensorRT4,并将TensorRT集成至谷歌的TensorFlow框架。  这是一款可编程应

6、用平台(ProgrammableInferencePlatform),当你将一个神经网络训练好了之后,可以通过TensorRT可编程平台,简便快捷地将这个训练好了的神经网络部署(Deploy)到英伟达的GPU上。  新版TensorRT4能够支持INT8和FP16精度运算,能够将数据中心的功耗降低70%。  而且,英伟达还与谷歌进行了深度合作,将TensorRT整合进如今最广泛应用的AI开源框架谷歌TensorFlow1.7中。而且现在还能够加速图像、视频、语言、NLP等AI应用。  英伟达表示,TensorRT4可用

7、于快速优化、验证及部署在超大规模数据中心、嵌入式与汽车GPU平台中经过训练的神经网络。相比CPU,针对计算机视觉、神经网络机器翻译、自动语音识别、语音合成与推荐系统等常见应用,该软件最高可将深度学习推理的速度加快190倍。而且为了进一步精简开发,英伟达与谷歌的工程师已将TensorRT集成至TensorFlow1.7,使得在GPU上运行深度学习推理应用更加容易。  五、AI平台新进展  如同往届,黄仁勋对英伟达AI平台做了介绍,公布了其中的一系列重要进展,包括全新TeslaV10032GBGPU的2倍内存、革命性的NV

8、Switch结构、以及全面的软件堆栈推动性能提升、深度学习工作站DGX-2成为首款性能高达每秒2千万亿次浮点运算的深度学习系统、发布深度学习引擎TensorRT4等。英伟达表示,相较于六个月前发布的上一代产品DGX-1,其深度学习工作负载性能实现了10倍提升。  在大会上,黄仁勋宣布,新版的TeslaV100内存扩容了一倍。「5年

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。