人工智能芯片与传统芯片有何区别.doc

人工智能芯片与传统芯片有何区别.doc

ID:27839875

大小:321.50 KB

页数:9页

时间:2018-12-06

人工智能芯片与传统芯片有何区别.doc_第1页
人工智能芯片与传统芯片有何区别.doc_第2页
人工智能芯片与传统芯片有何区别.doc_第3页
人工智能芯片与传统芯片有何区别.doc_第4页
人工智能芯片与传统芯片有何区别.doc_第5页
资源描述:

《人工智能芯片与传统芯片有何区别.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、人工智能芯片与传统芯片有何区别  作为AI和芯片两大领域的交差点,AI芯片已经成了最热门的投资领域,各种AI芯片如雨后春笋冒出来,但是AI芯片领域生存环境恶劣,能活下来的企业将是凤毛麟角。  谷歌在I/O大会发布了其第三代TPU,并宣称其性能比去年的TUP2.0提升8倍之多,达到每秒1000万亿次浮点计算,同时谷歌展示了其一系列基于TPU的AI应用。  可以说,AI已经成为科技行业除了区块链之外最热门的话题。AI芯片作为AI时代的基础设施,也成为目前行业最热门的领域。  可以看到,AI芯片已经成为资

2、本追逐的最热门领域,资本对半导体芯片的热情被AI技术彻底点燃。在创业公司未真正打开市场的情况下,AI芯片初创企业已经诞生了不少的独角兽,多笔融资已经超过亿元。  AI技术的革新,其从计算构架到应用,都和传统处理器与算法有巨大的差异,这给创业者和资本市场无限的遐想空间,这也是为什么资本和人才对其趋之若鹜的原因。    首先我们来分析下目前对AI芯片的需求主要集中在哪些方面。  先来讲讲AI目前芯片大致的分类:从应用场景角度看,AI芯片主要有两个方向,一个是在数据中心部署的云端,一个是在消费者终端部署的

3、终端。从功能角度看,AI芯片主要做两个事情,一是Training(训练),二是Inference(推理)。  目前AI芯片的大规模应用分别在云端和终端。云端的AI芯片同时做两个事情:Training和Inference。Training即用大量标记过的数据来“训练”相应的系统,使之可以适应特定的功能,比如给系统海量的“猫”的图片,并告诉系统这个就是“猫”,之后系统就“知道”什么是猫了;Inference即用训练好的系统来完成任务,接上面的例子,就是你将一张图给之前训练过的系统,让他得出这张图是不是猫

4、这样的结论。  Training和Inference在目前大多数的AI系统中,是相对独立的过程,其对计算能力的要求也不尽相同。  Training需要极高的计算性能,需要较高的精度,需要能处理海量的数据,需要有一定的通用性,以便完成各种各样的学习任务。  对于芯片厂家来说,谁有数据,谁赢!  Inference相对来说对性能的要求并不高,对精度要求也要更低,在特定的场景下,对通用性要求也低,能完成特定任务即可,但因为Inference的结果直接提供给终端用户,所以更关注用户体验的方面的优化。  谷歌

5、TensorFlow团队:深度学习的未来,在单片机的身上  PeteWarden,是谷歌TensorFlow团队成员,也是TensorFLowMobile的负责人。  Pete坚定地相信,未来的深度学习能够在微型的、低功耗的芯片上自由地奔跑。  单片机(MCU),有一天会成为深度学习最肥沃的土壤。  为什么是单片机?单片机遍地都是  今年一年全球会有大约400亿枚单片机(MCU)售出。MCU里面有个小CPU,RAM只有几kb的那种,但医疗设备、汽车设备、工业设备,还有消费级电子产品里,都用得到。  

6、这样的计算机,需要的电量很小,价格也很便宜,大概不到50美分。  之所以得不到重视,是因为一般情况下,MCU都是用来取代(如洗衣机里、遥控器里的)那些老式的机电系统——控制机器用的逻辑没有发生什么变化。  CPU和传感器不太耗电,传输耗钱、耗电!CPU和传感器的功耗,基本可以降到微瓦级,比如高通的Glance视觉芯片。  相比之下,显示器和无线电,就尤其耗电了。即便是WiFi和蓝牙也至少要几十毫瓦。    因为,数据传输需要的能量,似乎与传输距离成正比。CPU和传感器只传几毫米,如果每个数据都需要端

7、管云这样传输,每个算法都需要输送到云端进行处理,自然代价就要贵得多。  传感器的数据很多,传输起来很费劲!传感器能获取的数据,比人们能用到的数据,多得多。例如:卫星的图片数据很多,但是传到地球很困难。  卫星或者宇宙飞船上的宇航员可以用高清相机来拍高清视频。但问题是,卫星的数据存储量很小,传输带宽也很有限,从地球上每小时只能下载到一点点数据。  地球上的很多传感器也一样,本地获得很容易,但是传输到远端的数据中心就需要很多的代价。  跟深度学习有什么关系  如果传感器的数据可以在本地运算,又不需要很多

8、的代价和电力。  我们需要的是,能够在单片机上运转的,不需要很多电量的,依赖计算不依赖无线电,并且可以把那些本来要浪费掉的传感器数据利用起来的。  这也是机器学习,特别是深度学习,需要跨越的鸿沟。  相比之下,神经网络大部分的时间,都是用来把那些很大很大的矩阵乘到一起,翻来覆去用相同的数字,只是组合方式不同了。  这样的运算,当然比从DRAM里读取大量的数值,要低碳得多。  需要的数据没那么多的话,就可以用SRAM这样低功耗的设备来存储。  如此说来,深度学习最适合M

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。