欢迎来到天天文库
浏览记录
ID:28145897
大小:147.50 KB
页数:5页
时间:2018-12-08
《谷歌推新AI芯片 用于物端机器学习.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、谷歌推新AI芯片用于物端机器学习 两年前,谷歌推出了旗下的张量处理器(TensorProcessingUnits),即TPUs。这种芯片可以用在公司数据中心里,专门负责一些人工智能数据处理工作。 但是随着物联网的发展和物端智能计算的需求,现在谷歌正在将他们的人工智能计算经验从云端往下搬,推出了新的EdgeTPU(边缘计算TPU)。EdgeTPU是一个体积很小的人工智能计算加速器,有了它,物联网设备就能拥有处理机器学习任务的能力啦! 物端直接进行计算的方法又叫边缘计算(EdgeComput
2、ing),所以谷歌会管该类芯片叫做EdgeTPUs.物端的意思是物联网终端,就是咱们平常说的智能终端、智能手机、智能烟雾器、智能巴拉巴拉硬件。 谷歌新推出的EdgeTPU放置在一个一美分硬币之上 EdgeTPU主要是为了处理所谓“推断”类的机器学习任务。“推断”是在整个机器学习的过程中,被训练好的模型执行任务的阶段,比如从一张图片里识别出某种物体。谷歌之前推出的服务器端的TPUs主要是负责训练模型的,现在推出的这个EdgeTPUs主要是负责使用训练好的模型进行“推断”任务的。 EdgeT
3、PUs是注定要用在企业场景中,而非咱们的智能手机里。比如,企业工厂生产场景中的自动质量检查工作就很适合EdgeTPUs。相对于通过硬件设备采集数据然后通过网络发送给服务器进行分析的传统方法而言,在物端直接执行智能分析的方法有很多优势,包括物端机器学习更能够保障安全性,等待和停机的时间更短,决策速度更快等。(这些优势是目前物端机器学习的卖点) EdgeTPU是TPU的小兄弟,TPU是谷歌公司用来加速人工智能计算的专用处理器,其它消费者能够通过买谷歌云服务来使用这项技术。 谷歌可不是唯一一个做
4、这样物端人工智能芯片的公司。ARM、Qualcomm、Mediatek和其它很多芯片厂商都在做自己的人工智能加速器,英伟达(Nvidia)的GPUs还是市场上最著名的人工智能模型训练芯片。 然而,谷歌的优势是控制全栈人工智能计算硬件产品与服务市场,而竞争对手们并没有做到。用户可以将数据存储在谷歌云服务,可以通过TPUs训练自己的算法,可以使用EdgeTPUs进行最终的物端机器学习推断。谷歌还将会通过自行创建和运营的一款编程框架TensorFlow来开发机器学习软件。 这种“什么都是我们家”的垂
5、直一体化形式(verticalintegration)有明显的优势。谷歌能够保证系统中的每个部分间的通讯尽可能有效和流畅,使用户能够在谷歌的生态系统中操作得更容易、使用得更方便。 “你的传感器将不再仅仅会无脑采集数据啦” 谷歌云的物联网部门副总裁InjongRhee在一篇博客中将这种新硬件形容成“一种专门用来在物端跑轻量级Tensorflow和机器学习模型的ASIC芯片”。Rhee说:“EdgeTPUs是用来补足和完善我们云端TPU产品的,有了它,你就能够在云端用TPU加速机器学习模型的训练,
6、然后在物端的设备还能有轻量级还快速的机器学习决策能力。你的传感器就不光是一个数据采集终端了,它们还能进行本地化、实时性的智能决策任务。” 有趣的是,谷歌也将EdgeTPU当作一个开发套件提供给消费者,这样一来消费者就能轻松地测试硬件性能,也能知道到底EdgeTPUs是否适合他们的产品了。这个开发套件中包括一个SOM(Systemonmodule,模块化系统),SOM中就包括了EdgeTPU芯片,还有一个NXP的CPU,一个小型化安全单元。SOM也配备Wi-Fi通讯功能。SOM能够通过USB或者P
7、CI-E的方式和咱们的计算机进行连接。这套开发套件现在还是处于beta状态,而且需要用户申请才能试用。 在谷歌的发布新闻中,有一点虽然看似不起眼,但是很耐人寻味。按照谷歌的脾气,一般不会让公众染指其人工智能硬件部分。但是如果谷歌想让消费者真正能够使用这个技术,那肯定需要让大家先试试它,而不是靠着谷歌振臂一呼就让大家坚信“谷歌大法好”,扎入谷歌人工智能大家庭的怀抱(AIGooglesphere)。这个开发板不只是为了吸引同行者,它更是表明了谷歌对于整个AI计算产品和服务市场的觊觎之心和严肃态度。
此文档下载收益归作者所有