ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc

ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc

ID:27483030

大小:133.50 KB

页数:4页

时间:2018-12-04

ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc_第1页
ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc_第2页
ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc_第3页
ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc_第4页
资源描述:

《ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、ARM发布两款针对移动终端的AI芯片架构:物体检测和机器学习处理器  毕竟在过去的几个月中,尤其是在移动端圈子里,机器学习在半导体行业中很热。  好几家提供芯片架构的公司都宣布了提供消费者解决方案,连华为都开始自主研发架构了。那么多玩家入场,ARM却没啥动作。  直到现在,ARM才把重点放在了Armv8.2的CPUISA扩展上,该扩展借助半精度浮点和整数点产品来简化和加速神经网络的专用指令。  除了CPU的改进之外,还看到了G72中机器学习的GPU改进。虽然这两项改进都有所帮助,但想要最大性能和效率,这些改进还不够。  在测试Kirin970的NPU和Qualc

2、omm的DSP时,可以看出,专用架构上运行推理的效率,比在CPU上运行的效率高出一个数量级以上。  正如ARM官方解释的那样,Armv8.2和GPU的改进只是建立机器学习解决方案的第一步,还必须研究对专用解决方案的需求。  ARM也从合作的小伙伴那里感受到了行业的压力,才熬出来ML处理器。  下面简单介绍一下这次发布的两个新的架构:机器学习ML处理器以及OD处理器。  ML处理器,是专门为加速神经网络模型推理所设计的。这种架构比传统的CPU和GPU架构有明显的优势。  在执行机器学习任务时,这款ML处理器可为数据优化内存管理。  这款处理器具有数据可高度重复使用

3、的特点,能最大限度地减少数据的输入和输出,从而实现高性能和高效率。    ML处理器,理论上可在1.5W功率下,有超过4.6TOPs(8位整数)的理论吞吐量,最高可达3TOPs/W。  虽然TOPs值并不能完全体现处理器的性能,不过它对于行业标准化仍然有用。  作为一个完全独立的独立IP(电路功能)模块,ML处理器具有自己的ACE-Lite接口,可集成到SoC中,也可以集成到DynamiQ中。  此外,ARM没有透露ML处理器更多的架构信息。  OD处理器,是针对物体检测的任务进行了优化。尽管ML处理器也能完成相同的任务,但OD处理器可以更快。给单项任务提供专用

4、架构,才能够获得最大效率。    ARM也考虑到了可能会出现OD和ML处理器集成在一起用的情况:OD处理器负责把图像中的目标处理区分割出来,然后把它们传递给ML处理器,进行更细颗粒度的处理。    ARM还提供大量软件,帮助开发人员将他们的神经网络模型应用到不同的NN框架中。从今天开始,这些软件大家可以在ARM开发者网站找到,同时也在Github上提供。    考虑到SoC开发的周期,基于新架构的芯片大概得在2019年年中或年末才能发布。ARM这次,可以说半导体及架构供应商中响应AI趋势比较慢的企业了。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。