通用处理器的高带宽访存流水线及研究

通用处理器的高带宽访存流水线及研究

ID:34967809

大小:309.00 KB

页数:14页

时间:2019-03-15

通用处理器的高带宽访存流水线及研究_第1页
通用处理器的高带宽访存流水线及研究_第2页
通用处理器的高带宽访存流水线及研究_第3页
通用处理器的高带宽访存流水线及研究_第4页
通用处理器的高带宽访存流水线及研究_第5页
资源描述:

《通用处理器的高带宽访存流水线及研究》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、...页眉通用处理器的高带宽访存流水线研究张浩范东睿林伟钱学海龙国平(中国科学院计算技术研究所北京100080)摘要:存储器访问速度的发展远远跟不上处理器运算速度的发展,日益严峻的访存速度问题严重制约了处理器速度的进一步发展。降低load-to-use延迟是提高处理器访存性能的关键,在其他条件确定的情况下,增加访存通路的带宽是降低load-to-use延迟的最有效途径,但增加带宽意味着增加访存通路的硬件逻辑复杂度,势必会增加访存通路的功耗。本文的工作立足于分析程序固有的访存特性,探索高带宽访存流水线的设计和优化空间,分析程序访存行为的规律性,并根据这些规律性给出

2、高带宽访存流水线的低复杂度、低延迟、低功耗解决方案。本文的工作大大简化了高带宽访存流水线的设计,降低了关键路径的时延和功耗,被用于指导Godsonx处理器的访存设计。在处理器整体面积增加1.7%的情况下,将访存流水线的带宽提高了一倍,处理器的整体性能平均提高了8.6%。关键字:高带宽、访存流水、高速缓存、TLBHigh-BandwidthMemoryAccessingPipelineofGeneralPurposeProcessorZhangHao,FanDongrui,LinWei,QianXuehai,LongGuoping(InstituteofCompu

3、tingTechnology,ChineseAcademyofSciences,Beijing,100080)[Abstract]:Thereisanear-exponentialincreaseinprocessorspeedandmemorycapacity.However,memorylatencieshavenotimprovedasdramatically,andaccesstimesareincreasinglylimitingsystemperformance.Lowload-to-uselatencyisakeytoapproachhighmem

4、oryperformance,andincreasingthebandwidthofmemorypipelinealwaysworks.Buthighbandwidthbringsmorecomplexityandneedsmorepower.Ourworkisbasedontheanalysisoftheapplications,andweintendtofindtheheadroomoftheperformanceofthememorypipeline.Wefindsomeusefulcharactersofmemoryoperationsandwegive

5、anoptimizeddesignofhighbandwidthmemorypipeline,whichhaslowcomplexity,lowlatencyandlowpower.OurdecisionsareusedtoinstructthedesignGodsonxprocessor,althoughthebandwidthofmemoryaccessisdoubledandtheperformanceisincreasedby8.6%,theextraareaisonly1.7%oftheoriginaldesign.[KeyWords]:HighBan

6、dwidth,MemoryPipeline,Cache,TLB1.引言根据摩尔定律,微处理器的速度每十年增长十倍以上,而常用存储器(DRAM)的访存时间却只是缩短到原来的一半。因此,相对于处理器来说,访存延迟以每十年5倍的速度增长。从1986年到2000年,处理器速度的年增长率为55%,而存储器速度的年增长率仅为10%,按照这种速度推算可知,处理器与存储器以及通信性能上的差距不断增加,造成了系统结构的失衡,形成了阻碍性能提升的"内存墙"[1,2]。日益严峻的访存速度问题正在成为影响处理器性能的瓶颈,严重制约了处理器速度的进一步发展。....页脚...页眉降低lo

7、ad-to-use延迟是提高处理器访存性能的关键,高速缓存cache的引入就是为了缓解这一问题[3,4],通过位于处理器主流水线和存储器之间的这层存储逻辑,处理器可以在大多数情况下避免直接访问内存,提高了访存的性能,延缓了“内存墙”问题。目前几乎所有的主流通用处理器都在流水线中包含高速缓存逻辑,并且高速缓存逻辑往往被作为独立的流水级。在其他条件确定的情况下,增加访存通路的带宽是降低load-to-use延迟的最有效途径,但增加带宽意味着增加访存通路的逻辑复杂度,并且访存通路上的RAM逻辑都需要提供双端口。这些复杂度上的增加势必会增加访存通路的时延和功耗。本文的工

8、作立足于分析程序固有的访

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。