《思科高性能计算》doc版

《思科高性能计算》doc版

ID:33163850

大小:1.57 MB

页数:21页

时间:2019-02-21

《思科高性能计算》doc版_第1页
《思科高性能计算》doc版_第2页
《思科高性能计算》doc版_第3页
《思科高性能计算》doc版_第4页
《思科高性能计算》doc版_第5页
资源描述:

《《思科高性能计算》doc版》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、思科(Cisco)基于万兆以太网的高性能计算解决方案V1.0思科系统(中国)网络技术有限公司212012/1/5目录目录2一、前言31.1概述31.2用户方案需求分析3二、思科基于万兆以太网的HPC解决方案特性分析62.1思科HPC方案体系结构62.2思科基于万兆以太网的HPC解决方案详解7三、思科基于万兆以太网的HPC解决方案性能分析11四、思科基于万兆以太网的HPC解决方案典型配置15五、结论16参考资料1721一、前言1.1概述高性能计算是能够突破性能极限的计算,单个高端工作站不能满足其需求的计算;

2、需要通过专门的程序优化最大限度提高系统的I/O、计算和数据传送性能的计算。高性能计算的一个最典型的趋势就是将多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来处理大型计算问题。这通常被称为高性能计算集群。这些系统的进一步普及要归功于以下几个方面:·商业化系统的计算能力呈指数增长;·连接节点的商用技术发展迅速,现已能实现高速节点间的无瓶颈通信;·课支持高性能集群并行计算特性的软件开发工作已取得很大进展。可见,在这种应用环境中,连接技术和计算能力是非常重要的因素,本方案将重点讨论思科在高性能计算应用

3、中架构设计方案。1.2用户方案需求分析1.2.1高性能计算需求分析传统的高性能计算由四大部分组成:-计算节点及计算网络-I/O节点及存储网络-专用文件系统及存储系统-管理系统及管理网络一般来说,用户对HPC的具体需求如下:典型的HPC用户分为三种类型:交互密集型、I/O密集型和分布式单机计算类。21对这些应用类型而言,其网络都是由四张网组成的:计算网:I/O网:存储网:管理网,其中最重要的就是计算网和I/O网。所以在形成节点间连接网络的技术发展也出现了两种主要的技术:1、InfiniBand技术:原先的H

4、PC网络技术,沿用至今。优点:低延迟、高带宽……·弱点:市场容量相当小、生态环境差、发展前景不明……·趋势:很多厂家向RCoE->DCB转型·[就是向CiscoNexus的数据中心以太网转型]2、支持无损的万兆以太网技术:新兴的HPC网络技术,因为支持了不丢包的传输技术,所以可以很好的兼容原来的Infiniband-MPI类型的应用……优点:支持FCoE网络融合、是HPC网络发展方向(会把Infiniband融合,消化)、延迟和带宽都非常接近主流的Infiniband……Cisco目前在这个领域上是走得最

5、快的主流厂商。21在传统HPC应用中,各组成部分对网络和计算性能的需求各有不同:1.HPC计算网络:主要负责Process之间的通讯·松耦合&紧耦合=>指Process之间的交互频度。某些特别的松耦合应用甚至在Process之间没有交互流量,这些用户是对网络不敏感的·用户关心的是瓶颈在I/O上的HPC应用场景[包括带宽&延迟]·如果HPC应用是绝对的本地计算[那么重点在CPU/Core/GPU/Memory速度&大小……]因此,首先首要考虑如何提高I/O传输时延=>Latency随着I/O时延的降低,处理

6、器就能越快地摆脱等待的状态,CPU利用率随之得到提高,其最直接的证明就是多CPUinter-connect的超级计算机系统。某些HPC应用甚至会用Multicast来同步数据→L2MulticastLatency延迟会从/协议栈/网卡-IO/线路/设备转发/拓扑/网络中拥塞的队列等多处引入,低延迟网络方案有Infiniband或10GEwLowLatency或者RDMAoverConvergedEthernet(RoCE)可选,而必须是DCB的网络,才能支持RoCE这些网络技术的比较如下所示:-带TCP卸

7、载功能的万兆以太网技术与InfiniBand技术相比较,如今无论是从带宽还是延迟方21面,10GE万兆以太网都完全不逊色与IB技术:-RoCE技术与InfiniBand技术比较,基于不丢包的10GE万兆以太网的RoCE技术从性能和延迟方面都与IB非常接近了。21由此,我们可以认为在大部分的HPC应用中,支持不丢包的数据中心以太网10GE万兆以太网技术将完全能满足HPC应用对网络性能和延迟的要求,而且更能提高其网络的通用性和经济性。1.HPC计算节点:·主要考虑的是节点内的计算能力,将尽可能多的[Proce

8、ss/Core]放在一个服务器内,Core之间的交互可以走更高速的shareL2cache,最差也是FSB→Memory。CPU之间的交互可以通过Memory(DRAM);延迟更低、带宽更高、不占外部I/O;明显Core数量多,会有更多的优势。·对单一服务器而言,一般一个PC服务器,4个CPU是SMP架构下性能较好的数量。单一服务器内,需考虑操作系统对Core/CPU数量的支持能力;一般Core&Process是一个量级的;出

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。