欢迎来到天天文库
浏览记录
ID:20263593
大小:218.50 KB
页数:5页
时间:2018-10-11
《异地备份容灾方案》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、备份优化及异地备份方案异地数据备份设计方案1.需求分析根据省厅目前环境情况,用户本地中心机房关键业务系统均通过虚拟化实现了应用的高可用,后端数据采用爱数存储网关和存储实现了数据的高可用。对于中心机房的关键数据库也通过备份软件进行了备份。省厅中心机房本地的备份和容灾措施比较完善。通过目前环境分析如下:Ø用户的虚拟化服务器与容灾网关的链路为IPSAN,采用的是千兆电口连接,用户目前8台服务器组建的虚拟化平台通过此连接方式,在并发量大时,带宽会成为整个网络的瓶颈。建议后期将此部分升级为FCSAN架构。Ø用户本地的网站类、办公系统类服务器前期未纳入备份,考虑到相关业务信息的重要
2、性,建议将网站等业务服务器的重要数据进行备份;Ø用户虚拟化平台的虚拟机前期未进行备份,对于部分重要的虚拟化系统,建议进行定期备份,以防系统因逻辑故障损坏时可以快速回复。Ø为了进一步加强数据的安全措施,对本地中心机房的重要数据,进行异地数据备份,确保本地机房出现大面积灾难事故时,可以通过异地备份的数据进行恢复。通过以上分析,建议省厅通过以下几个方面进行系统升级,增强系统稳定行和数据安全,使用户数据不丢失,业务在出现故障是可以快速恢复,从根本上保障用户系统和数据安全,提高用户系统使用体验。Ø改造数据存储系统,将IPSAN升级到FCSAN,通过购买SAN交换机、HBA卡和光纤
3、跳线等完成升级,提升数据带宽。备份容灾应用系统高可用备份优化及异地备份方案Ø通过增加数据备份授权,将网站服务器、部分虚拟化系统备份到存储中,确保数据和系统的安全;Ø通过在异地备份中心部署一台备份存储柜,将本地中心备份的重要数据异地备份到异地备份容灾机房,进一步提升数据安全。1.方案设计根据省厅容灾方案的建设目标,对用户现有的业务环境进行全面评估,并综合考虑用户数据量大小及对RPO、RTO、DRO指标的要求后,在不改变原有网络环境的前提下,采用业务系统应用容灾,重要用户PC定时备份的方案。方案部署基于爱数备份存储柜VX1200实现,环境部署如下:2.方案说明根据上述需求分
4、析,我们建议用户在异地机房配置一台爱数备份存储柜VX1200。通过介质同步代理,将本地中心机房的数据备份到异地机房的备份存储柜中。备份容灾应用系统高可用备份优化及异地备份方案如上图所示:在中心机房增加2台SAN交换机,给虚拟化平台的服务器增加HBA卡,将原有的IPSAN升级到FCSAN。全面提升数据存储带宽,提升系统的整体性能。在网站业务服务器和虚拟化管理服务器上部署爱数备份软件客户端,通过新增加的授权实现对网站数据和虚拟机的备份。通过D2D2R介质同步代理,将本地中心机房的数据备份到异地机房,当中心机房出现灾难事故时,可以通过异地备份的数据进行恢复。1.方案配置根据用
5、户需求,详细配置如下:序号模块功能简介VX1200配置1VX1200主模块12盘位,机架2U,SATA2/SAS磁盘,4千兆,冗电,可扩展22TBsata磁盘2TB企业级Sata硬盘3D2D2R介质同步代理用于介质服务器之间的备份(定时或实时)数据和应用容灾数据进行实时或定时同步(本地或异地)4SQLServer定时备份代理用于SQLServer数据库定时备份与恢复;包括该Windows服务器文件备份5VMwarevSphere定时备份代理基于vStorage方式,支持对VMwarevSphere虚拟化环境进行定时备份与恢复6重复数据删除代理用于备份容灾时,实现源端去重
6、备份,按介质服务器数量授权7打开文件备份选件用于Windows服务器所有代理的打开文件备份其它1存储虚拟化FC套件代理用于支持虚拟化FC环境下的存储空间(GX2000使用)2高级支持服务提供7*24小时电话及远程技术支持服务,巡检服务,以及原厂工程师上门服务,为客户提供更高质量、更专业的支持服务。2.爱数备份存储柜优势ü一体化设计。备份容灾应用系统高可用备份优化及异地备份方案软硬件一体的爱数备份存储柜,集成诸多功能满足不同应用,它通过All-in-One-Web集成管理所有功能,支持数据集中备份、应用系统容灾、虚拟化服务器整合、NAS共享存储和SAN集中存储五大功能,并
7、集DAS、NAS、IPSAN和FCSAN等众多存储架构为一体。ü全面优化的数据备份性能基于性能领先的FAST引擎,爱数备份存储柜的数据备份和应用容灾模块性能进一步提升,解决了备份时间太久、恢复时间过长的困扰,有效减少备份窗口。集成的性能加速技术应用大容量缓存机制和顺序化访问磁盘设备技术后,整体备份和恢复性能可进一步提升30%以上,即使采用SATA磁盘也可媲美SAS磁盘性能。ü优化容灾性能的源端重复数据删除重复数据删除是一种数据压缩技术,基于哈希算法,通过本地分块的方式,进行指纹对比后识别数据源中的重复数据块,只对唯一的数据块进行传输。爱数
此文档下载收益归作者所有