双活数据中心方案设计

2017年12月23日讲师:刘通浏览:3111次

原文摘自笔者的《ITIL 2011 服务管理与案例资产详解》一书的部分章节。 通过双活数据中心架构的构建可以保障数据中心现有系统从网络、应用到数据存储无单点故障,保障各业务系统的数据都有冗余保护,从而对于在线业务交易建立多重保护和快速恢复机制。本文封面图是针对单个数据中心双活系统的架构组件图。当然,此双活系统的架构可以分别部署在不同的数据中心,并且通过前置的双活网关或负载均衡设备实现有效的业务交易量在不同数据中心的动态负载,即实现没有严格意义上的灾备中心,每个在线的数据中心都是可以承载独立的业务交易和快速恢复机制。目前我们可以看到中国工商银行在传统银行业的两地三中心的架构基础上已经基本实现双活数据中心的要求。 双活系统的基本框架设计需要考虑从终端网络、应用系统、服务器和数据存储层面实现双活,这样才能保障业务整体的双活。各个层面的双活需要通过以下技术和条件来保障: 网络层面 终端接入网络的双活是业务系统双活的保障。应该要保障业务系统终端到两个以上交换机之间都有独立的网络可以连接。与此同时,核心交换网络的双活是业务双活的基础,两台核心交换机之间需要采用互为冗余的架构,并且可以自动切换。如果两台核心交换机分别部署在两个数据中心,可以考虑网络二层的打通,即一个VLAN可以横跨两个数据中心,也就是目前比较流行的 大二层互联技术。思科的N7K交换机就有这个功能模块,俗称Overlay Transport Virtualization(OTV)技术。大二层互联技术的好处是虚拟机可以在不间断业务的情况下在数据中心之间迁移,也同时解决一个数据中心由于安全隔离的需要设置的VLAN可能达到网络交换设备允许上限的问题。 应用层面 应用双活可通过负载均衡设备和应用集群来实现,当然可以考虑跨两个数据中心的应用访问的负载均衡技术来实现。应用的心跳线也可以通过大二层网络互联技术来具体实现。IBM的GPFS和Symantec等解决方案可以支持应用数据副本的保护,有效的保证了应用集群在故障发生时的及时切换和恢复。 服务器层面 采用服务器的高可用集群技术(如IBM Power HACMP等)或者数据库的高可用技术(如Oracle RAC等)来保障服务器在单台故障时候可以切换到另外一台服务器。实现双服务器同时工作,单台设备故障时自动切换。 存储层面 存储、交换机和服务器可以通过专门的SAN存储网络互联,并且做到冗余的组网设置。比如每个数据中心都设有两台互相独立的SAN交换机是必要的,SAN交换机之间的切换可以通过存储多路径软件来实现 。而存储系统的双活可以体现在两台不同的存储设备之间实现双份的数据镜像,保障彼此存储数据的一致性和实现自动故障切换的可能。具体可以采用基于服务器操作系统卷管理软件的存储镜像技术(如IBM AIX操作系统的LVM镜像、Oracle数据库ASM卷管理技术、赛门铁克的Storage Fudation等)。该技术通过操作系统往两个存储设备同时写数据来保障数据一致性,并且可以任意读取任何一台的数据。采用IBM V7000存储进行现有存储的虚拟化整合,通过SSD盘优化性能,快照功能提供快速逻辑备份恢复,备份时间为秒级,恢复时间为分钟级。另外,存储系统之间的镜像复制(MetroMirror)技术也可以保障双存储数据冗余。对存储系统的逻辑卷进行有效的快照(FlashCopy)也是系统加速恢复的有效办法。IBM给中国工商银行提供的基于数据库和存储的集群读写的双活解决方案,并在2014年已经基本上线运行。不过如果两个数据库中心之间的距离比较远,可能会有交易延迟。大概每10公里的光纤round trip的交易延迟为0.01毫秒,则100公里为0.1毫秒,所以建议两个数据中心的距离最好小于100公里。另外,适合读的比例比较高,写的比例比较低一些的应用做双活,比如读占70%,写占30%。
分享 0

您已经赞过了!