双城数据中心双机房建设解决方案

上传人:仙*** 文档编号:36025106 上传时间:2021-10-29 格式:DOC 页数:13 大小:1.02MB
返回 下载 相关 举报
双城数据中心双机房建设解决方案_第1页
第1页 / 共13页
双城数据中心双机房建设解决方案_第2页
第2页 / 共13页
双城数据中心双机房建设解决方案_第3页
第3页 / 共13页
点击查看更多>>
资源描述
双城数据中心双机房建设解决方案目 录第 1 章 概述 .21.1 数据集中阶段的数据中心建设.21.1.1 传统架构存在的问题 .21.1.2 H3C 全融合虚拟化架构.31.2 双活数据中心建设目标.3第 2 章 双活数据中心业务部署 .52.1 基于 IP 的业务部署模式.52.1.1 模式简介 .52.1.2 企业数据中心 IP 业务典型部署 .52.2 基于 DNS 的业务部署模式.72.2.1 DNS 技术简介.72.2.2 企业数据中心 DNS 典型部署 .82.2.3 GSLB 与 SLB .10第 3 章 某双活数据中心设计 .133.1 某网络结构.133.2 某双活数据中心部署.14第 1 章 概述为进一步推进某信息化建设,以信息化推动某业务工作的改革与发展,某在科技楼建有核心机房和一个小的本地容灾备份中心,现在在干保楼又新建了容灾网,实现同城双中心布局。为提高业务可靠性与双中心设备资源的利用率,某拟建同城双活数据中心,达到双中心同时对外提供同种业务的目标,同时实现业务切换无感知、计算资源灵活调度的功能目标。1.1 数据集中阶段的数据中心建设1.1.1 传统架构存在的问题传统数据中心网络采用传统以太网技术构建,随着各类业务应用对 IT 需求的深入发展,业务部门对资源的需求正以几何级数增长,传统的 IT 基础架构方式给管理员和未来业务的扩展带来巨大挑战。具体而言存在如下问题:维护管理难:在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容易出现漏洞和差错。比如数据中心新增加一个业务类型,需要调整新的应用访问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添置新的防火墙设备,要考虑如何以及何处接入,有没有相应的接口,如何跳线,以及随之而来的 VLAN、路由等等,如果网络中还有诸如地址转换、7 层交换等等服务与之相关联,那将是非常繁杂的任务。当这样的 IT资源需求在短期内累积,将极易在使得系统维护的质量和稳定性下降,同时反过来减慢新业务的部署,进而阻碍公司业务的推进和发展。资源利用率低:传统架构方式对底层资源的投入与在上层业务所收到的效果很难得到同比发展,最普遍的现象就是忙的设备不堪重负,闲的设备资源储备过多,二者相互之间又无法借用和共用。这是由于对底层网络建设是以功能单元为中心进行建设的,并不考虑上层业务对底层资源调用的优化,这使得对网络的投入往往无法取得同样的业务应用效果的改善,反而浪费了较多的资源和维护成本。服务策略不一致:传统架构最严重的问题是这种以孤立的设备功能为中心的设计思路无法真正从整个系统角度制订统一的服务策略,比如安全策略、高可用性策略、业务优化策略等等,造成跨平台策略的不一致性,从而难以将所投入的产品能力形成合力为上层业务提供强大的服务支撑。1.1.2 H3C 全融合虚拟化架构H3C 提供横向虚拟化、1 虚多的设备虚拟化以及纵向虚拟化的全融合虚拟化方案。通过建设网络资源池,不仅简化了网络部署,而且提高了网络设备的利用率,是业界最具优势的数据中心网络解决方案。1.2 双活数据中心建设目标某双活数据中心应实现如下设计目标:简化管理:同城双中心业务统一部署,统一管理,使上层业务的变更作用于物理设施的复杂度降低,能够最低限度的减少了物理资源的直接调度,使维护管理的难度和成本大大降低。高效复用:同城双中心网络资源与计算资源高效利用,减少设备主备部署,提高网络设备利用率。物理服务器部署虚拟机,实现计算资源高度复用,提高计算资源利用率。策略一致:降低具体设备个体的策略复杂性,最大程度的在设备层面以上建立统一、抽象的服务,每一个被充分抽象的服务都按找上层调用的目标进行统一的规范和策略化,这样整个 IT 将可以达到理想的服务规则和策略的一致性。无缝切换:同城双中心同时对外提供同一种业务,当某中心业务失效,要实现应用的无缝切换,在短时间内实现业务的快速恢复。资源调度: 同城双中心二层互联,计算资源可以在双中心之间灵活迁移,快速扩展,统一调度。第 2 章 双活数据中心业务部署2.1 基于 IP 的业务部署模式2.1.1 模式简介基于 IP 发布的业务一般用于企业内部管理,业务运营。客户直接通过访问某个IP 地址来实现端到端通信。由标准的路由协议以及健康路由注入来实现 IP 地址的自动发布。2.1.2 企业数据中心 IP 业务典型部署两个数据中心的 SLB 跨中心部署 HA Cluster,服务器跨数据中心部署负载均衡集群。同一个业务的在两个数据中心的业务 IP 不同,分别为 VIP-A 与 VIP-B。1、部署时 External self IP 和业务 IP 可以直接使用相同的网段,因为用户访问业务时通过主机路由进行选路,而 HA Cluster 中只有为 Active 的 SLB 才会发布主机路由。2、对于同一业务,数据中心 A 使用 VIP-A 对外提供服务,数据中心 B 使用 VIP-B 对外提供服务,实现业务在两个数据中心之间的负载均衡,当数据中心 A 发生故障时,Traffic group-1 将进行 HA 切换,VIP-A 的主机路由将由数据中心 B 的 SLB 发布。如果数据中心 A 的 SLB 发生故障,如图所示。由于两个数据中心的 SLB 跨中心部署 HA Cluster,服务器跨数据中心部署负载均衡集群,所以数据中心 B 的 SLB 在一个心跳周期结束之后,感知到数据中心 A 的SLB 无响应,数据中心 A 的 SLB 发生故障,Traffic Group-1 将发生 HA 切换,此时用户访问 VIP-A 时将直接到达数据中心 B,由 SLB 处理后发送至数据中心 A 的服务器。如果当数据中心 A 的服务器发生故障,如图所示。数据中心 SLB 探测到本中心的服务器都故障,则触发 Traffic Group-1 将发生HA 切换,此时用户访问 VIP-A 时将直接到达数据中心 B,由数据中心 B 的服务器进行处理,因为此时数据中心 A 的服务器已无处理能力。2.2 基于 DNS 的业务部署模式2.2.1 DNS 技术简介2.2.2 企业数据中心 DNS 典型部署 数据中心 A 和数据中心 B 分别使用 VIP-A 和 VIP-B 对外提供服务,当用户请求域名 时,GSLB 根据设定的权值给不同用户返回 VIP-A 或 VIP-B。SLB 实现 HA Cluster 后,可以根据将不同的业务 IP 划分到不同的 Traffic Group,HA 的切换是基于 Traffic Group 实现的,以 VIP-A 对应的 Traffic Group-1为例。Traffic Group-1 的缺省设备是数据中心 A 中的 SLB,VIP-A 在该 SLB 上生效,当 Traffic Group-1 发生 HA 切换后,VIP-A 将在数据中心 B 中的 SLB 上生效。SLB 对数据中心 A 和数据中心 B 内的服务器都进行健康检查,负载分担算法设置本数据中心内的优先级较高,当有业务需要处理时,会优先选择本数据中心的服务器进行处理,当本数据中心的服务器都发生故障后,将由远端数据中心的服务器处理业务,同时触发 Traffic Group 的 HA 切换。GSLB 会对 LTM 的健康状态进行检查,当发现 LTM 故障后,将触发 DNS 的切换,从而实现全局路径的优化。如此,即可将客户端访问数据中心的流量实现有效的负载分担,使双中心的利用率最高。如果数据中心 A 的 SLB 故障后,如图所示。因为两个数据中心的 SLB 跨中心部署 HA Cluster,服务器跨数据中心部署负载均衡集群。当数据中心 A 的 SLB 发生故障时,Traffic Group-1 将发生 HA 切换,VIP-A 在数据中心 B 的 SLB 上生效,用户访问服务器的流量将经过二层 LAN 扩展网络到达数据中心 B 的 SLB,经过处理后再发送至数据中心 A 中的服务器进行处理。因此,实现故障切换过程客户无感知。当数据中心 A 的 SLB 发生故障后,GSLB 还是会探测本中心的 SLB,在探测超时后对故障进行感知,触发 DNS 切换,此时用户访问 时,该域名将被解析为 VIP-B,解决业务流量次优路径的问题。如果数据中心 A 的 SLB 故障后,如图所示。当数据中心 A 的服务器都发生故障时,Traffic Group-1 将发生 HA 切换,VIP-A 在数据中心 B 的 SLB 上生效,用户访问服务器的流量将经过二层 LAN 扩展网络到达数据中心 B 的 SLB,服务器返回的流量经过二层 LAN 经过二层 LAN 扩展网络到达数据中心 A,实现业务切换无流量丢失。2.2.3 GSLB 与 SLBGSLB 即全局负载均衡设备,又名 GTM,如下图所示。GSLB 的工作原理,如下图所示。GSLB 能够完成 DNS 解析请求的负载均衡、服务器状态监控以及用户访问路径优化,解决跨中心业务的协同问题,提高多中心资源利用效率,实现全局负载均衡。 SLB 即服务器负载均衡设备,又名 LTM,主要用来完成本地流量的管理,实现服务器集群的负载分担,同时通过多种算法探测服务器健康状态,给业务切换提供依据与触发条件。 如下图所示。LTM 设备能够支持四台跨数据中心集群,实现 SLB 的 LOCAL CLUSTER 的功能,提高了 LTM 本身的稳定性与可靠性,同时实现多业务的负载分担。第 3 章 某双活数据中心设计3.1 某网络结构3.2 某双活数据中心部署 某双活数据中心关键在于中心 A 和中心 B 各部署两台 S12500 核心交换机。核心交换机部署横向虚拟化 IRF,一虚多 MDC 以及云间互联 EVI,配合 GTM 和 LTM,实现应用级容灾。 部署过程如下: 1.双中心各两台 S12508 先横向虚拟化 IRF,将两台或多台物理设备虚拟成一台逻辑设备,逻辑上成为一个网元。如图所示。 横向虚拟化的优势 IRF: 统一的管理:由其中某物理设备的某控制单元作为整组设备的控制单元 统一的板卡和端口命名:各个设备加机框 ID 的前缀 统一的 L2/L3、IPv4/IPv6、MPLS 等转发表 可以实现跨设备的链路聚合 2.在横向虚拟化的基础之上,再部署一虚多的设备虚拟化技术MDC(Multitenant Device Context),可以实现将一台物理网络设备通过软件虚拟化成多台逻辑网络设备。也就是说通过软、硬件虚拟化的配合,MDC 逻辑设备具有完全的设备功能,有独立的软件环境和数据,有独立的硬件资源。甚至可以像一台物理设备一样单独重启,而不影响物理设备上其他 MDC 的正常运行。 如图所示。 在 MDC1 所属的板卡上可以部署各个业务的业务网关,在 MDC2 上部署 EVI 特性,实现双中心之间的二层互通,优化二层网络质量,防止单中心故障域扩散到多中心。双中心之间的光纤链路保持,可以提高二层互联的传输保障。3.两个数据中心部署 LTM, 可以实现四台 LTM 跨中心部署可集群,可以保证虚拟机迁移过程中业务的不中断。数据中心之间通过 EVI 隧道建立二层 LAN 扩展网络,LTM 经过二层 LAN 扩展网络做 HA Cluster,每个数据中心使用 LTM 构建服务器的负载均衡集群。两个数据中心提供相同业务,数据中心 A 中的集群的业务 IP 使用 External VIP-A,两个数据中心的 LTM 共享该地址,其中数据中心 A 的 LTM 为缺省设备,将发布VIP_A 的主机路由,当该 LTM 故障后,数据中心 B 的 LTM 上配置的 External VIP-A 立即生效,将发布 VIP_A 的主机路由,同时数据中心 A 的 LTM 撤销 VIP_A 的主机路由,以实现业务在数据中心之间的切换。每个数据中心的 LTM 同时对两个数据中心的服务器进行探测,通过负载均衡算法优选本数据中心内的服务器,当本数据中心内的服务器都故障时,选择远端数据中心的服务器提供服务。数据中心 B 中的集群的公网 IP 使用 External VIP-B,采用类似的方式部署,此处不再赘述。4. 两个数据中心部署 GTM,GTM 提供对 DNS 的解析,同时 GTM 对 LTM 的状态进行健康检查,当 GTM 感知到数据中心 A 的 LTM 发生故障时,将进行 DNS 切换,对于新的 DNS 请求,GTM 将引导客户直接访问数据中心 B。同时,GTM 支持基于 VS 的负载均衡,即多个 VIP 提供同一服务,对应一个域名时,可以在多个 VIP 之间负载分担。
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 压缩资料 > 基础医学


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!