一、成果简介
随着金融机构业务不断与互联网深化融合,承载业务的数据中心的规模也在不断扩张,中心间的网络流量增加。此外,虚拟化技术在数据中心的普遍应用,导致中心间的资源互通难度与运维压力不断增加。因此,企业数据中心间网络升级已成为业界普遍关注的重点和研究方向。
为了应对上述问题,金融机构数据中心间的网络方案需要能够适配更好的自动化服务管理能力以提升运营效率,要针对多租户场景实现专线资源复用以降低成本,且要考虑今后新建中心投产后网络的弹性扩容。基于上述背景,中国银联电子支付研究院与信息总中心联合研究,共同提出了基于Segment Routing(以下简称SR)技术的银联跨数据中心网络互联技术方案(以下简称UPMDC),并对其进行了原型实验。
二、成果内容
SR是一种基于标签转发的源路由协议,即由源节点来为应用报文制订转发路径,且转发路径的颗粒度可精细化到链路级别。UPMDC方案采用SR技术,借助其对流量进行链路级别的调度能力,并在此之上叠加了VPN、策略路由等技术,做到了多租户流量逻辑隔离、业务流量识别调控等能力,大大增强了对跨中心网络流量的可控性和灵活性。UPMDC方案设计具体如下。
图1 UPMDC方案拓扑图
首先从整体拓扑来看,方案针对多数据中心场景进行设计,可支持3个甚至更多的数据中心间的网络通信。数据中心间的线路成环,可为跨中心流量提供冗余链路选择。
UPMDC对数据中心间的互联方式也进行了设计,主中心之间以全互联方式连接,最大限度保证主中心业务网络的高可用;分中心就近选择两个主中心进行连接,确保链路成环。
从单中心的结构上看,UPMDC采用了经典的三层架构设计(从内到外依次为CE、PE、P),保证各层设备功能明确,并对数据中心内外的功能进行解耦。各设备的具体功能如下。
※ CE:数据中心核心路由器,为中心内部设备,作为骨干网的业务接入设备,不引入标签转发功能;
※ PE:数据中心骨干边界路由器,为跨中心通信设备,核心节点区域汇聚,标签转发区域头结点,负责VPN相关业务配置;PE与CE之间采用全连接模式,最大限度保证中心内部业务流量的高可用性;
※ P:骨干核心路由器,为跨中心通信设备,负责核心骨干网的高速转发,中间转发节点;P与PE之间采用“口”字形的连接方式,保证调度灵活性的同时对内部流量路径进行规整。
在协议应用上,具体如图2所示。
图2 UPMDC协议应用图
首先在中心内外边界之间,也就是CE与PE连接部分,运行EBGP协议,负责内外之间的路由打通。
在中心外部,我们将协议应用分为三层,具体如下:
※ Underlay层:PE外部接口、P设备所有接口运行OSPF协议,构建广域网底层路由拓扑,承载上层路由协议传输、标签传输;
※ VPN信息传输层:运行MP-BGP协议,传递VPN路由信息;
※ Overlay层:运行SR协议,负责具体业务数据转发。
最后我们对UPMDC方案进行了原型实验和测试。实验场景分为两中心和三中心:两中心场景分别在华为、思科两套设备环境下进行了实验,实验场景如图3所示;三中心的场景在华为设备中进行了实验,实验场景如图4所示。
图3 UPMDC方案两中心原型实验场景
图4 UPMDC方案三中心原型实验场景
随后,我们根据银联实际业务需求,梳理了测试内容,主要对其流量调度、故障链路快速切换、容量、故障收敛等能力进行测试。本次除了通过命令行进行测试外,我们也通过调用netconf接口方式对其相关能力进行验证,结果基本符合方案预期。测试内容如表1所示。
表1 测试内容表
三、成果应用价值
通过本次对UPMDC方案原型的实验和测试,我们可得出以下几点结论:
1.协议精简,便于运维且网络稳定
方案不再需要运行RSVP-TE、LDP等隧道协议,且相对于传统的面向连接的隧道技术,方案采用的SR技术仅在头结点对报文进行标签操作即可任意控制业务路径,中间节点不需要维护路径信息,设备控制层面压力小,在减轻运维压力的同时也增强了网络的稳定性;
2.提高流量路径管控能力
在测试中验证了UPMDC能为流量指定转发路径,路径可精细化到链路级别;并且能够做到基于业务互访特性对流量路径进行调度,极大地提高了跨中心场景中对流量路径的管控能力;
3.增强专线故障应对能力
UPMDC方案提供高效转发路径保护机制,一旦转发路径中有链路出现故障,可在50ms内完成流量到备份路径(备份路径可指定)的快速切换,实现业务通信的快速恢复,增强了故障应对能力,保证业务连续性;
4.支持专线复用,降低成本
UPMDC方案支持承载多租户流量,在物理专线上将不同租户的流量进行逻辑隔离,实现了专线资源的复用,提高资源利用率,降低成本。
本文作者:
电子支付研究院 袁航
信息总中心 申毅
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/283260.html