“互联网+”网络演进方向研究曹怀东

“互联网+”网络演进方向研究曹怀东

天元瑞信通信技术股份有限公司陕西西安710075

摘要:目前的传送网络以语音业务为导向,按照自然行政区域分层构建,采用软硬件一体化的高性能网络设备,满足了语音业务和基本数据业务的需求。随着移动互联网、物联网、云计算等新业务迅速发展,对网络提出了按需服务、自动运维、快速上线新业务等需求,需要重构网络,使之具备以内容和流量为导向,围绕分层的数据中心构建的新网络架构。

关健词:互联网+;NovoNet

1NovoNet的基本架构

NovoNet主要的组件包括TIC(TelecomintegratedCloud)和TAC(Telecomaccesscenter)构成。其中,TIC是指标准化的、微模块构建的、满足电信级要求的关键云基础设施,可以承载各类虚拟化的电信类软件应用;TAC是指实现对各类业务接入的电信接入层和汇聚层网络。核心层TIC:以控制/管理/调度职能为核心,主要承载控制面网元和集中化的媒体面网元、CDN和骨干流量转发;边缘层TIC:面向固网、移动、内容三大媒体面,以终结媒体流功能为主;汇聚TAC:实现接入网的业务流汇聚和收敛功能,并疏导至TIC机房;接入TAC:实现各类客户接入(物理能力受限于传输距离,光纤芯数等);网络重构中,通过新建及将传统电信机房升级为TIC数据中心,组成一张包含核心TIC、边缘TIC的全国性网络,实现电信网的控制面集中和媒体面下沉。数据中心间通过SDN统一实现广域网连接和链路调度。全网端到端,通过统一的协同编排器,实现网络、网元和业务的管理编排调度和能力的对外开放。

2NovoNet对传输网总体要求

2.1基础资源

在机房及配套方面,TIC以DC为核心的网络架构,一方面DC的下沉对现有汇聚机房的要求更高,需要更大的面积,更强供电能力和更多出口方向,以满足边缘TIC的需求,另一方面TAC需要整合当前的接入/普通汇聚机房使之能够满足家宽带宽增长、5G边缘计算、BBU云化的需求。光纤光缆方面,在接入层需要更大芯数的光纤(需求以288芯为主);在综合业务接入区内,应考虑构建微网格满足更加密集的业务接入需求;在DC间的互联路由考虑引入超低损光纤,满足未来超100G传输需求。

2.2带宽及连通度

TIC之间需要full-Mesh互联,在关键节点之间需要直连链路,同时应随之考虑南北向、东西向带宽需求;TAC接入要满足家宽、集客、5G前传/回传的需求,带宽需求大大增加;考虑5G核心网功能下沉,引入MEC网元,接入节点间存在full-mesh业务连接需求,需将网络L3功能下沉。

2.3智能控制与业务调度

目前城域传输网主要通过网管静态配置进行业务开通和维护管理,但NovoNet要求无论TIC互联还是TAC灵活接入,都需要网络提供动态灵活的调度以及智能高效的运维。应考虑引入传送网SDN,利用其接口开放和集中控制的优势,实现网络的智能化升级。

3数据中心组网要求

3.1园区内组网方案

园区内,计算机服务器通过VM实现计算和存储资源虚拟化,VDC承载网实现VM、物理服务器及网关之间的无阻塞交换VDC承载网采用Spine-Leaf架构,保证VDC网内南北向和东西向流量的无阻塞交换SDN控制器实现VDC承载网的管理和控制。在城域内,当同一个VDC跨机房时,可通过光纤直连或借助传输系统提供管道进行距离拉远。

3.2数据中心骨干互联

数据中心的网络可以划分为IDC内网和IDC外网。对于VDC网络方案来说,不仅需要构建高速互联、虚拟化、网络融合的IDC内网,同时需要提供完善的IDC外网服务。对于IDC外网来说,有两个通道:服务发布通道和DC互联通道。通过服务发布通道,可以安全、可靠、灵活接入。通过DC互联通道(DCI),可以拓展网络边界、资源综合利用、迁移无感知、跨数据中心运算体验不下降。

数据中心位置和最终用户的地理隔离,与海量信息和数据的分享需求矛盾,使干线网络带宽提速面临机遇和挑战。IDC中心之间的数据流量,在nx100G的数量级,并且在每年nx80%的在增长。

DCI互联方案,DCI互联主要分松耦合和无耦合方案。松耦合方案,要求DCIPE支持VXLAN-VRF转换,租户网络在PE和GW之间VXLANVNI隔离,扩展性好,租户的underlay网络端到端,通过DCI的L3VPN承载。DC内Vxlan隧道,GW与DCI之间的Vxlan隧道,以及DCIPE上的VRF,这三者的对应关系是1:1:1。跨DC的VM互通也只能通过三层方式,也就是说同一租户的VM必须在同一个DC内部。即不支持跨DC的虚机迁移。无耦合方案,网关GW之间建立VXLAN隧道,相比较无耦合方案,DCIPE不需要感知租户网络路由。只需要建立GW1和GW2之间的VTEPIP可达通道即可。DC1和DC2间需要交互租户的MAC/ARP信息,可以通过控制器或EVPNBGP。DC内Vxlan隧道,GW间的Vxlan隧道,以及DCIPE上的VRF,这三者的对应关系不需要1:1:1。跨DC的VM可以通过三层方式或者二层方式互通,通过二层方式互通时,同一租户的VM可以分布在不同DC内部,即可以实现跨DC的虚机迁移。

DCI可选择的传输方案可以包括以下几大类,Internet(中国移动CMNet)、IP承载网、DCI专用骨干网。现有CMNet网络互联网业务负载重,提供尽力而为的服务,现有IP承载网承载电信业务IP化、政企客户VPN业务,轻载实现用户业务QoS保障。现有两种网络难以支持云业务大容量、低时延、灵活调度、集约化运营等要求,行政区划严格,资源难以整合。

干线数据中心传输方案,SPTN干线网络实现DC互,PTN建设了非常完善的省干和国干网络,相比CMNet和IP承载网,更具备端到端、全程全网的承载能力,具备完善的DCI承载的能力和相应解决方案。通过干线PTN网络承载DCI,相比IP专网承载,具有成本低、效率高、保护等级高、维护方便等优势。

3.3数据中心城域互联

3.3.1DC间裸纤直连

机房内VDC直接互联可以采用裸纤直连的方式。如果机房间距离较远,组网复杂,建议通过传输网络实现DCI互联。

3.3.2SPTN网络实现城域DC互联

通过SPTN互联,将多个DC虚拟为VDC,解决局部资源瓶颈,实现资源共享。DCGW间通过传输直连或SPTN互联,Underlay网络可达。云管理平台自动化部署跨DC的VxLAN隧道,通过SPTN实现DC之间互联,无耦合组网方案只需SPTN支持L3VPN功能,松耦合组网方案需要SPTN同时支持VxLAN功能和L3VPN功能。SPTN规划运维简单,资源可视、可控、可管,业务快速开通,网络流量动态调优。

3.3.3OTN网络实现城域DC互联

通过城域OTN将多个DC互联,虚拟为VDC,解决局部资源瓶颈,实现资源共享。OTN提供物理管道,此场景与DC间裸纤直连相同,只起到拉远传输距离的作用。如果DC数量较多,DC间业务互通复杂,需要传输网络提供L3VPN功能,可以考虑OTN增加L3VPN功能。

参考文献:

[1]吴建平,林嵩,徐恪,刘莹,朱敏.可演进的新一代互联网体系结构研究进展[J].计算机学报,2012,35(06):1094-1108.

标签:;  ;  ;  

“互联网+”网络演进方向研究曹怀东
下载Doc文档

猜你喜欢