BT

如何利用碎片时间提升技术认知与能力? 点击获取答案

SDN混合云网络实践

| 作者 邵俊岭 关注 0 他的粉丝 发布于 2017年9月11日. 估计阅读时间: 15 分钟 | QCon上海2018 关注大数据平台技术选型、搭建、系统迁移和优化的经验。

背景介绍

如今,大数据、移动互联网的兴起,对信息技术和通信技术的基础架构都提出了更高的要求。需要能提供随需而变、按需供给、灵活稳定的服务。信息产业和通信产业也进入共同发展的时代,SDN 作为跨界技术应运而生。

提起 SDN,也需要聊下云计算,云计算把计算、存储、网络等资源变成 IT 服务,用户可随需应变,便捷地从池中获取资源,而这些资源可快速供应、交付,最大程度减少用户的资源管理成本。SDN 可以为云计算的管理平台提供抽象的 API 接口,确保各种网络资源的调用,提升数据的高效运转。

可以说,SDN 的迅猛发展为信息产品和通信产品带来了巨大的变化。但是,对 SDN 技术的定义,迄今未达成共识。如今 SDN 门派各立,下文首先介绍 SDN 主流的四大派系,然后阐述可实践的 SDN 网路架构的特点,并提供该网络架构下的混合云案例。

SDN 主流四大派系

A 派系为 ONF(Open Networking Foundatin,开放网络基金会)

ONF 致力于 SDN 的发展和标准化,是当前业界最活跃、规模最大的 SDN 标准组织。其主要参与者包括雅虎、Google、德国电信、Facebook、微软、Verizon 等。该派系是对于 SDN 比较理想的状态模型规范。ONF 提出的 SDN 的典型架构分为三层,分别如下:

  1. 应用层:包含各种不同的业务和应用。

  2. 中间控制层:主要负责处理数据平台资源的编排、维护网络拓扑和状态信息。

  3. 基础设施层接口:负责处理数据、转发和状态收集。

除了上述三个层次之外,控制层与基础设施层之间的接口和应用层与控制层之间的接口也是 SDN 架构中的两个重要组成部分。按照接口与控制层的位置关系,前者通常被称作南向接口,后者则被称作北向接口。

南向接口:基础设施层接口与控制层的接口为 OpenFlow 标准;而北向接口没有定义。

因此,理想化的新一代网络,完全从控制层与数据层全面切割。以后,硬件是什么已经没有关系了。

B 派系由 ODL(OpenDaylight)在思科、IBM 等设备厂商推动下成立。目前主流的硬件厂商如华为、H3C ZTE、DELL 等都有参与进去。

OpenDaylight 是一套以社区为主导的开源框架,旨在推动创新实施以及软件定义网络(简称 SDN)透明化。面对 SDN 型网络,大家需要合适的工具帮助自己管理基础设施,这正是 OpenDaylight 的专长。

作为项目核心,OpenDaylight 拥有一套模块化、可插拔且极为灵活的控制器,这使其能够被部署在任何支持 Java 的平台之上。这款控制器中还包含一套模块合集,能够执行需要快速完成的网络任务。

OpenDaylight 属于设备供应商产品变化联盟。关注如何在新一代的网络来临之前把控先进,适应新业务带来的对设备供应商的需求。

C 派系:ETSI

ETSI 是运营商级别的联盟,主要是为了适应产业的变化。核心目的是加速 NFV 的产业进程和落地应用。成员包括 AT&T、英国电信、德国电信、Orange、Verizon、中国移动等。

D 派系:IETF(Internet Engineering Task Force 互联网络工程任务组)

这是市场上大家经常会用来与A派进行类比的一个派系。

IETF 的核心:以软件驱动网络(Software Driven Network)为出发点研究 SDN,代表的是传统网络厂商的利益,主要聚焦于 SDN 相关功能化和技术如何在网络中实现的细节。

主要解决现有的网络设备和现有的网络设备基础中,如何 平滑演进 至集中控制器的 SDN 网络。

另外,大家也关注一下软件定义网络 (SDN)和软件驱动网络(Software Driven Network)的区别:从可实践性的角度,软件驱动网络(Software Driven Network)是比较可以推进实践的。

举一个简单的例子:

(点击放大图像)

从网络 API 和实用 API 中对于设备、网元控制器、SDN 控制等进行了逻辑区别。对于目前的设备尽量不改变其状态。通过网元控制器和 SDN 控制器,把网络的数据转发功能和控制管理功能进行区分。

除以上四大派系之外,SDN 的其他的派系还包括 3GPP、BBF、CCSA、ONOS 等。这些可以理解为单一行业或场景应用的派系。

产业网络需求

无论是 SDN 也好,还是新的网络技术,目前的产业对于网络的要求是什么样子的呢?

通过调研 100 多个直接用户,进行了如下的归纳。

  1. 用户自主服务。像用自来水一样使用网络,尤其是广域网网络。

  2. 运维自动化、可视化。

  3. 需要具备统一的私密性要求。

  4. 按需分配、弹性扩充。

  5. 统一的平台管理,可以对现有的数据中心资源、企业资源、云服务商资源统一进行管理、监控。

我的团队对可实践的 SDN 的网络进行了科研型地分析,融合上述主流派系的优势,提出了如下可实践性的 SDN 网络架构。

(点击放大图像)

利用现有网络改造为 SDN 网络:在所有的接入层、汇聚层与核心层的设备完全不做任何改变。

通过在现有设备接入 SDN 控制器服务器的方式:对于同一二层网络内的设备进行网络虚拟化。

在不改变现有硬件的情况下,利用 Netconf 和已有的设备接口,通过 XML 网络实现 SDN 管理。服务器的作用就是为了实现网络的 SDN 管理。

骨干网(汇聚)采用可编程控制 MPLS (Netconf),所有的设备包含光设备都是可管理设备。方便统一进行管理、监控。

接入网 OPENFLOW(狭义的 SDN) 的编程来进行规范网络。

整体的网络架构具体特性如下:

  • 冗余性:全局网络物理链路层多线路冗余,POP 节点采用双设备冗余,POP 点的机房采用电力双冗余。

  • 可靠性:整体网络数据采用 MPLS VPN 技术,通过 VPLS 将二层协议帧封装后在 PW 上传输、交换,使广域范围内多个局域网在数据链路层面被整合为一张网络,向用户提供虚拟的以太网服务。

  • 安全性:通过 VPLS 的方式,通 ID 标识来确保网络唯一通信。

  • 兼容性:整体 CXP 平台不改变客户的任何网络,对于客户的网络架构不做任何改变,可以无缝兼容任何网络形式。

(点击放大图像)

核心网络采用 SDN 网络云服务商(阿里云、腾讯云、青山云)等在 NNI 层对接。客户在接入网络中,可以采用 VPN、运营商专线、裸纤的方式。

(点击放大图像)

CXP 新一代的云交换平台形成一个包含了云服务商、数据中心、ISP、IDC 等合作伙伴的生态交换平台。

混合云中的 SDN

混合架构是什么样子?如下图:

(点击放大图像)

中间网络选择需要注意的问题

1、混合云专线选择

  • 公网 VPN:通常使用 GRE 隧道 +IPSec 建立 VPN 专线优点:低成本、易操作、可应对轻量化应用缺点:受公网环境影响容易丢包和抖动、传输质量不稳定。

  • 专线:运营商 MSTP/SDH 专线或第三方服务商的以太网专线)优点:无拥堵和丢包问题:线路稳定、低延迟、安全性高、能够应对各类应用及超大型应用负载。缺点:需要一定的成本、客户需要有较高的服务要求。

目前通常的做法都是无异于上面的两种。

2、 网络延迟与丢包的考虑

延迟和丢包率是衡量网络质量的最主要指标,两者越低说明网络质量越好。专线的延迟会因地理距离有所差异,但特征是稳定,丢包率接近 0,一般低于 0.2%。

延迟和丢包率对于网站终端用户影响不大,但对于服务端之间的数据库同步备份却是致命的,尤其对于类似两地三中心的高可用架构。

3、 专线 SLA 考虑

SLA(可用性服务),SLA 越高代表可用性越强,价格也会越高;尽可能选择专线的 SLA 与云服务 SLA 保持一致。与服务商签署协议前确认 SLA,避免不知情造成的损失。

目前的运营商级别的解决方案,在广域网层面也通常为 99.9 级别。对于 4 个 9 及以上,理论上存在的,但是,在时间的业务支撑中往往是无法达到的。

4、 私有云环境选择

  • 新托管用户可参考综合指标:机房等级,地理位置、交通便利、电力保障及相关条件、网络连接条件等,选择比较符合自身需求以及未来网络可拓展空间等。

  • 已托管用户对于已托管某 IDC 的用户,且需搭建混合云环境,但网络互联条件有限或其它原因,可通过 IDC 服务商或运营商专线解决网络互联。

5、 公有云的学习成本

  • 产品线丰富,专业性较强,用户普遍对产品的理解有限

  • 8 成用户面对混合云组网技术问题无法独立完成

  • 少数企业的运维人员和架构师通过考试获得云计算认证

针对这些问题,下边给出我个人的经验:

1、 网络架构选择:

  • 结合公司现有网络结构,根据预算和运维综合情况作出选择

  • 如现有网络结构复杂,体量大,则建议维持现状,可通过专线上云缓冲架构变更

  • 如新开资源,预算宽裕,且希望日后管理拓展方便,可考虑私有云主机或云物理机

  • 高可用架构,可选云的两地三中心(公有云两个可用区,加上自有 IDC 的备份)

  • 向混合云服务商咨询,出解决方案

2、 线路选择:

  • 公网 VPN 或服务商专线均可满足不同的业务应用,可根据需求及预算选择

  • 如果是轻量化的应用,如 OA 系统、小数据推送,且没有特别要求,公网 VPN 基本可满足

  • 如果是视频、游戏、直播、会议系统以及相关依赖网络性能的应用,则直接上专线

基于SysCXP 平台的混合云网络平台模型

基于目前我们提出的云交换的网络机构模型如下:

(点击放大图像)

  • 场景一说明:数据中心与云直接互联。

  • 场景二说明:企业与云互联。

  • 场景三说明:数据中心与云互联

目前 CXP 的网络平台,可以实现如下功能:

  • 网内支持自助线上开通

  • 网外提供就近 POP 节点对接

  • 一个端口,多个资源连接

  • 高保障 SLA:99.9%、99.95%

  • 支持带宽 100M-10G 及以上

  • 基于 vxlan 安全隔离每用户

基于 SysCXP 的混合云解决方案

公有云服务商连接状态

犀思云目前已与国内主流云服务商完成连接,正在积极与 Microsoft Azure、AWS 为代表的海外服务商完成互联,助力中国企业在 DT 时代的海外拓展。

专注混合云“最后一公里”

代理运营商专线接入用户网络;犀思云 Edge 节点延升至用户网络;选择 SysCXP 内网络托管;犀思云 SD-WAN 产品互联(SD-WAN 的组网模型)

一站式服务

售前咨询、架构师指导 1 对 1 服务,根据需求免费设计方案,规划网络,以及后期建设、验收、优化、运维及监控在内周期的服务。

案例一:广告行业混合云的需求及解决方案客户介绍及需求说明

某广告公司是一家互联网广告公司,依托实时竞价 (RTB) 架构和算法,通过整合多家广告交易平台的展示类广告、视频广告、移动广告等资源,通过大数据挖掘及机器学习算法为广告主提供广告投放解决方案,从而达成广告投放效果提升的目标。

业务现状

线上平台展示以及与 SSP 广告交易平台对接放在阿里云上,RTB 竞价相关对运算能力和竞价能力对设备性能要求高,云主机满足不了需求,托管物理机放在 IDC 机房。原来阿里云和 IDC 机房互联采用公网进行数据交换。

原有方案拓扑

(点击放大图像)

基于 CXP 的解决方案拓扑

(点击放大图像)

用户反馈

  • 用户原有北京某 IDC 机房通过公网访问阿里云北京 ECS 正常延迟 10-20MS 之间,用网高峰期在 20-40MS 之间

  • 使用犀思云提供的测试机从犀思云 IDC 机房专线访问阿里云在 2MS 左右,比较稳定不存在高峰期延迟波动情况

案例分享二:直播类客户的需求及解决方案客户需求说明

某直播教育平台提供在线教育技术服务,提供音视频互动直播,支持上万人同时在线,支持跨国业务。

该平台在全国各地都有用户,用户会将自己录制的教学视频上传到直播的服务器上。由于通过公网上传数据较不稳定、网速慢,为了实现音视频资源快速稳定回传,考虑使用专线传送数据。

解决方案拓扑

(点击放大图像)

犀思云提供天津、济南、苏州、无锡、杭州、武汉等区域节点测试资源,由公网覆盖该区域的用户,各节点通过云专线汇聚到广州的公有云。

用户反馈

在使用目前的网络后,区域稳定性及客户覆盖大大的得到提升。从原有的单一站点源形成多站点源的拓扑结构,为后续多站点,多备份的方案实施做准备。

作者介绍

邵俊岭,犀思云解决方案高级总监。从事 IT 行业工作多年,早期参与过 CENET2 IPv6 网络的整体网络测试。后续,从事 IT 运维管理近 10 年,提供过 ITIL 咨询服务、机房运维管理服务、企业网络规划等项目。CENET2 IPv6 网络网络测试项目经理,拥有 SCPT 认证,也是 ITIL Expert 认证获得者,CCNA 网络培训讲师。

评价本文

专业度
风格

您好,朋友!

您需要 注册一个InfoQ账号 或者 才能进行评论。在您完成注册后还需要进行一些设置。

获得来自InfoQ的更多体验。

告诉我们您的想法

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我
社区评论

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

讨论

登陆InfoQ,与你最关心的话题互动。


找回密码....

Follow

关注你最喜爱的话题和作者

快速浏览网站内你所感兴趣话题的精选内容。

Like

内容自由定制

选择想要阅读的主题和喜爱的作者定制自己的新闻源。

Notifications

获取更新

设置通知机制以获取内容更新对您而言是否重要

BT