数据中心一般分布在全球重要的城市,数据中心之间由光缆连接。

单个城市的数据中心分布在各个园区。单个园区由多个数据中心楼、电力系统、水利系统等组成。

在数据中心楼中,有多个网络模块单元。在网络模块单元中放置服务器。


目前运营商的网络还主要是基于 BGP/MPLS IP VPN 搭建。BGP/MPLS IP VPN 是一种 L3VPN(Layer 3 Virtual Private Network)。它使用 BGP(Border Gateway Protocol)在服务提供商骨干网上发布 VPN 路由,使用 MPLS(Multiprotocol Label Switch,多协议标签交换)在服务提供商骨干网上转发 VPN 报文。

对于国外的互联网公司可以自己搭建骨干网,国内的骨干网物理网络主要是电信运营商搭建,互联网公司可以在其上搭建自己的专用网络。
典型数据中心的网络架构一般是使用 CLOS 架构。CLOS 架构的特点:
其中 Google 数据中心网络 Jupiter 和 Facebook 的 F4、F16 都是属于这种网络架构,具体可以参考文献。


PR:Peering Router,对等路由器,类似 PE 设备,主要是其他运营商网络进行对接。BR:Backbone Router,骨干网路由器,类似 P 设备。LSR:Label Switch Router,标签交互路由器。DR:Datacenter Route,数据中心路由器。
VIP)。PR 进行互联网公司的网络中。PR → BR → LSR → DR,然后到达数据中心,在进入数据中心网络时,会用负载均衡。本质是网页服务底层走的TCP网络协议。

互联网公司的业务流量庞大,同时也会有很多的攻击流量,能够更快更好的应对这些流量是一个大挑战。流量在进行互联网公司的入口需要高性能高吞吐量的负载均衡。本小节主要参考 Google 的软件实现的负载均衡:Maglev。

传统的硬件负载均衡特点:
为了解决上面的问题,Google 自行构建一种 SLB(Software Load Balance)系统,称为 Maglev,其主要特点:


具体 Maglev 的细节可以阅读参考文献相关文章。
同时要指出主流云厂商的负载均衡的功能,都有全球(Global)负载均衡的能力,例如下图 Google 的全球负载均衡。

互联网公司会接近用户的边缘做优化,主要是两个方面。
下图在靠近用户的地方引入了 边缘服务的路由器、服务器。将代理服务器放置在公司的网络的边缘,在靠近用户的地方终止用户请求(例如 TCP)的流程,以此加快第一次握手的时间,提供更好的用户体验。也可以在边缘部署服务。

VIP)。PR 进行互联网公司的网络中。BR 到达 Edge Router,然后到达代理服务器,该服务器终止用户的 TCP 进程并把请求转发给数据中心的的网页服务器。PR → BR → LSR → DR,然后到达数据中心,在进入数据中心网络时,会用负载均衡。互联网公司一般都存在 CDN 类型服务,他们把 CDN 放在公司网络的边缘,目的是将大流量的静态资源尽可能存放在网络的边缘。
注:CDN 还是保存在公司的内部的网络中。

对于云厂商来说,他们不断的建设 PoP 点,EC 点,为的就是网络覆盖的更广,且能把服务部署在这些地方。
为了进一步的把 CDN 移到靠近用户的地方,通过 缓存填充 把数据存在用户的运营商网络中,这样在缓存命中时,用户可以在运营商网络中就能得到需要的资源。

例如,AWS Wavelength 是一款针对移动边缘计算应用程序优化的 AWS 基础设施产品。Wavelength 区域是一种 AWS 基础设施部署,可在 5G 网络边缘的通信服务提供商(Communications Service Provider,CSP)数据中心中嵌入 AWS 计算和存储服务,因而来自 5G 设备的应用程序流量可以在不离开移动通信网络的情况下到达 Wavelength 区域中运行的应用程序服务器。这就避免了因应用程序流量必须遍历互联网中的多个跃点才能达到其目的地而导致的延迟,从而使客户能够充分利用现代 5G 网络提供的低延迟和带宽优势。
本文从宏观的角度介绍了互联网公司的网络架构和典型业务或者服务具体实现。在学习中也深刻体会到计算机中空间和时间的关系,用空间换时间,用时间换空间。同时互联网的发展也极大促进了信息的高效传播,也期待不断推出新的产品和服务。