IDC解决方案应用
数据中心是以若干个高品质机房或整座数据中心大楼为其物理环境,其中对温度、湿度、安全、管理都有严格的要求。利用网络为中国的各类Internet用户,提供高品质的,7×24小时的高可靠性、高可用性的各类服务。
目前,数据中心根据用户需求,提供的一系列服务中包括整机租用、服务器托管、机柜租用、机房租用、专线接入服务等。数据中心的业务扩展,从某种意义上对于所有.com企业的网管是一种解脱。除非企业考虑要增加固定资产,否则不必为购买、维护各种品牌服务器、路由器等网络硬件而大伤脑筋,也不用对网络设备升级,带宽扩容而终日奔波。数据中心的服务器托管业务可以使网管摆脱琐事的纠缠,集中精力解决网络系统中更为重要的问题。
对于数据中心的概念,目前还没有一个统一的标准,但从目前来说,互联网数据中心是伴随着互联网发展的需求,而发展起来的对各类网站提供大规模、高质量、安全可靠的服务器托管、租用以及ASP等增值服务的业务。但其实数据中心还不能仅仅局限在这个概念上。从某个角度来说,数据中心的本质其实应该是,提供网络间的高速互联,让来自任何一个网络的用户都能高速访问,而且它构成了网络基础资源的一部分,就像骨干网、接入网一样。在此基础上,它提供一种高端的Data Delivery的服务,即高速接入的服务,并辅以明确的服务保证。所以,网络和服务概念的组合才是数据中心的内涵所在。
随着国内数据中心逐渐发展成熟,IT业对数据中心的认识有了明显的改变,从以前普遍认为数据中心是一个或若干个高品质机房的简单概念,转向了更深层次的思索。
相较于传统的ISP,数据中心不仅提供单一的连线接入服务,其业务还包括整机租用、服务器托管、机柜租用、机房租用等。在客户服务内容方面,数据中心应根据用户要求提供不同级别的培训,并为每位客户指定服务代表,定期进行用户回访及服务品质评测。在服务速度上,合格的数据中心应具备投诉第一时间响应及故障排除,服务变更及时受理及相关报告的能力。
对数据中心的认识,国内行业人士认为数据中心应该是服务的概念。以往IT行业内用户认为连线接入这种最简单的服务就代表了全部的Internet外包服务,而忽略了Internet其他重要的资源外包。对于数据中心,服务范围和内容较之ISP更加丰富广泛,其根本意义所在,就是提供有品质保证的内容派送。有质量的服务对企业用户并不是一个简单的口头承诺,它需要双方签署服务品质协议(SLA),来规定双方的责任和权利,若数据中心服务违约将做出相应的经济赔偿。
因此为了能提供优质的服务,任何一家高质量的数据中心,在网络建设方面都不可避免地面临下面的问题:
(1)同各大网络的高速互联
九十年代末的数据中心,一般具有百兆级带宽资源,通过高速光纤直接接入运营商的骨干网,并根据需要可随时扩充带宽。而在今天,由于国家电信宏观政策调整,九大骨干网通过中国国家互联网中心已基本互联互通,此时应要求数据中心同国内各互联网网络单位高速对等互联。
(2)高品质的局域网络
数据中心内部的局域网络其网络连接,应贴近中国国家互联网中心或骨干网,网络控制中心(NOC)可以提供不间断的网络联结状况、服务器运行状态、流量监控及系统管理和支持。
(3)SLA(服务品质协议)的服务保证
SLA是服务商与用户签署的,承诺用户在支付一定的服务费后所应得的服务品质的法律文件,其中明确规定了经济惩罚条款。在数据中心的SLA条款中,主要包括客户支持,服务可靠性,所提供的服务内容,所提供的服务品质,紧急情况的处理,未达到上述承诺的惩罚措施等。目前已有许多数据中心明确提出了SLA的服务承诺。
服务品质协议是国际通行的客户/服务评估标准,它是一种由服务提供商与用户签署的法律文件,明确了违约方的经济惩罚性条款,它有助于用户对服务商提供具体服务的能力,可靠性及响应速度做出充分的、正确的评估。SLA从内容上包含网络连通、电力持续供应、紧急情况报告、初装等环节的承诺,保证网络连通率99.9%、电力持续供应率99.99%以及24小时技术支持等。若达不到承诺,用户方可要求经济赔偿。
(4)服务器负载均衡服务
网站内容的增加,功能的增多,使得支撑网站的服务器数量开始增多,网站的服务器负载均衡服务,可以根据实际的服务器响应时间,平衡服务器群中所有服务器之间的通信负载,从而提高站点性能和响应能力,同时减少错误的发生。
(5)网站加速服务
网站加速服务,可以使服务器处理安全套接层协议(SSL)的加密/解密工作时的效率提高数十倍到上百倍,从而提高网站安全交易的响应速度。采用这种服务,网站可以最大限度地利用互联网服务器投资,在不牺牲网站访问速度的前提下,确保电子商务交易的安全。
(6) 网站镜像服务
由于中国互联网发展的不平衡性,各地之间互联的带宽也不相同,造成了网站在各地的访问速度不一致。利用多址流量分配和Cache技术提供的多址镜像服务,能够根据单个URL将通信路由至最方便、最可用的站点。
在实现以上功能的基础上,要提供高效,低延时的服务是一个更为严峻的问题。
在深入了解数据中心用户的需求后,Array 设计了这一套完整的数据中心网络解决方案,用以保证数据中心的成功运营。
根据数据中心的具体特点及建设经验,以及数据中心网络系统整个工程的重要性,网络系统设计必须既适应当前应用考虑,又面向未来信息化发展需求。在设计技术方案时,遵循以下设计原则:
数据中心网络系统是一个不断发展的系统,所以它必须具有良好的扩展性。能够根据将来信息化的不断深入发展的需要,方便的扩展网络覆盖范围、扩大网络容量和提高网络各层次节点的功能。具备支持多种通信媒体、多种物理接口的能力,提供技术升级、设备更新的灵活性。
Array设计的数据中心网络解决方案采用了模块化的设计,从而具有良好的可扩展性,完全可以适应数据中心业务的发展,逐步扩展网络。针对到具体的数据中心网络解决方案,其可扩展性主要体现在以下方面:
(1)网络可扩展的关键在于能否实现合理的模块化设计,采取模块化的设计可以根据网络需求的变化,在不影响现有网络运行的状况下,迅速扩展。在Array提供的数据中心网络方案中,模块化即为其重要的一点,在整个数据中心网络设计中分为Internet互联模块、系统安全模块、核心交换模块、针对不同数据中心用户类型的功能模块、及后台管理模块。每个模块可以进行独立设计,可根据不同数据中心的不同需求、规模、及业务发展状况进行取舍。
(2)在Array提供的数据中心方案中,Internet互联层、核心层、业务功能层皆采用先进的智能专用网络设备,其分布式的体系结构提供了十分强大的网络吞吐能力,加上这些设备丰富的L4/L7功能,使得整个数据中心网络具有极强的扩展能力。
高实用性和高可用性是数据中心运营成功的关键,也是数据中心用户特别是进行电子商务的用户选择数据中心的基本原则。针对数据中心的网络方案,其可用性设计包括网络设备本身的冗余能力、网络的冗余设计。Array 数据中心方案中主要的高实用性和高可用性设计有:
(1)采用冗余网络设计。每个层次均采用双机方式,层次与层次之间采用全冗余连接。
(2)提供多种冗余技术。在Array 数据中心解决方案中,在不同层次可提供增值冗余设计,在Internet 层采用 HSRP或VRRP 冗余协议、核心层采用STP、VRRP等技术、分布层采用Web交换机的重定向功能实现高效、负载均衡的服务器备份。采用 VRRP实现网络连接的冗余设计。
(3)采用 Web交换机的健康检查功能,对服务器、防火墙等负载均衡设备实施实时的监测和故障自动屏蔽功能。
(4)采用Web交换机和Web Cache 配合的解决方案,实现对客户服务器的吞吐能力的动态冗余备份能力,帮助用户在不增加服务器的情况下,响应访问高峰时的突发流量,避免服务器过载。
(5)采用Web交换机的L4/L7增值功能,提供在线备份服务器方案,故障后的应急服务器方案,在线维修服务器方案。
(6)通过带宽管理设备为托管用户提供有质量保证的带宽服务,特别是可以根据时间动态调整带宽分配,为数据中心节省网络管理的时间。
灵活的目的是要实现“根据用户具体需求进行定制”,这是数据中心运营商在激烈的竞争中可继续发展的保证。在Array的数据中心解决方案中,其模块化设计,可根据数据中心不同需求进行取舍,特别是后台管理平台的设计思想,使数据中心可实现对于不同用户定制的服务,如在后台管理平台中的用户数据备份中心、客户中心、控制中心,使数据中心用户可以方便地进行对其应用的控制与更新。
对于数据中心运营商而言,运营管理的成功与否是数据中心是否成功的标志,而网络的可管理性是数据中心运营管理成功的基础。在Array 的数据中心网络方案中,可提供多种优化的可管理信息。
(1)对于用户的各项业务,Array 解决方案可提供多种方式的详尽的事件记录以供给计费系统进行计费。
(2)无论是硬件防火墙、带宽管理器、Web交换机,还是Cache设备,大多能提供基于Web方式的管理界面,方便客户进行远程管理。同时,其完备的报警功能,可以在系统发生故障时,及时通知网络管理人员。
(3)完整的日志记录,能够用来分析客户网站的访问情况。
针对Internet市场用户不断增加、Internet服务负载不断加重、Interent新型的电子商务应用需求的增长,以及目前数据中心网络面临的问题,为满足广大电信用户的需求,Array公司采用全新的网络服务概念,以优质的服务和产品建立高质量的数据中心,使用户获得高质量的服务,为数据中心用户提出了高可靠性、高可用性的一套全面的解决方案。
Array的All In One核心技术,为Internet提供质量控制(QoS),它支持服务器的负载平衡,防火墙WEBWAll,SSL加速,Cache ,广域网的负载平衡GSLB,高可靠性Cluster 技术和支持CDN 的重定向访问的CDD技术。
(1)数据中心可利用Array产品为用户提供的服务保证:
(2)数据中心利用array 产品提供的增值服务:
对于数据中心而言,访问时延和服务器的可靠性是非常重要的问题。而随着业务的增长,对拥有多台服务器的数据中心来说,不是全部服务器都发挥了其应有的效力。Array的负载均衡服务,使每台服务器的处理能力都能得到充分的发挥。SLB可以实现如下的功能:
- 提供真正面向应用层的WWW、DNS、FTP,以及基于固定端口的TCP/UDP等应用的负载均衡;
- 无需改动网络拓扑结构,即可实现功能;
- 功能强大,支持路由功能- 根据实际响应时间的负载平衡算法来实现真正的合理的流量分配。
Array的服务器负载均衡可以以两种模式执行:Reverse Proxy Mode(反向代理模式)和Transparent Mode(透明模式)。
(1)Reverse Proxy Mode(反向代理模式)
使用Array TMX的反向代理服务可以将请求转发给内部的服务器,让Array TMX将请求均匀地转发给多台内部服务器之一上,从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部服务器,而这种代理方式是多个客户使用它访问内部服务器,因此也被称为反向代理模式。
Array支持多种服务器负载均衡算法(持续性的和非持续性的),包括轮循算法、最少连接算法、响应时间算法、散列算法、最少连接失误算法,链路带宽算法等等。此外实际服务器可以被分配不同的加权值来调整被分配的流量。比如性能高的大型服务器可配置较大的加权值,而为性能较低的小型服务器设置较小的加权值。为了避免服务器因过载而崩溃,可为实际服务器指定最大连接阈值来避免该服务器过载。任何服务器可被指定为另一台服务器的备份服务器或溢出服务器,从而进一步保证了应用可用性。
(1)非持续性算法(Non-Persistent):一个客户端的不同的请求可能被分配到一个实服务组中的不同的实服务器上进行处理。主要有轮循算法、最少连接算法、响应速度算法等。
-轮循算法(Round Robin):每一次来自网络的请求轮流分配给内部中的每台服务器,从1至N然后重新开始。此种均衡算法适合于服务器组中的所有服务器都有相同的软硬件配置并且平均服务请求相对均衡的情况;
-最少连接算法(Least Connection):客户端的每一次请求服务在服务器停留的时间都可能会有较大的差异,随着工作时间的加长,如果采用简单的轮循或随机均衡算法,每一台服务器上的连接进程可能会产生极大的不同,这样的结果并不会达到真正的负载均衡。最少连接数均衡算法对内部中有负载的每一台服务器都有一个数据记录,记录的内容是当前该服务器正在处理的连接数量,当有新的服务连接请求时,将把当前请求分配给连接数最少的服务器,使均衡更加符合实际情况,负载更加均衡。此种均衡算法适合长时间处理的请求服务。
-响应速度算法(Response Time):负载均衡设备对内部各服务器发出一个探测请求(例如Ping),然后根据内部中各服务器对探测请求的最快响应时间来决定哪一台服务器来响应客户端的服务请求。此种均衡算法能较好地反映服务器的当前运行状态,但最快响应时间仅仅指的是负载均衡设备与服务器间的最快响应时间,而不是客户端与服务器间的最快响应时间。
(2)持续性算法(Persistent):从一个特定的客户端发出的请求都被分配到一个实服务组中的同一个实服务器上进行处理。主要包括:
A.基于IP的算法
-Persistent IP (pi):基于用户IP地址来选择服务器。
-Hash IP (hi) :基于用户IP地址的HASH值,来选择服务器
-Consistent Hash IP (chi):
B.基于报头/请求的算法
-Hash Header (hh):基于用户请求报中HTTP报头来选择服务器;
-Persistent Hostname (ph) :基于用户请求报中HTTP报头的Hostname的HASH值,来选择服务器;
-Persistent URL (pu):基于对URI Tag 和值的静态对应关系来选择服务器。-SSL Session ID (sslsid):基于SSL会话ID来选择服务器。
C.基于Cookie的算法
-Persistent Cookie (pc) : 选择服务器基于用户请求包用Cookie Name / Value 的静态对应关系;
-Hash Cookie (hc) :选择服务器基于用户请求包用Cookie Name / Value 的Hash 值对应关系;
-Insert Cookie (ic) :选择服务器基于Array 向服务器响应包中插入Cookie;
-Re-write Cookie (rc):选择服务器基于Array 向服务器响应包中重写Cookie值。(必须为重写指定Cookie值的偏移量)
SLB 的负载均衡策略主要有三大类:基础性策略、保持性策略、QOS策略。
(1)基础性策略
-Static
-Default
-Backup
(2)保持性策略
-Persistent URL
-Persistent Cookie
-Rewrite Cookie
-Insert Cookie
-Header
(3)QOS 策略
-QOS Cookie
-QOS Hostname
-QOS URL
-QoS Network
-Regular Expression
-Header
Array通过对服务器的实时健康检查,保证数据流量会自动绕过故障服务器或不可用服务器。当Array的健康检测机制,检测到服务器重新恢复正常以后,将使该服务器可以自动回到服务器群之中,所有这些服务器故障的处理,对进行操作的用户是完全透明的。
Array对服务器的健康检查,可采用三种方式:
-ICMP检查:利用ICMP可检查服务器的网络工作是否正常。
-TCP检查:Array可与服务器之间,利用服务器的服务端口建立TCP连接,检查服务器的服务是否正常。
-HTTP检查:Array采用HTTP的检查,来验证服务器提供的服务是否正常。
通过这三种机制,确保服务器为用户提供正确可靠的服务。用户再也不会得到这样请求的响应 “404 Object Not Found”,或响应内容不正确。
-实时监控服务器应用系统的状态,并智能屏蔽故障应用系统;
-实现多台服务器的负载均衡,提升系统的可靠性;
-可以监控和同步服务器提供的内容,确保客户获取到准确可靠的内容;
-提供服务器在线维护和调试的手段。
上面提到的SLB(服务器负载均衡)是指能够在性能不同的服务器之间进行任务分配,既能保证性能差的服务器不成为系统的瓶颈,又能保证性能高的服务器的资源得到充分利用。而GSLB(全局服务器负载均衡)允许Web网络托管商、门户站点和企业根据地理位置分配内容和服务。通过使用多站点内容和服务来提高容错性和可用性,防止因本地网或区域网络中断、断电或自然灾害而导致的故障。在Array 数据中心解决方案中GSLB将发挥重要作用,其性能高低将直接影响整个系统的性能。
因此,数据中心必须要同时提供基于服务质量的高可用性和完善的负载平衡功能。Array的GLSB可提供基于服务质量的高可用性,从而确保数据中心站点持续运行,并使其IP服务基础设施投资获得最大回报。
Array的GLSB用以向用户提供分布于不同地理位置的数据中心的高可用性和智能化业务及流量分担解决方案。
Array GSLB的目的是在多个可提供相同服务的站点之间,根据相应的分配策略将用户请求“路由”到合适的站点上。对GSLB而言,最重要的一点是每一个Array TMX需要知道其他TMX了解的服务、链路、系统状态信息,这一点通过Array状态信息通信协议(SICP)来完成的。SICP是Array公司的私有协议,主要完成GSLB组中状态信息的交换,需要利用SLB、LLB的健康检查和状态监测功能。处在GSLB中的TMX每2秒(可配置)互相交换健康状态信息,每30秒(可配置)互相交换本地服务器负载、链路负载、网络状况信息。这些状态信息主要包括:链路可用性-LLB、实服务可用性-SLB、虚服务可用性、集群状态。
下图表示的是Array GSLB的工作方式。
Array GSLB的核心是负载均衡算法,Array支持非常丰富的算法,包括以下三大类:一般性算法、基于(链路、网络、系统、服务)负载的算法、基于与用户距离的算法等。
(1)一般性算法
-Round Robin Load Balance:轮询负载平衡算法。
(2)基于(链路、网络、系统、服务)负载的算法
-Global Link Load Balance
-Member-based Weighted Round Robin Load Balance
-Site-based Weighted Round Robin Load Balance
-Connection Overflow Load Balance
-Member-based Volume Overflow Load Balance
-Site-based Volume Overflow Load Balance
-Member-based Hit Overflow Load Balance
-Site-based Hit Overflow Load Balance
-Response Time based Load Balance
(3)基于与用户距离的算法
-Proximity Load Balance
-Least Hop Load Balance
-Least Latency Load Balance
Smart DNS通过其内置的IP地址/地域/网络对应表来实现用户的就近访问策略,当位于不同位置的Local DNS请求到达的时候,SmartDNS根据对用户的Local DNS策略判断用户所处的位置,返回距离用户最近的镜像站点的IP地址。
SmartDNS通过智能状态检测功能实现对链路、服务器健康状态的检测。检测的策略可以为ping、TCP端口检测和内容检测,真正的检测服务器和链路的健康状态。对于因故障或检修而停止服务的服务器和链路从负载均衡组中摘除,并继续检测链路和服务器的状态,一旦该链路或服务器恢复健康,则将其继续加入负载均衡组。
在网络状况复杂,用户要求较高的状况下,SmartDNS可通过在镜像站点安装Probe探针软件来检测从各镜像站点到达用户Local DNS的速度,通过自我学习建立全网网络状况表,配合智能检测功能来实现用户的最快访问策略。
在SmartDNS的内部,采用矩阵算法,对服务器健康状态、网络健康状态、用户IP地理位置等参数进行综合计算,判断返回给用户的最佳镜像站点IP地址,使用户始终能得到最佳的网络服务。
Array 的灾难恢复是指在两个地理上分离的站点之间提供服务可靠性的策略。其中一个站点作为主站点(Primary Site),另一个作为备份站点(Backup Site)。当主站点工作正常时,所有流量通过主站点;当主站点发生故障时,Array的灾难恢复功能就会把所有请求转到备份站点,备份站点来处理主站点所有的网络请求;当主站点故障恢复时,Array 会把所有的请求转回到主站点上。
1)GSLB将用户指引到一个地区内的最佳站点上。那些依靠像路由器转发(hops)这种规格的竞争性解决方案在做出负载均衡决定时未能考虑到像网络拥塞和服务器负载这样的一些重要因素。只有Array Networks的GSLB有效地考虑到了这些因素。
2)智能负载分配将大多数通信量灌进那些性能最好的站点中而不会使之超载。所有资源均得到有效使用,使用户获得更好的体验。
3)当一个站点的所有服务器均出现故障或拥塞时,用户就被自动地转移到下一个最佳站点上,提高了服务和内容的可用性。
由于服务器特点能处理复杂的应用,但随着应用的增加,服务器的负载越来越大,这时用户必须投资更换或增加服务器,服务器的增加,同时会增加管理成本。Array的Cache功能可以有效地解决增加或更换服务器的问题,同时又能减轻服务器的负担,提高性能。将反向Cache server放在服务器的前端,使静态的内容由Array Cache响应用户的请求,服务器仅处理动态的内容,可以在节约40%带宽的情况下,最大化的提高网络用户访问本网站内容的速度。
-动态调整缓存空间。Array TMX可以根据系统负载动态调整缓存空间大小,在系统需要更多内存处理HTTP请求时,可以自动减少缓存空间,将部分内存归还系统;在系统负载降低后,再将该部分内存返还,继续作为缓存的空间;
-提供防DOS攻击的好处。
SSL(安全套接层协议)已经成为互联网安全通信的标准协议。它是一种对用户进行鉴权的公钥加密方案。首先,服务器向客户机发送承认其可靠性的认证。然后,使用共享密钥来对发送方与接收方之间的数据进行加密。例如,当发送方确认接收方正确无误时,会为数据包加上一个安全的“外壳”(加密),同时通过线缆传输此数据包。必须在目的地将此“外壳”去掉,才能使用该数据包信息。其它的步骤还包括:认证、加密和解密,这极大地增加了Web服务器的流量处理负担。
为了解决数据中心服务器反应速度问题,从根本上解决SSL给服务器运行带来的不利影响,必须采用专门设备处理SSL协议,以便使服务器的CPU从繁重的加密/解密过程中解脱出来。
Array内置SSL加速功能使问题迎刃而解。Array产品包括SSL加速技术,该技术是用于卸载服务器的SSL(安全套接层)处理的,以提高其性能,同时大幅度缩短响应时间并增强客户流量管理。SSL加速技术可以提高数据中心服务器的性能,并在运行过程中提供安全性、高速度和流量管理,所有这一切都是从同一地点进行的,无需费钱费力地在每台服务器上安装额外的硬件或软件。
Array解决方案能使数据中心工作人员卸载认证管理以及加密和解密功能,从而提高工作效率和可靠性。 解决方案真正解除了Web服务器上的通信负载。因此,无需再购买额外的服务器来处理SSL流量。Array产品还允许您为整个服务器集群只购买一个证书,从而降低了成本并减少了证书管理的时间,与必须为每台Web服务器购买和安装SSL处理卡不同的是,您只需安装一次SSL加速器。
Array SSL 加速特性:
-通过专用硬件――SSL加速卡实现高性能的SSL加速;
-同时支持异步和同步的加密加速服务;
-通过突破性的专利技术SpeedStack™技术保障高性能;
-可以同时处理SSL流量和非SSL流量;
- CSR 能产生证书的申请,同时生成一个临时的证书用于测试;
- 能为Open-SSL,Apache-SSL and Microsoft IIS导入PEM格式的证书;
- 能导入 Chained (intermediate) certificates;
- 利用X-Forwarded header,把用户的IP地址传给服务器,用于LOG记录用户的访问;
- 支持当今流行 128 bit 加密密钥。
-Array TMX每秒钟可以处理5000个SSL交易,并以750Mbps的吞吐量同时处理32000个SSL连接。
数据中心的首要条件是安全性,如果数据的安全无法保证,数据中心也将成为空谈。因此数据中心站点必须配备防火墙,以确保交易安全。随着网上用户的逐步增加,Internet的连接速度不断提升,防火墙作为整个系统的瓶颈将越来越明显。由于防火墙要求数据流同进同出,故无法采用简单的叠加方式提升防火墙性能,直接导致速度缓慢甚至无法运行。
Array的产品具备内在的安全特性,这些特性是专门为避免遭受攻击和为服务器和网络设备提供保护而特别设计的。Array WebWall防火墙能有效地保护服务器和应用的安全。
Array WEBWALL 产品可有效保护您的服务器:
1)支持应用层URL的过滤;
2)基于包状态检测的防火墙;
3) 支持NAT的功能,使内部用户能访问Internet的资源;
4) 端口的 Forward 功能,使用户能远端对服务器进行管理,能把常用的端口映射到服务器的任意端口(端口映射)。常用的端口,比如80,443,20,21能映射到服务器任何端口。这个能提供更高的安全性,让闯入者很难知道哪些服务运转在哪个端口;
5) WebWall功能启动后,它将关闭所有的访问,除非用户显式地打开;
6) 高效,Array支持多达1000个访问控制列表,仅消耗1%的CPU资源;
7) Array的是个坚固的设备,设计得能抵抗一般的攻击,譬如:DOS攻击;
8) 通过HTTPS或SSL远端管理,使用SSH命令行或以HTTPS来做浏览器界面管理;
9) 支持SSL的安全访问。
传统的四层设备,仅支持二台设备工作在HA方式下,支持Active/Active、Active/Standby工作方式,从而L4设备可靠性,可扩展性,网络吞吐量都受到限制。但L4层的设备是一关健设备,许多L4 层厂家都没有很好解决这些问题。
Array在给服务器提供高容错性,高可靠性的前提是,Array设备本身的容错性和高可靠性。Array支持Cluster的工作模式,提供1+1 和N+1 的冗余配置模式,能工作在Active/Standby或Active/Active方式。
目前几乎所有的数据中心都采用多个接入链路(多宿主)接入Internet,采用多宿主的解决方案来避免Internet接入中断所造成的损失。在这里所提及的“多宿主”通常指同时使用不同ISP提供的多条Internet接入链路。可用性的提高来自于多条链路的使用,而性能提高则是因为同时使用多条链路增加了带宽。但是这种多宿主网络目前存在几个严重的问题,一是对于流入流量来说,不能保证链路的同时使用,多宿主解决方案的部分优点无法实现。二是内部网络同时使用两个ISP提供的地址,一部分内部用户(A组)使用ISP1提供的地址,另一部分内部用户(B组)使用ISP2提供的地址,当ISP1的链路中断时,A组的用户将无法接入Internet。除去以上的问题,多宿主网络的一些优势还没有完全实现,例如:
-现在一些多宿主网络解决方案只是“共享”式,而不是真正的负载均衡。
-没有就近性的路径判断。
-对流入的流量没有很好的解决方案。
Array 的LLB(链路负载平衡)技术能轻松横跨多个链路连结以传送数据流量,无需在路由器上进行复杂的BGP设定;智能管理不同ISP提供的IP地址网段;保证优化所有的ISP链路,即通过智能负载均衡所有通过可用链路的流量;使用Array的SmartNAT和SmartDNS、最小响应时间检测算法来选择用于输入输出流量的最佳ISP;确保两个ISP链路同时应用与所有的流入流量,保证数据中心Internet连接的畅通。
SmartNAT
对于流出流量的智能地址管理,ARRAY TMX使用了称为SmartNAT的算法。当选定一个路由器(某一个ISP)传送流出流量时,ARRAY TMX将选择该ISP提供的地址。如果ARRAY TMX选择ISP1作为流出流量的路径,则它将把内部的主机地址192.168.1.A/24翻译为100.10.1.10/24,并作为流出数据包的源地址。同样,如果ARRAY TMX选择ISP2作为流出流量的路径,则它将把内部的主机地址192.168.1.A/24翻译为200.20.1.10/24,并作为流出数据包的源地址。
Shortest Response Time--最快响应时间
为了优化流出的流量,ARRAY TMX还为流出的流量实施最快响应时间运算。如果内部主机要访问某一Internet站点,可能通过一个ISP的路径比通过其他ISP的路径有效。因此,ARRAY TMX可以提供最短响应时间算法,为流出到某一个站点的流量选择最佳的ISP路径,保证所需内容最快到达目的地,提高服务的品质。
SmartDNS
ARRAY TMX上集成的SmartDNS功能能够完成流入流量的负载均衡。
当有Internet用户访问llb.arraynetworks.net时,DNS服务器回应给用户由ARRAY TMX来完成最终地址解析。ARRAY TMX根据具体设置来选定适当的ISP线路,如果选择ISP1,则将地址解析为100.10.1.10。同样,如果选择ISP2,则将地址解析为200.20.1.10。从而完成流入流量的负载均衡。
(3)LLB其他的功能设置
链路健康检查
ARRAY TMX在多宿主网络中的一个主要作用是检测ISP链路的可用性,即健康状况。因此,ARRAY TMX提供了链路健康检查的功能,从而保证多条数据链路的正常,提高服务质量。
路径健康检查
访问Internet的可靠性不仅仅是由ISP路由器提供的链路状况决定的,而是由整个数据流经的路径决定。因此,ARRAY TMX提供了路径健康检查的功能,从而保证整条数据路径的正常,提高服务质量。
策略路由
ARRAY TMX可以设置基于用户数据包源IP/Port、目标IP/Port的策略路由,通过该功能可以帮助企业人为的对特殊的流入流出流量进行规划,比如某个业务部门的应用系统需要比较高的数据传输带宽,而公司的多条Internet链路的带宽存在不均衡性,管理员可以选择一条带宽更高的链路承载这个部门的数据流量。
Array TMX是专门为企业实现链路负载均衡设计,它具有以下优势:
支持多宿主网络,保障企业可以从不同运营商租用链路
实现流入/流出双向流量负载均衡
支持防火墙负载均衡
支持链路和路径健康检查,智能的将不可用的链路排除,保障对Internet访问的永远可用
支持最短响应时间的监测机制,使用户获得更高的服务质量
支持策略路由,方便企业人工调控业务流量分配
支持1+1的集群,保障TMX本身的高可靠性和高性能
可以和SLB/GSLB/Cache等功能无缝集成,方便企业未来功能扩展
性价比是业界最优秀的。
网速太慢是CNNIC历次调查中用户认为最不满意的一个主要问题。线路拥挤带来的不便甚多,数据中心运营难免不受影响。随着网上业务的增长,用户对因特网的传输速率提出了越来越高的要求。要改善目前上网慢的情况,除了增加路由器速度和服务器的处理能力外,还要想办法提高网络带宽利用率。采用HTTP 压缩技术可以大大提高网络带宽的利用率。
Array设备采用了HTTP 压缩技术,即时同轴的HTTP压缩功能可将效能提升为原来的6倍,并大幅节省传送网络服务与其他动态内容时所需的频宽。
Array HTTP压缩过程:
采用Array HTTP压缩的优势:
-节省带宽;
-缩短用户下载内容的时间;
-在Web Server上不需要压缩功能,减轻了Web Server的负担。
下图是采用HTTP压缩前后的带宽利用率比较:
由图可以看出,在15.1Mbps带宽下:
-没有采用HTTP压缩时,每秒可以处理2000个HTTP请求;
-采用HTTP压缩时,每秒可以处理20000个HTTP请求。
Array Networks的突破性的SpeedStackTM专利技术,采用高性能数据包处理内核,包括GB级TCP/IP和SSL处理,HTTP处理内核和全代理内核,IP 数据包对全部的网路功能仅需在TCP/IP堆栈中分析一次,可避免重复性的数据包处理工作。
Array Networks的SpeedStack技术可以实现:
-系统的最低处理时延
-紧密的功能集成
-高级的功能交迭
-零拷贝:所有数据直接放置在内存中,无需多次移动。
Array Networks的SpeedStack技术带来的优势:
-业界出众的总体性能
-系统处理对资源最小化的需求
Array的Connection Multiplexing(连接复用)技术的主要作用是为了改善现有系统的总体性能,其技术原理是自动实现HTTP 1.0到HTTP 1.1的转换。HTTP1.0是短连接,即每次用户请求,都要重新建立一次连接;HTTP1.1 为长连接,连接维持时间较长,它可以将多个请求在一个连接中进行传输,减少连接建立和拆除所带来的延迟,并能够最大限度地降低对并发连接数的消耗,所以TCP/IP协议栈在处理长连接时具有更好的性能。Array的连接复用技术可以将客户端与Array TMX的HTTP1.0连接转换为在Array TMX与服务器之间使用HTTP1.1连接,使Array TMX与服务器之间保持一个长连接, 减少了服务器建立和拆除连接对服务器资源的消耗。
Array Connection Multiplexing(连接复用)技术的实现过程:
采用Array Connection Multiplexing(连接复用)技术后的效果比较:
Array采用Connection Pooling(连接池)技术,其优点在于:
(1)加快了与后台服务器之间的TCP连接处理速度
-Array TMX预先与后台服务器之间建立多个连接,并保持住它们(每个服务器最多预先建立20个连接);
-如果有客户端的请求,根据负载分担算法被分配到某个后台服务器上,Array TMX从预先建立的该服务器的连接池中选择一个连接,在此连接上发送客户端的请求,一个连接可以被用来传送多个请求(每个连接最多可以同时处理90个请求);
- 显著的减少了后台服务器需要处理的用户端连接数(减少量可能达90%)
(2)改善了服务器的性能.
- 服务器不需要花费更多的时间处理TCP连接建立和拆除的工作
- 服务器不需要耗费更多的资源保持多个客户端连接