时间:2023-01-06 10:06:00
引言:易发表网凭借丰富的文秘实践,为您精心挑选了九篇云数据中心方案范例。如需获取更多原创内容,可随时联系我们的客服老师。
关键词:802.1Qbg;VEB(虚拟以太网交换机Virtual Ethernet Bridging);VEPA(虚拟以太网端口汇聚器Virtual Ethernet Port Aggregator);Multi-Channel(多通道)
中图分类号:TP308 文献标识码:A 文章编号:1674-7712 (2013) 04-0046-02
随着服务器虚拟化和网络虚拟化的日益蓬勃发展,云计算在发展过程中出现了一台物理机上部署虚拟机过多vSwitch占用服务器大量物理资源的问题,虚拟机与外部网络对接、关联和感知不明确不可控的问题。如何解决以上问题,Cisco公司提出了802.1Qbh、802.1BR和VN-Tag技术方案,而HP(H3C)/IBM提出了802.1Qbg的技术解决方案。
一、802.1Qbg技术
数据中心的变革历经了服务器虚拟化、云计算等过程,而相应的交换设备也随之悄然演化着,标准的制定和推出为这一变化指出改革方向,802.1Qbg顺应改革浪潮及时跟进,对数据中心部署云时遇到的难题给出了解决方案。HP(H3C)/IBM对一台物理机上部署虚拟机过多vSwitch占用服务器大量物理资源的问题,虚拟机与外部网络对接、关联和感知不明确不可控的问题,提出尽量将网络功能移植回物理网络,推出了802.1Qbg标准。
802.1Qbg在交换功能上,除了兼容vSwitch原有的VEB模式(Virtual Ethernet Bridging)模式外,还增加了VEPA(Virtual Ethernet Port Aggregator)和Multi-Channel工作模式共3种。VEB模式是大家部署虚拟服务器时常见的模式,802.1Qbg兼容这种模式。此种模式下,同一台物理机上同一VLAN的虚拟服务器之间通信是直接经过该服务器内部的vSwitch转发,没有经过外部网络设备。虽然由于vSwitch这一网元数量的增加,可以拓展虚拟化网络规模,但也因为内部虚拟服务器数据交换不可控,QOS和网络安全控制是个难题。
VEPA模式主要是针对之前已部署虚拟化的企业推出的一种解决方案。HP(H3C)/IBM基于IEEE标准,提出在没有增加新的二层标签基础上,只对VMM软件和交换机软件简单升级就可实现VEPA转发功能。此种方案对已部署虚拟化服务器的用户影响较小,二次投入也不多。VEPA方案既可以采用纯软件方式,也可是采用硬件方式实现。经HP实验室测试,该方案报文转发性能比传统vSwitch提升12%或更高。VEPA要求VM服务器交换数据流必须经过外部Bridge,然后再原路返回VM响应服务器,路径的一进一出就为原来意义上的vSwitch减轻了负担,同时可以对相应端口进行Qos、ACL策略配置,IDS/IPS和防火墙等也可以对此端口进行安全管理,不但可控还节约了投资。
Multi-Channel工作模式是802.1Qbg的第三种模式,它是VEPA的一种增强模式。此种模式去除了服务器内部网络功能,而以S-Channel方式将虚拟服务器与外部网络连接起来,通过VDP(VSI Discovery Protocol)和CDCP(S-Channel Discovery and Configuration Protocol)协议报文交换,最终将将虚拟端口(vPort)终结在物理交换机端口上。多通道模式允许VEB、VEPA、Director IO同时存在,也允许各种组合方式存在。它将网络端口划分为并行独立的逻辑通道并在逻辑上隔离,通道可按用户要求随意安排成VEB、VEPA或Director IO的一种。多通道技术实现了VEB和VEPA共存一机的要求。值得一提的是,该方式需网卡和交换机支持S-TAG和QinQ功能,所以对新部署虚拟化技术的且要求比较多的用户比较适合。
二、802.1Qbg在云数据中心的应用测试
H3C公司作为HP的子公司,在802.1Qbg技术解决方案上做了大量的工作。笔者有幸作为一名测试用户申请试用了H3C的虚拟化数据中心平台。该公司为体验用户搭建了云数据中心的测试平台,VMM软件是基于KVM(IBM虚拟化)核心源代码开发的H3C虚拟化系统,管理软件是iMC CRM管理平台,网络平台是基于40G和100G的 H3C 12500路由交换为核心,服务器是美国HP制造的多台H3C服务器,并启用了各种后台存储设备。在该试用平台上,厂家利用多种基于802.1Qbg解决方案的技术,给用户提供多种体验环境。测试中,VMM迁移顺畅,业务实时工作不中断;虚拟机部署方便容易;各种网络管理策略可在管理平台上统一制定模板;实时对端口监测,发现异常及时报警。经观察,多通道技术对虚拟化应用支持力度最为强劲不但兼容了原有VEB,还可利用VEPA技术,在交换机上对虚拟服务器网络端口做各种策略,Qos、ACL保障极为便利,端口流镜像、报文统计、安全策略下发管理上极为方便。
数据中心虚拟化目前最大的问题是虚拟机迁移不可控的问题,而HP(H3C)/IBM在VMM迁移(vMotion)这个问题上,找到了一条比较明确的解决方案:即利用iMC CRM管理虚拟机状态,同时对可迁移的资源统一部署,利用802.1Qbg技术制定相应网络迁移策略和路径,做到可控的迁移,明确了VMM迁移的范围和可利用资源。
目前H3C iMC系统能够维护多达数万个虚拟机接入,基于层级化的网络管理模式,未来iMC将可管理虚拟机数量扩展到数十万甚至数百万,做到跨三层大范围的自动化配置与迁移,而这一切的实现都离不开802.1Qbg技术对数据中心虚拟化的贡献。
本人在测试中,感觉802.1Qbg对KVM、VMware支持力度很大,而对Microsoft的HyperV 3支持力度偏弱。如果厂家能及时跟进,加大与HyperV可扩展交换机技术的融合,开发相应的扩展程序包或硬件,将会是个不错的选择。毕竟微软的用户是众多的,而Cisco、NEC和Inmon也都为此开发了相关扩展包组件或硬件。
三、结束语
802.1Qbg解决方案将服务器虚拟交换机功能大部分或完全移植回物理网络,提升了服务器性能,明晰了网络与服务器的界限,增强了虚拟服务器与网络数据交换的可控性和安全性,降低了对安全设备重复投资的要求。802.1Qbg该技术和Cisco的VN-TAG如果互相借鉴的话,将会更有利于数据中心虚拟化的发展,EVB标准将会更加融合和发展。
参考文献:
[1]李存军.数据中心云接入技术比较[J].计算机光盘软件与应用,2012,23.
[2]H3C EVB技术体系介绍[J].IP领航,2012,6.
[3]H3C EVB数据中心应用模型[J].IP领航,2012,6.
[4]钱景辉.数据中心在云计算需求下的技术分析[J].现代计算机,2012,07.
[5]姜建伟.企业数据中心网络虚拟化环境中边界感知安全技术和应用[J].计算机应用与软件.
[6]吴晨,朱志祥,胡清俊.一种云数据中心虚拟交换的解决方案[J].西安邮电学院学报,2011,9,16,5.
[7]梁凯鹏.基于VEPA的云计算数据中心的设计与实现[J].广东通信技术,2011,09.
[8]Shehzad Merchant VEPA:虚拟交换解决之道[J].网络世界,2011,1,17第028版.
[9]李晨,许辉阳.云计算数据中心组网技术研究[J].电信网技术,2012,6,6.
【关键词】 虚拟化 云计算 数据中心 资源池
一、高职院校云计算数据中心建设需求分析
高职院校近几年来得到了迅猛发展,特别是自2006年国家支持建设100所示范高职院校以来,高职院校在校园信息化建设、IT实训基地建设等方面投入了大量资金,大大改善了IT相关专业和课程教学校内实训条件,符合高职教育对应用型、技能型人才培养所需实训条件建设的要求,为“工学结合”、“做教学”等教学组织与实施创造了良好的实训环境,也提高了校园网络服务教学管理的效益,但在传统的信息中心建设与管理、IT实训室建设与维护过程中大都遇到以下问题:
(1)几乎每年都要进行硬件采购、软件升级,做计划、招投标和建设周期较长,而且不断扩容的软硬件设施给学校增加了投资成本,并给网管人员带来越来越大的管理困难。
(2)服务器利用率低、运维成本高,多数服务器业务单一,系统维护、升级和扩容等都会带来业务暂停等问题。
(3)服务器间的兼容性差,原有系统迁移到新平台上,就会带来新老系统兼容等问题。
(4)存储设备数量多、架构不统一。学校大量各类资源分布存储在不同的存储网络上,既不利于业务管理、又存在信息共享困难等问题。
(5)信息中心大量IT资源对各二级部门的贡献不够,不能够发挥资源效益,以减少二级学院IT投资特别是计算机类机房的重复投资问题。
能否设计一种新的技术架构和运行管理平台来克服以上问题?
有,那就是构建基于虚拟化技术的云计算平台,建设一个集成统一的信息化服务数据中心[1],将学校有限的IT软硬件资源,通过虚拟化技术,构建成“无限”应用的各种资源池,利用云计算提供的SaaS(Software as a Service,软件即服务)、PaaS(Platform as a Service,平台即服务) 和IaaS(Infrastructure as a Service,架构即服务)三种服务模式,实现对客户“按需分配”,满足对学校IT资源的各种应用。
但由于云计算平台建设投入较大,技术与管理复杂,是目前制约高职院校云计算数据中心建设的一个主要原因。根据高职院校的办学特点,云计算数据中心建设可以按照私有云和共有云相结合的设计方案,采用SaaS 和PaaS服务模式为校内师生云客户端提供上课和实训所需的软件与工具在线服务,各二级学院或部门不再需要单独采购大量本地存储磁盘和预装教学需要的种类繁多的平台系统软件和开发工具,更不用担心服务器硬件扩展、软件升级等维护问题,计算机机房中上课所需要的课程资源、软件工具等均可存储在云计算数据中心,机房中的电脑和师生的移动设备如云终端设备、笔记本电脑等不再需要单独安装大量的软件资源,数据中心统一配备云服务专业技术团队负责维护和管理系统运行,这无疑会大大节省的学校在信息化机房建设的资金和时间投入,也大大提高了学校IT资源的整体效益。
二、云计算三种服务模式在数据中心建设中应用分析
目前,云计算服务模式由如下三种架构,用户可以根据自己的业务特点选择一种或多种服务模式,这里根据高职院校数据中心建设与师生需求特点简要分析这三种云计算服务模式的应用区别。
2.1 SaaS模式
SaaS的技术特点是:云数据中心根据云客户端的软件应用申请下发相应的软件系统和软件工具,对使用者来说,节省了在本地网络购置服务器硬件和软件以及应用授权上的开支,也无需单独安装工具和软件;而对云数据中心来说,只不过是一个客户应用请求而已,无需额外增加投资,只需下发一个服务即可。
譬如,学校计算机实训机房,可以根据课程所需要的软件环境,随时向云数据中心在线动态申请相应的软件,数据中心通过虚拟化桌面,给师生终端批量下发上课需要的教学与实训软件即可,完成教学和实训任务后可以随时释放这些应用,这无疑会大大减少二级部门在实训机房上的投资,也减轻了机房管理团队的工作压力。
2.2 PaaS模式
PaaS模式依赖于在云数据中心构建的一套完整的虚拟化平台为客户提供所需要的开发工具如Apache、MySQL、JBoss Application Server以及应用程序开发库和接口等资源,云客户端可以在线设计、创建、开发、部署以及管理自己的应用,但无需要管理这些平台运行环境。譬如,学校师生可以充分利用PaaS服务模式,无需搭建和管理自己的软件开发环境,只需在线申请使用云数据中心提供的多样性开发平台即可,这为师生从事软件开发以及项目研究提供了灵活丰富的资源平台。
2.3 IaaS模式
IaaS是以提供网络基础设施如CPU、内存、网络以及存储等IT资源作为服务形式,云用户可以向云数据中心申请这些软硬件资源,构建属于自己的虚拟运行平台,用户可以在该平台上部署运行自己的应用软件,并能够控制属于自己租约的IT资源。譬如,学校可以针对某些课程构建专门的实训室,通过申请IaaS,二级学院可以拥有自助式服务模式,在该平台上通过云计算中心提供的基础设施,构建一套适合上课和实训的虚拟实训室,既能够满足正常上课和实训需要,又能提供师生软件项目研发等需要。
三、虚拟化技术在数据中心建设中的应用分析
虚拟化,就是通过虚拟化软件在一台计算机或服务器物理主机上虚拟出多台可以同时运行多种操作系统的逻辑主机,如图1所示,每台虚拟的逻辑主机上的应用系统可以相互独立地运行。虚拟化技术实现了对IT软硬件资源的动态按需分配、灵活规划调度、虚拟机间资源共享等功能,大大提高了对IT资源利用效率[2]。
在学校云计算数据中心部署虚拟化,可实现对学校信息化基础设施等资源的利用、减少软硬件采购资金的重复投入、节省机房空间、提高设备集成性、减少能耗、降低管理成本、缩短建设周期等。利用虚拟化技术,将一组物理硬件资源组织成为逻辑上的资源池(Resurce Pool),并通过管理平台,实现动态、均衡分配资源池中资源,也可根据业务需求和业务重要程度预设服务策略,通过监控资源池的使用情况,智能地为虚拟机调配资源,从而实现对IT资源的有效、高效利用和管理。
四、基于虚拟化技术的云计算数据中心建设方案
学校在进行云计算数据中心设计时,应抛弃传统的计算、存储和网络架构模式,将计算与交换集成在一个统一的网络平台上,实现网络融合、减少网络汇聚与接入层的分段,在统一的管理域内,利用数据交换核心,减少I/O适配器、布线及设备,实现交换、存储与高性能数据计算,并实现对云数据中心软硬件资源的集中管理。主要建设模块包括:
4.1云计算基础架构
云计算基础架构是利用虚拟化技术,对服务器资源、存储与灾备系统、网络设施等进行有机整合,形成虚拟化计算资源池、存储资源池、网络资源池等共享资源平台,对云客户端实现需支付服务、自动分发部署,并具备容灾热备、异构迁移等功能。
4.2云计算运营行管理平台
云计算数据中心由大量的物理与虚拟化IT资源,为了保障整体系统的正常运行,必须构建一套对这些IT资源进行统一运行监控、资源调度、服务支付、故障处理、计费记账、性能优化、配置修改、安全策略等管理平台,使日常运维、管理、控制等更加科学、有效和及时。
图2是学校云计算数据中心网络架构拓扑[2]图。
1、虚拟化基础架构设计
(1)虚拟化计算资源池设计
计算虚拟化即服务器虚拟化,是通过虚拟化操作系统来实现的。在服务器节点或服务器资源池上,安装虚拟软件系统如vSphere,对宿主服务器的CPU、内存、网卡以及I/O等进行虚拟化处理,安装多个可运行不同操作系统的逻辑服务器(如图3所示),并根据业务划分安装相应的应用软件和工具,如此,一台物理服务器就似乎变成了多台服务器在运行,从而大大提高了计算资源的利用率,降低了采购和建设成本,增强了系统的配置灵活性和可用性。
设计要点:
1)企业级刀片服务器控制箱,配备冗余电源、风扇和机箱管理模块,内置FCoE交换机,配置足够的内部10Gb服务器端口和万兆SFP+模块。
2)物理服务器配置足够的CPU和内存,支持虚拟化集群,以保障虚拟化平台的构建。
3)多路虚拟CPU(vSMP),以快速部署批量并发云端用户的服务请求。
4)在线添加虚拟CPU(vCPU), 虚拟内存(vMemory)和虚拟磁盘(vDisk),保证系统无间断运行。
5)支持在线虚拟机间、虚拟机与物理机间业务迁移,实现对业务动态调控、负载均衡处理。
6)支持Windows、Linux等主流操作系统,并兼容VMWare、Hyper-V、RHEL-KVM以及华为等业界主流虚拟化运行管理平台
(2)存储资源池设计
存储资源池是云计算数据中心建设的重要内容,是提供云端信息服务、数据存储与管理、数据共享与检索以及数据灾备的重要平台。采用光纤存储系统SAN架构,配置冗余高速背板带宽的光纤交换机,满足不同云计算用户的访问。设计要点:
1)具有高速缓存的SAS磁盘阵列控制器,支持多种RAID方式,具有在线动态调整LUN的容量、在线修改RAID级别等功能。
2)支持FC、NAS、iSCSI应用以及配置10Gb/s FCoE、8Gb/s FC光纤通道等端口。
3)支持固态硬盘(SSD)、高速硬盘(比如15000转)、高容量SATA硬盘
4)实现数据在不同LUN之间的动态、在线无中断数据迁移
5)具备定期增量备份(Incremental Backup)、全量备份(Full Backup)和差异备份(Differential Backup)等备份方式。
6)基本的硬件冗余,如缓存、处理器、适配器卡、电源及风扇等。
(3)桌面虚拟化设计
桌面虚拟化[4]是云客户端共享云数据中心资源的重要应用平台,是云数据中心根据用户业务需要,对大批量并发用户动态、统一或个性化下发桌面应用的手段,包括桌面操作系统、应用程序等应用,减少客户端预装系统,使用户云端设备成为瘦客户端(Thin Client),网管人员可以通过专业化管理工具如VMware vCenter实现对云平台上的客户端集中管理。设计要点包括:
1)可按用户不同业务,将一朵“大云”切分成多个逻辑“子云”,各“子云”在资源申请与分配、生成与交付等管理流程,可独立于上层“大云”系统门户,以增强服务支付的灵活性。
2)虚拟桌面系统能够支持多种前端协议,如HP RGS、PCOIP、RDP等。
3)支持内置企业级数据库功能,虚拟桌面无需再购买第三方的数据库管理系统
4)能够快速分发应用程序,并可以运行在PC、移动终端、云终端等不同操作系统平台上,能够转换成EXE或MSI格式,方便用户个性化应用和分发(如计算机机房内部)。
2、 统一交换网络设计
随着10GB以太网应用的普及,基于FCoE和无损10GB以太网技术已经在云计算数据中心建设中被采用,为实现将SAN存储数据流、计算数据流和普通交换数据流整合到一个统一网络交换平台提供了较充裕的带宽,既降低了网络建设的复杂度与投资,又能满足大量云客户端对高带宽、低延迟、安全性和可靠性的需求。核心交换机和存储交换机SAN应配置足够的10GB网络端口,用于与计算资源池中的服务器、存储资源池中控制器、连接,并具备跨机箱10GB智能堆叠、支持FCoE协议等。
3、统一管理系统设计
虚拟化数据中心IT资源庞大,为了便于资源管理、动态调配,需要一套功能强大的云管理工具平台,实现对数据中心的计算资源池、网络资源池、存储资源池的统一管理、优化和协调,并具备虚拟桌面分发、资源运行监控、安全策略配置及资源优化等功能,从而提高对云计算数据中心运行管理的自动化和智能化。
4、 安全策略
传统安全措施仍需要在云计算中心进行强化,包括防火墙安全策略、入侵防御系统IPS、VPN隧道技术、防病毒软件、数据灾备、接入认证等措施,保障前端网络的接入安全。但在虚拟化运行平台上,由于大量虚拟化系统的应用以及大量云端用户开放性地接入数据中心,这就对网络安全提出了更高的要求,因此,数据中心安全方案可以选择基于虚拟化技术平台的深度安全管理软件,如趋势科技的Deep Security、VMware的VMware vShield等,保障后端虚拟化系统和各种资源池的运行安全。
五、结语
以往校园数据中心建设、业务扩展等都需要重新进行大量软硬件的采购预算,即使是一个业务量也要走一遍从申报计划、制定标书、招投标、采购等一系列建设流程,大量这类“单个业务”占据了不少软硬件资源,利用率低下,运行成本和管理成本高。
因此,采用虚拟化和云计算技术,只需在原有系统上添加一套虚拟计算和服务即可。譬如,过去每年都要投入大量人力、物力、时间等规划建设计算机实训室或升级原有计算机实训室的运行平台,如今,利用云计算数据中心,采用SaaS或PaaS模式,二级学院随时可以构建教学实训环境,并且随时得到最新应用系统,让各二级学院计算机相关实训室由“有型”变得“无型”、由固定变成可移动。
参 考 文 献
[1]孟凡立 徐明 张慰.基于云计算的高校数据中心设计与实现[J].现代教育技术.2012(3)99-103
[2]李丹 陈贵海 任丰原 蒋长林 徐明伟.数据中心网络的研究进展与趋势[J].计算机学报.2014(2) 259-274
【关键词】 机房蓄电池;在线检测;维护;集中管理
0 引言
随着各行业数据中心建设的飞速发展,数据中心机房的设备承载压力逐渐扩大,高频开关电源、不间断电源(UPS)等电源设备的数量也随之急剧增加,从而使得蓄电池得到了广泛的应用。合理可靠地对电池进行管理和维护,能够保证电池有较长的使用寿命,从而达到保证核心设备不间断用电并节约维护资金的目的。因此,在核心设备用电源系统的维护中,蓄电池的维护管理占了相当大的比重,怎样才能充分发挥蓄电池作为后备电源的作用,使用中尽量达到或接近其设计寿命,就成了维护人员需要深入探讨的一个问题。
1 影响电池寿命的因素
目前,阀控密封铅酸蓄电池使用较多的是2V系列和12V系列。这两种电池的寿命差别较大,一般2V系列的设计寿命是8~10年,12V系列的设计寿命是3~6年。考虑到价格因素,目前在在系统中对UPS一般配置的是12V系列的电池,对高频开关电源一般配置的是2V系列的电池。
一般蓄电池制造商提供的蓄电池设计寿命为特定环境下的理论值,实际使用寿命与电池室的环境温度、整流器的参数设置、日常维护以及运行状况有很大关系。
1.1 环境温度的影响
环境温度对蓄电池使用寿命的影响很大。环境温度的升高,将加速电池板栅的腐蚀和增加电池中水分的损失,从而使电池寿命大大缩短。一般情况下,温度每升高10℃,电池使用寿命将减少50%,温度越高影响越大。在核心设备用阀控密封铅酸蓄电池行业标准YD/T799-2002中规定,高温加速浮充寿命试验是以环境温度55℃下42天的一个充放电试验折合一年的正常使用寿命,由此可见高温对电池寿命的影响。蓄电池的最佳使用环境温度为20~25℃。
1.2 充电不足
在正常条件下,电池在放电时形成硫酸铅结晶,在充电时能较容易地还原为铅。如果使用不当,例如长期处于充电不足的状态,负极就会逐渐形成一种粗大坚硬的硫酸铅,它几乎不溶解,用常规方法很难使它转化为活性物质,从而减少了电池容量,甚至成为电池寿命终止的原因,这种现象称为极板的不可逆硫酸盐化。
1.3 过度充电
蓄电池在长期过充电状态下,正极因析氧反应,水被消耗,氢离子浓度增加,导致正极附近酸度增加,板栅腐蚀加速,使电池容量降低。同时,因水损耗加剧,使蓄电池有干涸的危险,从而影响电池寿命。
1.4 过放电
电池的过放电主要发生在交流电源停电后,蓄电池长时间为负载供电。当蓄电池被过度放电到终止电压或更低时(源于电源本身对电池放电终止电压设置不准,或有的根本没有过放电保护装置),导致电池内部有大量的硫酸铅被吸附到蓄电池的阴极表面,硫酸铅是一种绝缘体,必将对蓄电池的充放电性能产生很大的负面影响,因此,在阴极上形成的硫酸铅越多,蓄电池的内阻越大,蓄电池的充放电性能越差,使用寿命就越短。一次深度的过放电可能会使电池的使用寿命减少1~2年,甚至造成电池的报废。
1.5 长期处于浮充状态
蓄电池在长期浮充状态下,只充电而不放电,其对电池的影响与过度充电相同。
2 在使用和维护过程中应注意的一些事项 2.1 使用环境
蓄电池应安装在远离热源和易产生火花的地方,最好在清洁的环境中使用,电池室应通风良好,无太阳照射,温度保持在20~25℃。
2.2 电源的参数设置
一些参数如浮充电压、均充电流、均充频率和时间、转均充判据、温度补偿系数、直流过压告警、欠压告警、充电限流值等要跟各蓄电池厂家沟通后确定。
2.3 容量配置
一些电源所配置电池的容量偏小,致使交流停电时电池大电流放电,影响电池使用寿命。通常电池配置容量应在8~10小时率。
2.4 日常维护
也许是受到了一些电池厂家以前对阀控式蓄电池冠以“免维护”名称的影响,个别维护人员便错误地认为阀控式电池无须维护,从而对其不闻不问。其实,蓄电池的变化是一个渐进的过程,为保证电池的良好状态,作好运行记录是相当重要的。每月应检查的项目如下:单体和电池组浮充电压;电池的外壳有无变形、膨胀、渗液;极柱、安全阀周围是否有渗液和酸雾溢出;连接条是否拧紧。
2.5 实时数据监测
实时监测单节电池的电压,整组电压、电流、环境温度。实时监测电池运行状态,过限值告警,并及时处理。
2.6 均衡维护
前面已经讲解过通讯设备的供电系统原理,由于整流设备是对整组电池进行充放电,充电设备只对其整组的端电压实时采集记录,智者整组端电压达到一定电压时,充电设备才会认为完毕,然而在整个充电过程中,每个电池的参数或多或少存着差别,则有个别电池一定会过冲、或欠冲,久而久之,往复循环,过冲和欠冲的电池都会受到很大程度上的影响,并且会加速电池的老化,甚至有冲爆电池的可能。试想一下如果在充电时,让每节电池都平均分配电量,使其达到一个最佳的状态,这样会大大延长蓄电池的使用寿命,则均衡维护的作用就尤为突出。
2.7 内阻测试
一种新的测试手段,即通过测量电池的内阻来确定电池的状态,被证明是非常可靠的方法同时也是负载测试的廉价补充或替代手段。由于电池的内阻与它本身容量有着密切联系,因此可以在放电期间利用这个参数来预测电池的性能,电池的内阻与容量有着紧密的联系,不过两者之间并非一般的线性关系。目前虽然可以测量出电池的内阻,但是这个参数并不能直接用来指示电池的容量,它只能是在电池性能已严重退化,并将影响整个系统正常使用时,做为一个警告指示。通过对大量的各种类型电池的测试表明:如果电池的内阻增至高于其基准值,即电池在最佳状态下的内阻值的25% 时,这个电池将无法进行容量的测试。
2.8 放电试验
对于交流供电正常的交换局内的UPS电源所配置的蓄电池,应周期性地进行核对性的放电试验。对于开关电源所配置的2V电池,建议每年做一次,放出额定容量的30%~40%;对于UPS所配置的12V电池,建议每季度或半年做一次,放出额定容量的30%~40%;记录电池单体电压和电池组总电压,及时更换故障电池。
2.9 容量测试
对于2V电池,每三年应进行一次容量测试放电,放出额定容量的80%;对于12V电池应每年进行一次容量测试放电,放出额定容量的80%。详细记录放电过程中各单体电压和电池组总电压,进行分析,及时更换容量较差的单体电池。
2.10 放电前的准备工作
放电前,先检查整组电池是否拧紧,再根据放电倍率来确定放电记录的时间间隔。在对一组电池放电前,应先保证另一组电池充好电。放电过程中要密切注意比较落后的电池,以防止某个单体电池的过放电。并将此次记录与前次记录进行比较,对整组电池的运行状态做到心中有数。
3 集中和远程监控
蓄电池在线诊断维护系统是为实现机房蓄电池安全使用为目的,及时排除隐患,避免不必要的损失。另一方面为满足用户对电源状态的集中和远程监测的需求,即在值班员的联网电脑上可以看到纳入监测范围的源设备的实时运行状况(含告警),便于即时掌握设备的整体状况。
蓄电池在线诊断技术就是通过在线监测蓄电池运行中的各项关键参数,并对监测数据进行自动分析和诊断,诊断结果以单体电池的实际放电容量或健康状态表示。其中电池内阻是较为关键的一项性能参数值,其能够有效反映蓄电池内部健康状态,因此此次蓄电池监测需把实时数据监测、均衡维护、内阻监测功能列为重点。提供安全、准确、便捷的蓄电池在线实时监测功能,保障电源系统的稳定运行。基于RS232、TCP/IP网络与监控中心管理软件通信,灵活组网搭建大范围、分布式的集中监控管理系统。如图1为内网构建图,图2为外网构建图。
4 结束语
为了营造一个安全、可靠的机房环境,推进以风险预警为基础、过程管理为手段、事故分析为提升的全过程安全风险管理。随着数据中心机房各类设备日益增多,机房内的交换设备以及供电设备(如交流配电屏、直流配电屏、蓄电池组以及用于提供备用电的油机等)则是保障各类业务安全运行的关键和基础,其重要性不言而喻。数据中心机房电源起到极其重要的作用,蓄电池则是保障设备运行的最后一道屏障,应给予足够的重视,需要一套高性能的蓄电池在线检测维护系统,预防运行蓄电池组中部分过充损坏和长期亏电失效的落后电池,延长蓄电池使用寿命,提高电力系统的安全性;定期对性能差异蓄电池进行补偿性维护,从而达到活化电池目的;实时监测蓄电池的运行状态。
参考文献
[1] 秦鸣峰.蓄电池的使用与维护[M].北京:化学工业出版社,2009.7.
关键词:银行数据中心;运维方案;经济性
中图分类号:TP308
许多银行将安全性、可用性、易维护、可扩展性作为数据中心建设重点,不注重其经济性。数据中心的建设是一笔庞大的开支,银行做任何投资时都要考虑到其回报率,在投资回报率的压力下,数据中心的规模一般不会很大。而金融业的快速发展又使得银行的业务迅速增加,当业务量暴增时,数据中心就必须扩建才能满足工作需要。实际上,不断扩建的过程中提高了数据中心的建设成本,而且扩建的效果不太好,扩建又会造成资源的浪费,同时还使数据中心的运维风险增加,不利于银行的健康发展。这种数据中心建设策略不利于银行提高工作效率和降低成本,无法为客户提供全方位的多元化服务,银行的服务水平降低,进而不利于银行的发展。
在银行数据中心建设中,必须注重其经济性,注重数据中心的扩展性,确保在数据中心上的每一笔投入都能获得最高的回报率,减少资源浪费,并且使数据中心最大限度提高银行工作效率。那么,其经济性又可以从哪几个方面体现呢?
1 数据中心的选址
数据中心选址是数据中心规划中最为基础的内容,科学合理的选址可以大大节约资源,降低投资成本。商业银行的数据中心一般是采用“两地三中心”的规划方案,也就是生产中心、同城灾备中心、异地灾备中心在两个城市中。
1.1 生产中心和同城灾备中心选址
生产中心与同城灾备中心处于同一个城市里时,二者之间的距离必须在20km以上。为了保证同城灾备中心于生产中心之间的顺畅交流,二者之间应建立起交通通道,使得物质、人员可以快速实现转移。而同城灾备中心要对各种灾难性事件进行高效率的处理,因此,在选址时就要考虑到周围的供电状况、市政基础设施服务状况、通信环境、自然环境等。当然,选址的地价也是需要重点考虑的一个问题。
生产中心与同城灾备中心的选址应注意以下几点:
第一,二者之间的距离大于20km。
第二,周围需要有良好的供电环境,保证其基本电力需求。
第三,两者均需要接入城市骨干通信环网,但是需要是在不同的通信节点上接入通信网。
第四,生产中心与同城灾备中心之间有良好的交通环境,能够迅速完成人、物的转移。
第五,地价较低廉,有良好的排水条件。尤其是在多暴雨的城市中,选址时尽量选择地势较高的地段,确保排水的顺畅。
1.2 异地灾备中心选址
异地灾备中心的主要功能就是:发生重大灾难性事件时,确保业务应用系统的正常运行,尽量降低同城灾备中心在进行灾难恢复时的风险。一般而言,异地灾备中心与生产中心位于不同城市,选址时主要考虑的因素是:社会经济人文环境、自然地理环境、人才环境、基础设施环境、成本因素、周边环境因素和政策环境因素。其中,自然地理环境是需要着重考虑的要素,而且这几大要素又往往是相互制约的。当选择在一线城市时,其成本会很高,但是人才环境、基础设施环境会很好;如果选择在三四线城市中,其成本大大降低,但是人才瓶颈就很难解决了。
之所以要特别注重自然地理环境是因为,如果异地灾备中心的自然环境较恶劣,容易发生自然灾害的话,那么它本身就存在了很大的灾害风险,当发生灾难性事件时,很难确保业务应用系统的正常运行。
从经济学的角度来说,异地灾备中心选址需要注意以下几点:
第一,与生产中心位于不同城市,距离在300km以上。
第二,城市可以提供满足需要的人力资源,政策环境优。
第三,自然地理环境好,自然灾害少。
第四,城市的通信网发达。
第五,有丰富的电能资源,电价低廉。
2 数据中心基础设施规划
从现实环境来看,银行数据中心改建、扩建已不鲜见,那么为了节约资源,为客户提供更高满意度的业务服务,银行在建设数据中心时应尽量扩大规模,从银行未来很长一段时间的发展角度思考问题。数据中心的规模除了要满足当前的业务需要,还要满足未来的业务需求,至少留出三分之一的空间给未来的新兴业务。
据悉,功耗带来的成本压力已成为银行数据中心的一大挑战。因此,建设数据中心时要考虑到电价,还要考虑到服务器的耗能,尽量选择节能的服务器。
在数据中心机房的功率密度越来越高的情况下,要注重制冷系统的规划,空调位置靠近机柜、按照冷热通道分离的方式进行制冷系统的规划,尤其要重视热点区域的制冷系统的规划。
在通信布线规划上,在垂直和水平方向上均拥有两路以上相互分离的入户光缆通道,经过不同的方向进入数据中心通信机房。由于数据中心对防火性能要求较高,因此布线时尽量减少铜揽的使用,优先选择光纤的方式进行线路的布设。为了有效提高防火性能,可以在线路布设完成后,在线缆上涂刷一层阻燃剂。
3 绿色数据中心理念
随着不可再生能源的迅速消耗和自然环境的破坏,可持续发展理念提出,人们也越来越重视自然环境的保护。银行数据中心建设中,为了降低成本,遵循绿色数据中心理念势在必行。在数据中心建设中,尽量使用可再生环保的资源,提高资源利用率。
绿色数据中心最显著的特点就是能耗的大大降低,在数据中心的使用中,机房的计算机设备、电气设备、照明系统等都属于节能型设备,能够最大限度的利用资源,并减少污染物的排放。
在节能问题上,首先在设备的选型上注意其能耗,尽量选择能耗低的设备。比如说,运用UPS来减少电源系统的损耗;用刀片服务器替代传统的机架式设备;采用节能型照明设备。再比如说,在热点区域使用太阳能空调,达到节能的效果。其次,尽量减少设备,也就是说,提高每个设备的利用率,尽量做到一机多用,这样不仅可以达到节能的目的,还可以节约空间,另外也能适当减少制冷设备的利用。再次,尽量利用自然资源。在制冷系统上,并不是所有的制冷都需要运用制冷设备来完成,可以根据自然环境的变化,充分利用室外的冷空气,利用新风节能系统将室外的冷空气引入室内,并将室内的热空气排出,或者说将室内的热空气排放到人行通道中,这样又可以减少人行通道中的制暖设备,这样就能大大节约能源,还能减少对环境的污染。
除了前面提到的几点节能措施外,为了实现绿色数据中心,应对数据中心进行全面规划分析,任何一小点都不能放过,尽量减少能耗,充分利用自然资源,节约资源。
4 结束语
银行数据中心的建设是一项非常复杂的工作,技术含量高,涉及学科多。在当今银行业务迅速增加、银行规模不断扩大的形势下,银行要注重数据中心建设和运维的经济分析,从数据中心的选址到机房、通信系统等基础设施的建设,再到各个设备的选型和布置,对每个部分进行经济分析,力求建设出最优的数据中心,提高银行工作效率,提高服务水平,促进银行的可持续发展。
参考文献:
[1]胡滨.数据中心建设和运维方案的经济性分析[J].中国金融电脑,2010(01).
[2]李小庆.基于银行发展战略的数据中心管理[J].中国金融电脑,2010(02).
[3]赵磊.银行数据中心核心网络的构建研究[J].科技传播,2013(4).
近年来,随着国家宽带提速,互联网+战略逐渐向各行各业加速渗透,带来互联网流量快速增长,拉动对数据中心等互联网基础设施需求的增长,加速推动我国IDC行业发展重返快车道。2014年我国市场规模达到372.2亿元,增长率超过40%;2015年,随着地产、金融等行业进一步渗透进入IDC市场,受供需两端快速增长的影响,2015年继续保持高速增长态势,市场总规模达到518.6亿元,增长率39.3%。
中国IDC圈预测,未来三年整体IDC市场增速将保持在35%以上,到2018年,中国IDC市场规模将接近1400亿元,增速达到39.6%。同时,据2015年工信部的报告称:我国拟在2015年建设255个数据中心,但是主要实际使用率主要以小型数据中心为主(总设计服务器规模约728万台,但是实际投产服务器约为57万台,仅占设计规模的7.8%,其中超大型数据中心投产率1.8%,大型数据中心21%,中小型40%)。顺应运营商面向以DC为核心的经营模式的转型,瑞斯康达创造性推出数据中心解决方案,该方案旨在为客户构筑高效、高带宽、易演进的数据中心网络,助力运营商更好地扩展业务。
云数据中心SDN交换机解决方案
瑞斯康达可提供两套解决方案,基于SDN的Overlay解决方案和基于堆叠的传统解决方案。
SDN Overlay解决方案包括:SDN交换机和控制器两部分,Controller负责Overlay业务的全局动态部署。方案支持网络Overlay、主机Overlay和混合Overlay三种组网模型。
网络Overlay场景解决方案:主要面向对虚拟化平台无特别倾向的客户群,比如运营商,所有Overlay设备都是物理交换机,服务器无需支持Overlay,该网络Overlay组网的服务器可以是多样的,可以支持虚拟化服务器和物理服务器接入。
主机Overlay场景解决方案:主要面向对虚拟化平台有强烈倾向和原有物理服务器已经选择部署了虚拟化服务器,该方案不能接入费虚拟化服务器,因此该方案主要定位是配合VMware、KVM等场景Overlay方案。
混合Overlay场景解决方案:物理交换机和服务器(vS)都可以作为Overlay边缘设备,组网更加灵活,可接入各种形态服务器,既可以完美发挥硬件网关的高性能,又可以完美匹配虚拟网关的业务灵活性。
针对传统数据中心瑞斯康达亦可提供基于横向堆叠的网络虚拟化解决方案,该方案具备:
易扩展:多台物理设备虚拟成逻辑上一台;
高性能:性能提高一倍,50ms收敛能力;
易管理:统一的管理界面,简化管理;
具有稳定、安全、应用更加广泛的特点。
方案具有高性能、ISF堆叠和向未来演进的SDN技术特色:
高性能:提供GE/10G/40G接入能力,汇聚提供40G,未来可平滑升级至100G接口速率,提供高性能无阻塞网络;
ISF堆叠:面向数据中心市场全系列交换机支持ISF横向堆叠方案,提供10G/40G接口堆叠能力;
SDN:支持OpenFlow、VxLAN。
云数据中心互联解决方案
云数据中心之间需要进行数据传输或备份,对数据中心之间传输网络的安全可靠性、实时传输性能及大容量传输能力有很高的要求。瑞斯康达基于OTN/DWDM系统的DC互联传输方案,可点对点组网,或组环网,在主备数据中心之间搭建主备传输链路,实现海量数据的可靠传输。根据需求灵活中继,实现异地灾备数据的长距离传输。目前,已在中国人民银行、民生银行、中信银行、鹏博士集团、中信信诚、苏州财政局、石家庄财政局等得到了成功应用。
方案优势:
多速率支持:支持1G/2G/4G/8G/10G等FC速率,支持GE/10GE以太速率等;
大容量传输:支持40λ×10G传输容量,点对点实现至少400G;
双路由保护:支持OLP线路保护,实现数据的双路由可靠传输,满足DC数据传输高可靠性要求;
远距离传输:结合光放大中继增强长距传输能力,满足异地灾备长距离传输需求;
低延时传输:利用刚性管道透明传输,实现数据低延时传输,满足数据传输的实时性要求;
“中国数据中心的建设呈现出两个明显的趋势:一个是数据中心向大型化和小型化分化,中等规模数据中心不断减少;另一个趋势是新建的云数据中心越来越多,其数量是普通数据中心的8倍。从这个意义上说,提升云数据中心的能效对于整体IT行业的节能降耗意义重大。”施耐德电气全球高级副总裁、APC大中华区总裁黄陈宏博士在日前举行的第三届“2014施耐德电气数据中心创新峰会”表示。
提升云数据中心的能效正是此次会议重点关注的话题之一,这也是当下数据中心市场的讨论热点和厂商角力的焦点。黄陈宏博士把高能效云数据中心的建设分为三个阶段,即云就绪、云能效和云持续。所谓云就绪是确保数据中心及时灵活交付云服务;云能效是指通过IT和能源技术的协同提升数据中心的能源利用效率;云持续是指数据中心价值的持续优化。“不同阶段工作重点有所不同,但能效的管理和优化则是贯穿始终的。”黄博士说。
施耐德电气信息技术(中国)有限公司副总裁金永哲对此进行了进一步的解释。他告诉记者,提升云数据中心能效需要一个全生命周期的解决方案,也就是要从数据中心的规划、设计、建设、运营等各个环节进行管理。“实际上,是否系统地提升云能效对数据中心的耗电量会带来很大的影响。以一个10兆瓦IT负载的数据中心为例,一年的电费开支可能会差上亿元。”金永哲说。
据悉,在此领域施耐德电气此前先后推出过众多创新性的产品和解决方案,在市场颇受欢迎的InfraStruxure英飞集成系统、预制模块化数据中心解决方案、DCIM软件StruxureWare等都出自施耐德电气。在此次峰会上,施耐德电气再次丰富了其产品和解决方案,推出了一系列新品,其中包括:采用创新的施耐德Econversion超级能效模式的Galaxy VM不间断电源,效率高达99%,具有高可用性、跨平台、易安装、易配置等特性;新一代紧靠热源的创新制冷产品InRow 2代行级制冷,可随负载的变化而调整制冷量和风量,能最大限度地降低制冷能耗;预制模块化数据中心解决方案,能显著简化数据中心的规划、设计、建设数据中心的过程,使得数据中心的部署更快速、更可预测。
施耐德电气还在中国市场推出了基础设施运营服务。即由施耐德电气来承担客户数据中心基础设施运维服务,以帮助客户最大化基础设施的可用性和最小化停机的风险,使企业管理者专注于其核心业务。
太极股份于2010年成功上市,并将数据中心业务确立为新的发展阶段的核心单元,太极数据中心事业部遵循数据中心建设与业务发展及IT战略相融合的系统方法论,在深刻理解用户业务和发展模式的基础上,创造了以业务应用系统及基础设施工程相融合的新型服务模式。
多年来,太极股份作为国有控股的上市企业以及国内优秀的IT服务供应商,依托全面整合的资源,凭借不断创新的理念,依靠雄厚的综合实力和精湛的专家队伍,一直引领着数据中心建设的发展方向,并且获得了广大客户的高度认可。
综合实力
太极股份数据中心事业部具有以下业务能力:
第一,咨询与设计能力。凭借丰富的行业知识和工程实践经验,以及一流的咨询团队,太极数据中心事业部为数据中心客户提供基于行业的IT规划及高端业务咨询设计服务,包括数据中心场地建设及IT基础平台的搭建等。
第二,基于方法论的项目实施能力。
经过长期工程实践的积累,太极数据中心事业部逐步建立了成熟的项目实施和管理方法论体系,覆盖数据中心的咨询、设计、实施、运维、测评、节能环保等不同类型项目。基于方法论体系,太极股份数据中心事业部形成了业内领先的工程实施能力,尤其是大型的复杂工程项目实施能力。
第三,创新能力。坚持自主创新、创新与应用相结合,太极数据中心事业部致力于提升自身在行业内的竞争力。目前,太极数据中心事业部拥有突出的关键技术和标准研究能力,拥有一流的解决方案和产品创新能力。
为数据中心客户提供以云架构为基础的云服务,创新数据中心技术和产品,推动解决方案和服务产业化。
业务范围
太极股份数据中心事业部的业务包括咨询设计、安装调试、系统集成、项目管理、运行维护和运营外包等一体化端到端服务组成。
太极数据中心充分考虑客户的业务、技术和运行现状,为客户提供数据中心建设的整体框架模型,根据客户要求在各个方面进行深入调研及规划,协助客户分析、整理出IT架构对基础设施建设的功能布局、平面布局的要求,并对后续设计、实施和运维提出系统性的指导建议。
经过前几年UPS厂商之间的并购,UPS产品供应商大多已成功转型为数据中心整体解决方案供应商。包括施耐德、伊顿、艾默生、威图等在内的国外厂商都已经将业务重点转向为企业提供端到端的数据中心解决方案和服务。比如,施耐德在不断完善英飞集成系统的基础上,又于2011年推出了数据中心管理软件。再比如,威图RimatriX5整体机房解决方案包括UPS、制冷、系统管理软件以及机房防火安全墙体等。
台达、科华等国内厂商也通过不断完善自身的产品线,逐渐具有了提供整合的数据中心解决方案的能力。台达从UPS开始,不断加入新的产品线,包括机柜、机房精密空调等产品,从而构成了较完整的数据中心解决方案。现在的用户倾向于站在整个数据中心的高度去审视所要采购的产品或方案的成熟度和可用性。因此,那些有能力提供整体解决方案的数据中心基础设施供应商更受到用户的青睐。从目前情况看,数据中心基础设施中的硬件的整合已经达到了较高水平。可以预见,未来数据中心的监控与管理将成为数据中心厂商竞争的焦点。
未来的数据中心一定是高效、节能的数据中心。因此,各厂商在提高数据中心的整体效率,实现数据中心的绿色化方面下了很多功夫。从各厂商提供的数据中心整体解决方案来看,空调这个部件最受重视。比如,施耐德电气的制冷整体解决方案实现了硬件、软件和运行管理系统的集成。台达推出了RoomCool机房精密空调和Rowcool机柜式精密空调,从而进一步完善了其InfraSuite数据中心解决方案。威图可以为客户提供一站式的高效液冷系统解决方案。
2011年,集装箱数据中心解决方案也崭露头角。包括惠普、IBM、华为赛门铁克、中兴通讯、天地云箱、Power Active等在内的国内外厂商都能提供集装箱数据中心解决方案或其中的重要部件。
威图RimatriX5整体机房解决方案
威图致力于数据中心整体解决方案的创新与研发,并为未来的数据中心和云计算服务物理基础设施提供一站式的产品和服务。
威图RimatriX5整体机房解决方案主要包括以下部件。第一,威图高效率液冷系统(LCP+IT chiller)。威图高效液冷系统可为高密度应用提供高效、可靠、节能的一站式解决方案,优化制冷效率,降低PUE,利用自然冷却大幅节能。LCP为服务器机柜提供高效率的换热和均匀送风,IT chiller则为LCP提供不间断的冷量来源。第二,可扩容的模块化不间断电源(UPS)组件。威图的模块化UPS可以非常方便地实现单机冗余(N+1)或多机冗余2(N+1)配置,在低负载情况下可实现95%以上的效率,有效降低能耗。从小型的企业私有云(一个小型UPS柜内集成主机、电池、监控和电力分配单元)到大型的IDC服务云(多UPS大功率并机输出),威图模块化UPC PMC都可以从容应对。第三,可扩展的安全机房维护结构以及防火安全墙体。通过在数据中心安装防火安全墙体来代替传统的机房墙体,威图可以帮助客户快速部署一个防护等级很高的机房空间。安全墙体可以快速组装、扩容和迁移。第四,威图数据中心管理策略平台以及动力环境监控系统(Rizone+CMC)。威图凭借对数据中心的深刻理解,能为用户提供可靠且开放的综合管理平台与动力环境监控组件。
施耐德电气制冷整体解决方案
施耐德电气在制冷领域拥有超过20年的专业经验。施耐德电气提出了端到端制冷解决方案的理念,即通过提供在空间层面从建筑级、房间级到行级和机柜级的全方位制冷解决方案,以及在应用层面覆盖IT应用和非IT应用的广泛的制冷解决方案,为客户创造更多价值。
施耐德电气制冷整体解决方案由硬件、软件和运行管理系统构成。硬件包括模块化冷冻水机组、精密空调、气流遏制系统、高架地板和智能气流管理系统。在软件方面,除了提供常规的运行软件外,施耐德电气基于客户对于效率和安全的更高要求,特别提供了自动地板压力控制和热备份运行软件。为保证制冷系统各部件之间良好的匹配,施耐德电气还开发了Master Control运行管理系统。施耐德电气实现了制冷系统从室外冷冻水到市内精密空调的全部硬件的整合,以及软件与硬件的整合,可以满足用户从低密度制冷到高密度制冷的全面需求,此外还实现了对制冷和气流管理的整合。
随着云计算、虚拟化技术的发展,IT设备的运维变得越来越复杂。这就需要制冷系统的运行能够与IT设备的运行实现动态匹配。施耐德电气制冷整体解决方案可以动态地捕捉负载变化,自动进行制冷补偿,并可实现按需制冷和精确制冷,既不会出现由于制冷不足造成热点,也不会出现制冷的浪费。施耐德电气制冷整体解决方案已通过TUV测试程序认证,并被全球多家数据中心所采用。
施耐德电气制冷整体解决方案整合了制冷系统中的各种硬件,特别是冷冻水机组,实现了对客户的一站式服务。施耐德电气的冷冻水机组在连续制冷、全工况工作等方面做了特别设计,并且将自然冷却和模块化设计引入到冷冻水机组中,可以帮助客户节约运行成本,并且满足数据中心模块化建设的需求。
台达InfraSuite精密空调系统
台达InfraSuite数据中心解决方案采用集成一体化和系统模块化的设计思想,将供电系统、IT设备机械支撑系统、空气调节系统和管理系统全部整合在一起,具有更好的可扩展性、可管理性和可维护性,能够降低数据中心建设的总体拥有成本,同时提高数据中心基础架构的可用性。
台达InfraSuite数据中心解决方案采用的精密空调主要包括两个系列,即RoomCool机房精密空调和Rowcool机柜式精密空调。
“在这种情况下,数据中心的安全就成为其能否正常提供高效、可用服务的关键。”在接受本报记者专访时,山石网科新技术副总裁王钟认为,传统的数据中心安全解决防护思路难以应对云时代数据中心的发展,“我们需要摆脱以设备为核心的安全策略,从基础架构层面做起,提供整体的解决方案”。
云时代数据中心多重挑战
在云时代,数据中心主要面临两个维度上的安全,一是传统数据中心边界,二是数据中心内部和跨越不同地域的多个数据中心之间的安全。
“云数据中心业务和技术的动态变化和复杂性,给云数据中心的网络安全带来了新挑战。”王钟在接受本报记者专访时表示,挑战源于“服务器和网络的虚拟化、软件定义网络(SDN)和BYOD(Bring Your Own Device,员工携带自己的设备办公)”。
Gartner认为,2012年虚拟化技术已达到了50%的普及率。服务器虚拟化的好处显而易见,但是别忘记了,服务器虚拟化并非完美无瑕。惠普信息安全解决方案技术服务事业部经理陈颢明表示:“以前数据中心的一台物理机只支持一个操作系统,但现在一个刀片可能支持25个操作系统,这就意味着我们原本设定好的安全域的规则被打乱,不同安全层级的信息可能在同一台虚拟机上,造成的后果是权限级别低的用户有可能访问到更高权限级别才能访问的数据,并且带来安全风险。”
从虚拟化技术发展的角度来看,虚拟化数据中心多租户环境的细粒度的管理,以及对内容、应用、身份认证的的安全应对措施,是数据中心安全的关键性问题。
“大多数的识别和安全控制措施基于固定的位置、静态网络或者固定IP,难以应付虚拟机迁移带来的安全问题。”王钟认为,“虚拟化环境的动态特性某种程度上意味着新的安全威胁和漏洞。”
同样地,网络虚拟化将网络服务和物理网络设备分离,网络的部署方式也发生了改变——从设备的手工单独配置方式变为可编程的自动部署,同时网络也可以按需而动。而传统的安全解决方案基于固定物理网络设备的安全技术,面临着动态变化的网络虚拟化的挑战。
与网络虚拟化相似的是,SDN将网络控制与网络的物理拓扑分开。“当网络变成可编程实现的时候,网络安全该如何实现?当网络的控制和管理被虚拟化、集中化之后,安全的管理应该如何解决?”王钟认为,SDN带来的安全问题同样不可小觑。
最后,随着IT消费化的趋势,BYOD逐渐被越来越多企业接受,虚拟化的普及推动了这一趋势的发展。然而,企业在享受到降低成本带来的便利时,也不得不提升应对安全风险的成本。这是因为员工携带的个人设备,往往没有部署相应的安全策略,员工在哪里使用这些设备、通过哪种网络接入企业的业务平台,企业的IT人员往往难以准确了解。同时,员工在使用个人设备办公的同时,往往还进行上网和娱乐等行为。这些都给黑客潜入企业网络提供了可乘之机。
由此可见,相比于传统的数据中心安全防护,云计算时代,尤其是虚拟化技术发展带来的变革之后,数据中心的安全防护对安全设备提出了更高的要求,包括高性能并按需扩展、高可靠保障业务连续性、虚拟防火墙实现虚拟机间的隔离和可视化提供业务可管理等。在王钟看来,“安全即服务和资源、开放可定义、冗余高可靠、分布可扩展和绿色节能将是未来数据中心安全解决方案的关键”。
基础架构层面的整体解决方案
在近日举办的2012RSA中国信息安全大会上,作为云计算技术落地实施的最重要环节,数据中心的安全备受关注。众所周知,数据中心的安全设备必不可少,而且随着这些设备的日益增多,以及业务需求的变化,单一网络安全产品已经无法应对用户所面临的挑战,安全厂商应该从数据中心基础架构入手提供全面的解决方案。
“以往,安全厂商跟用户强调的往往是其产品的性能有多强,速度有多快。但事实上,某一款设备的快慢并不能从根本上解决数据中心的整体问题。”王钟向记者介绍,“站在管理者的角度上,我们首先要思考的是数据中心是否可管理。这个管理需要集中的、智能的、开放的,能够跟数据中心的管理融合起来。”在他看来,只有这几个方面都具备的安全管理架构,才是数据中心所需要的。
要满足集中、智能和开放等条件并不容易,山石网科给出的解决方案是提供基础架构层面的完整的网络安全解决方案,包括数据中心防火墙+弹性安全架构+安全监控和管理等三部分内容。在这个架构之上,山石网科推出了云数据中心网络安全解决方案——云之盾。
“云之盾整合了山石网科数据中心防火墙、弹性安全架构与安全监控与管理方案,具有冗余高可靠、分布可扩展、绿色节能等特点,可以帮助用户轻松应对未来云数据中心面临的各种安全挑战。”王钟告诉记者,云之盾是着眼于未来云数据中心的安全建设需求,并考虑未来的发展,以方便及时监控和管理为出发点研发的,能够帮助用户解决虚拟化带来的边界模糊、被保护对象不清晰,以及其他各种安全问题。