当前位置:首页 > 工作计划 > [形形色色的数据中心]
 

[形形色色的数据中心]

发布时间:2019-03-03 04:25:45 影响了:

  “液体”数据中心实现完美备份      Iron Mountain是美国一家专注于存储备份、数据安全的信息管理服务提供商,他们在地下约66米深处拥有着一座安全级别仅次于白宫和国防部的秘密资料库,用于存放各种最机密和最珍贵的资料。他们还在美国西海岸兴建了一座独特的数据中心,这个数据中心设立在一个石灰岩洞窑中。数据中心采用了独特的制冷方式――低温的石灰岩矿壁代替了空调,来给服务器散热,据称其散热的效率可达每平方英寸1.5个英制热量单位。
  
  像Iron Mountain这样把数据中心“入地”的,可以说是走了常人没走过的路。来自美国佛罗里达州阿尔塔蒙特斯普林斯市的IT团队更是启用了一个大胆的想法,将数据中心搬到原先用于盛水的水箱中――一个容积达到77万加仑的水箱。
  阿尔塔蒙特斯普林斯市只有45000位居民,位于美国奥兰多市附近。为何要将数据中心建到水箱中,说来有些话长。阿尔塔蒙特斯普林斯市在建造稳固的灾难恢复基础设施,并且优化数据中心的过程可谓一波三折。
  Larry DiGioia是阿尔塔蒙特斯普林斯市的信息服务主管,他还记得,2003年当他从纽约到这里就任IT主管才三天,手下网络工程师就来对他说,系统停运了,所有服务器、存储、备份的设备都统统没法使用了。
  为了恢复整个系统,让DiGioia忙乎了两周半时间,他通过备份磁带恢复了大部分数据,但仍有相当一部分数据丢失了。此后不久,DiGioia又遭受了天灾的打击。2004年,阿尔塔蒙特斯普林斯市又先后遭到“查利”、“弗朗西斯”和“珍妮”等时速将近200公里的强烈飓风的袭击。而阿尔塔蒙特斯普林斯市原先建在市政厅里面的数据中心只能抵御时速118公里〜152公里的飓风。为了保护所有的IT设备,每次飓风袭来时,DiGioia不得不所有东西都得打包放入仓库,等飓风过后再重新搭建起来。
  “所有设备都要拆下来打包,这是一场可怕的经历。”DiGioia说,“飓风期间由于没有支持互联网接入服务的基础设施,应急运营中心也关闭了。”
  在拆拆装装的反复中,DiGioia认识到这不是一个长久之计,他认为必须要建造一套更好的基础设施,包括独立的灾难恢复中心,确保关键的备份数据随时可用,并支持恢复点和恢复时间目标。
  DiGioia经过考察后发现,已经废弃的水箱看起来是个合理的场地,这个穹顶式水箱的墙壁厚8英寸,用钢筋混凝土浇筑而成,离市政厅也仅100英尺之遥。很快,DiGioia的想法得到了市政府的认可。然后该市委托第三方在水箱两侧搭建了两幢建筑,一幢用来放置网络设备,另一幢用做行政管理办公室。
  在市政厅的旧数据中心里,网络基础设施包括几条点对点的T1线路,它们通过普通电缆连接至16个市政府机构,比如警察部门和市政工程处。在新的数据中心,DiGioia用暗光纤连接这些机构――暗光纤是指未使用的光纤,必要时可随时使用。DiGioia还从周边的县政府租借了暗光纤,为灾难恢复大大增加了带宽和距离。
  在新的数据中心,DiGioia及其团队还通过部署虚拟化服务器软件,把物理服务器的数量从80台减少到运行30个虚拟机的12台四核服务器,这些服务器配置成了通过SAN来启动。
  为了满足该市政府各部门的灾难恢复目标,DiGioia与各部门会面商谈,确定他们各自的需求,然后对系统进行调整,以满足各种不同需求。与旧环境相比,新的基础设施延长了正常运行时间,还提供了出色的灾难恢复能力。
  在新的数据中心,DiGioia先是把数据备份到SAN上。然后再通过持续数据保护(CDP)系统来把这些SAN上的数据复制到灾难恢复站点的另一个 SAN上。每个SAN各有25TB的容量。备份数据在硬盘上保留30天,然后被覆盖,不再使用磁带,文档归档在光盘和缩微胶卷上。
  阿尔塔蒙特斯普林斯市的消防署署长兼建筑官员Anthony Apfelback说,这次升级不但消除了以前经常出现的内联网停机现象,还让他的部门得以部署几个新的应用软件以便建筑许可证颁发过程实现自动化,从而降低了人工成本。
  目前,由于这个水箱中建立的“液体”数据中心的基础设施比过去具有更高的自动化程度,帮助阿尔塔蒙特斯普林斯市建立起一个在线IT帮助中心,该中心能够对政府各部门的服务请求提供即时反馈,并估计完成工作单大概需要多久。现在,即使像以往那样强烈的飓风来袭,政府部门的网站也不会出现停运的情况,甚至可以做到全年365天,每天24小时地提供各项服务。
  企业战略集团的分析师Bob Laliberte说,对于那些资金紧张的地方政府来说,完全可以像阿尔塔蒙特斯普林斯市那样利用现有的基础设施或者与周边社区共享设施。“大家都在寻找更新的、更节能的方法来建造数据中心,为此完全可以将目光转向过去忽视的自然环境。”
  
  最Cool冰球
  成就绿色IDC
  
  如果说阿尔塔蒙特斯普林斯市是在一个“湿润”的自然环境中找到了搭建新型数据中心的道路,那么I/O Data Center公司则相反,在极端干燥炎热的环境中,正运用诸多绿色技术来打造高能效数据中心。
  美国菲尼克斯市地处炎热干燥的沙漠地带,通常这里的温度高达43摄氏度,如果用一种颜色代表这里,绝对不是绿色,而应该是黄色甚至是红色。
  但是数据中心及数据中心服务提供商――I/O Data Center公司就在这里偏偏建造了一个占地18万平方英尺的商用数据中心。在这个数据中心里面,从特殊布局的空调处理机到服务器机架设计,都结合了众多节能设计和绿色技术。其中最引人瞩目,最“酷”的技术,当属冰球蓄冷系统了。
  在I/O位于菲尼克斯市的这个数据中心中,冰球漂浮在注满乙二醇溶液的四只巨大水箱中,温度可冷却到零下5摄氏度左右。溶液从数百个冰球周围的冷却器中抽出来,在夜间电费较低的时候对溶液进行冷冻。到白天,系统抽运冰球周围的乙二醇溶液,并让其通过热交换器,为数据中心提供冷空气,这样就减少了白天电费较高时运行制冷器的需求。
  开发出冰球蓄冷系统的Cryogel公司的总裁Victor Ott表示,这种系统节省不了任何能源――最多是耗用能源与节省能源两相抵消,但是的确能省钱。通过将用电时段从白天转移到夜间,I/O Data Center公司利用电费的差价每转移一千瓦电能可节省1250美元。
  Ott称,这项技术更环保,因为为了满足用电需求,电力公司往往在白天高峰时段开足马力运行又旧又脏的发电设备,排出更多的温室气体。他说:“它们在夜间发电所消耗的矿物燃料要比白天来得少;而且夜间温度比较低,所以电力公司的发电机运行起来更高效。”
  Ott认为,使用Cryogel的冰球构建的蓄冷系统,每小时冷却成本大约每吨花费约60美元,三五年内就能获得投资回报。这对一些公司来说可能周期过长,但是投资回报率并非大多数准备使用这种技术的企业所考虑的主要因素。 相反,真正的障碍是系统需要巨大的容器(压缩容器或常压储罐),以便将冰球装在相应类型的溶液里。比如在I/O Data Center公司,Cryogel的冰球蓄冷系统需要四只钢制压力容器,每只容器直径10英尺、高22英尺。
  这么大的容器的确很占地方,而对大部分数据中心来说最宝贵的莫过于场地了。好在I/O有这样的条件,可以为这么大的冷却设备提供一个放置的空间,但大部分数据中心没这个条件。I/O Data Center公司的座右铭是“越大越好”,因为他们相信大规模数据中心能够获得规模经济效应,使得绿色技术成为可能。
  为了装下这些巨型制冷设备,I/O对原来的一座灌装厂的厂房进行了改建。2009年6月完成了改建工程的第一阶段,主要是给18万平方英尺的楼面空间装备26兆瓦的制冷能力。在第二阶段,该公司再开发另外18万平方英尺的楼面空间,为其提供20兆瓦的电力容量,预计将在2010年12月份完工。I/O还在这幢建筑里面造了80000平方英尺的办公场地。
  BMC软件公司的IT基础设施和全球运营副总裁Mahendra Durai说:“I/O在菲尼克斯的IDC有一个独特之处,就是有效地利用了灌装厂这样天花板很高的建筑,并利用现有投入来实现节能效果。”目前,该公司是I/O凤凰城数据中心的客户之一,租用了320kW的容量空间。
  惠普公司副总裁兼惠普关键设施服务部门总经理Peter Gross也表示,如果场地不是问题,他赞同使用蓄冷技术,“用冰蓄冷是个好想法。它降低了用电需求,还能省一些钱。”
  现在在数据中心中使用蓄冷系统的还为数不多,主要原因就是大家对它的可靠性还比较担心。例如,在白天,当系统输送从冰球出来的冷却水时,数据中心的冷却器关闭。重启冷却器、让它们全速运转需要半小时到一小时。要是蓄冷系统在这期间出现故障,数据中心就暂时得不到冷却。“你不得不关闭整个数据中心,因为等冷却器恢复运转后,数据中心会变得过热。”Gross说。但是Ott表示,蓄冷系统在工业建筑中已用了20多年,是一项成熟的技术。
  
  链接
  为什么选在菲尼克斯?
  
  I/O公司菲尼克斯数据中心对冷却有极高的要求,当项目的所有阶段都完工后,该数据中心所消耗的电力将高达40兆瓦。那为什么还要选择在沙漠中修建这样的数据中心呢?
  设计大型数据中心的兆瓦咨询公司总裁兼首席能源官KC Mares认为,许多用户都在将数据中心搬往菲尼克斯,其中有部分原因并非是出于节能的目的。例如,BMC公司IT基础设施和全球运营副总裁Mahendra Durai就表示,BMC选择菲尼克斯出于一个非常实际的原因是因为菲尼克斯是美国国内极少会受到自然灾害影响的地方之一。几次猛烈的飓风过后,公司管理层决定把公司的主要业务系统搬离休斯顿。
  不过I/O公司的副总裁Jason Ferrara相信,外部温度与数据中心内部运行没有关系。他举例说,沙漠干燥气候本身就具有的一个好处是,有助于节能的蒸发冷却技术发挥功效。
  未来,I/O公司计划向客户提供一系列节能技术。这其中包括高能效的密封机架,它可将冷空气从活动地板直接送到机架,并送到每排机架顶部的回风区,这样设备与机房空气完全隔离开来,这样机架的冷却负载最多可高达32千瓦。
  未来,I/O还会在自己的IDC中使用超声加湿器,这种设备的能耗可减少93%,散热量远低于使用蒸汽的传统设备。I/O还计划自己采用绿色的方式来发电,以实现部分电力自给。I/O计划在数据中心屋顶上安装数英亩的光伏太阳能电池板,达到4.5兆瓦的发电量。生成的能量将用于减少在白天(收取高峰电费)从普通电网所耗的电量。作为一种回送到电网的补充性电力来源,光伏太阳能电池板效果很好。但作为一种持续性电源,它们并不可靠,哪怕在常年阳光充足的菲尼克斯也是如此。
  所以在第二个阶段,I/O还会安装热电混合系统,可提供冷却水用于冷却数据中心,同时还能发电。对于小型环境而言,这种热电混合系统意义不大,但是对于I/O公司这样需要40兆瓦以上不间断电源系统的数据中心来说,意义就非常重大了。

猜你想看
相关文章

Copyright © 2008 - 2022 版权所有 职场范文网

工业和信息化部 备案号:沪ICP备18009755号-3