例如,任何时候,当有用户登录到网上银行、或在伦敦公共交通系统刷他们一卡通“牡蛎卡”、或仅仅只是在Facebook对他们朋友最新发布的状态帖子发表简单的评论时,这些过程都将涉及到数据中心的积极参与。
每一次,这些相互作用被传送,都会沿着一个类似神经系统的高速网络电缆,将数据信息传输到数据中心某处的一台服务器,在那里进行迅速的数据信息处理,然后,这些数据信息的发起用户就可以快速的查看自己的银行账户余额、或使用公共交通网络、或享受他们的在线社交生活了。
与此同时,服务器将对用户发起传输而来的数据信息进行响应,将将其传递到存储部件或者“大脑”(即数据中心),确保这些短暂而必要的数据处理过程的细节都将被记录下来,从而在毫秒之间就结束了一连串的事件处理。
鉴于我们的日常工作和生活对于互联网连接的设备和云服务的依赖的不断上升,每一天,即使不是数万亿的话,至少也有数十亿此类的交易,在全球范围内发生。
有鉴于此,随着技术企业着手新建或扩展他们现有的基础设施,以确保用户的需求得到满足——包括从处理性能和预期的角度来看,使得全球数据中心的规模获得了持续不断的增长。
故而,对于21世纪的每家数据中心运营商而言,确保其数据中心基础设施的高效率和弹性运行无疑是至关重要的。
但是,如果没有相关的技术人员在过去五十年间不断辛勤的试验和研究的话,许多在今天被认为是运行一处现代化的数据中心所不可或缺的重要组成部分的相关设计理念和技术可能都是不存在的。
时光倒流的回顾
在正常运行时间协会(Uptime Institute)的常务执行理事皮特·特纳40多年的IT行业职业生涯中,该组织在制定并建立数据中心设计的标准化方面发挥了重要作用,并通过他及其团队成员的共同努力,创造了层级标准:拓扑分类系统。
对于外行人来说,等级标准:拓扑是由Uptime Institute在上世纪90年代末发布的。而通过使用一个一级到四级的标记系统,其被用来表示一处数据中心的物理基础设施的可用性。
运营商可以通过简单的架构搭建他们的数据中心基础设施,以满足必要的层级需求;或使用站点需求,并获得Uptime Institute所颁发的数据中心正式认证之间进行选择。
由于其在发布的最初,该文档一直受到定期审查,在超过200个国家被下载,以告知全世界数据中心相关的设计标准和规范。
据特纳介绍说,其已被证明非常成功的原因之一就在于,其有助于确保当一家企业指定了所需要的数据中心类型时,设计团队就能够在理解他们的要求的基础上负责建立数据中心。
“其所做的便是创造了一种通用的语言,让包括从数据中心所有者到设计师在内的所有人都可以顺畅的就其所预期实现的是什么样的操作功能进行有效的表达。”特纳告诉Computer Weekly的记者说。
“而在此之前,企业主们只会说,’我希望打造一处数据中心’,然后就会有人响应说,'我将为您建立一处数据中心',但关于他们所谈论的究竟是否是同一种设施,却并没有太多的涉及。”
该标准最初对企业进行通知是应Uptime Institute的一家客户的要求,该企业客户在完成了一项兼并和收购交易之后,需要帮助澄清如何使得其新近收购的数据中心组合能够满足其业务的要求,据特纳回忆说。
他说:“他们来向我们咨询,询问我们是否能够帮助他们开发一种行话,该行话将使他们能够区分不同的计算机房,结果该行话演变成为了一级标准。”他说。
如今,该文档被广泛用于运营商的营销材料,以简洁地描述他们的设施是如何具备弹性的。
“管理执行人员现在可以使用该标准来表达他们所想要的功能的水平,并将其提交给他们的实施团队,通过提出一套设计方案,以符合四个层次之一的任何一个层级的标准。”特纳说。
“无论他们是否是通过认证到底,作为实现其业务需求的选择。都需要弄清楚其所要瞄准的是怎样的层次水平,因为并不是层级数字最大的就是最好的层级。”
“最好的层级是那些能够对企业的业务需求:将需要在该设施运行作出回应的层级,而为超出您企业业务的实际所需支付额外的资源,并没有什么意义。”他补充说。
提高能源效率
鉴于运营数据中心的成本和耗电是如此高昂,故而提升数据中心运营效率是必不可少的,而许多现代服务器园区经营者因为要想办法提高其所运行的基础设施的效率,均拥有上述想法。
为了向他们伸出援助之手,绿色网格组织在2007年推出了电力使用效率(PUE)这一指标,方便数据中心运营商们作为确定其内部能源效率基准的有效的手段。
从那时起,一家数据中心的PUE得分便成为大多数提供商的营销材料的另一大重要的支柱——尽管这是不正确的。
在过去的十年中,许多数据中心设施都转移到采用热通道和冷通道在其数据大厅内相结合的设计,而服务器机架则排在交替行。
由服务器发出的热量被隔离在一个行内进行处理,而冷空气则从另一个通道进入,用来保持设备的冷却。
自2009到2010年,数据中心行业一直按照ASHRAE技术委员会的9.9(TC 9.9)热指南采用这种方法以收集蒸汽。
“10年前,对于服务器所使用的每千瓦的电力资源,您至少需要再花费另一个千瓦的热能来使其冷却下来。”一名在数据中心行业拥有25年经验的老将保罗·芬奇解释说,他目前是托管服务提供商Digital Realty公司的高级技术总监。
“正是缘于ASHRAE所做的工作,使得消耗同样千瓦数的IT功率,我们可以只需要再消耗100W的能源来使其冷却,而不在需要再另外消耗1000W的能源了。这不仅代表了能源效率的大幅提高,更不用说碳排放量的大幅减少了。”
ot articles