2010年6月24日星期四

數據中心邁向高密度佈局 高效能電源制冷成業內焦點



OO八年,全球每小時耗電為17,095TW,而數據中心約耗用了百分之八電力,每小時達1,368TW,相當驚人。其中竟有三分一傳統數據中心,架構效率低落而浪費。故此改善數據中心耗電,根本上已成為IT行業焦點。

本港寸金尺土,不少數據中心空間,不能物盡其用;原因跟兩方面有關,首先是刀鋒伺服系統開始流行,機櫃密度大為增加。法國施耐德電氣屬下APC,為全球數據中心電源管理及制冷的領先廠商。據APC的港澳區總經理趙啟文估計,目前市場上三分之一機櫃已採取高密度設計,虛擬化也促進了伺服系統整合。可是,傳統機櫃的設計,不足應付高密度容量,問題出在耗電和制冷,超出了原來設計極限。

設計上,一般每部機櫃最高耗電荷負約為8-15 KW。如果利用了刀鋒伺服系統,理論上每個機架耗電量驚人。「一般刀鋒伺服系統約佔6U,以每排耗電6KW計算,標準42U機櫃可容納六排刀鋒伺服系統,耗電超過30 KM。」

另一個難題是散熱,高密度伺服系統產生的熱力,較傳統也高出不少。

所以,數據中心機櫃即使仍有空間,也不代表可加裝伺服系統。趙啟文說,APC推出的Change and capacity managerCCM)軟件,可以監視,甚至模擬不同設備的改動,預見改動後對耗電和冷卻影響,從而優化數據中心設計和運作,減少耗電。

CCM逐部機櫃進行監察,實時知悉機櫃內溫度和耗電情況。加入新設備前,只要先輸入新增伺服系統品牌型號,甚至可模擬加入設備後的耗電和溫差,決定機櫃能否負荷。」

APC也利用模組化的制冷方案,數據中心可按需改變冷卻系統規模和方式。「傳統冷卻系統最大缺點,是難以估計氣流所經的途徑。冷暖空氣途中混合,待送至伺服系統,冷風已經吸收過度熱量。」

「靠昇高地台(Raised Floor)傳送冷氣也不夠可靠,流動途徑曲折,途中經不少阻礙,最終影響了冷卻效果。」

趙啟文說,APC利用行級制冷方案(in-row cooling),將冷卻設備靠近熱源,並在高密度機櫃旁將冷風導入熱通道,冷卻熱源,並可模組化設置,按需增加制冷量,達到最有效率冷卻效果。行級制冷方案也毋須作大範圍制冷,冷卻整個數據中心。「每度溫度所耗電力,相等的耗電以倍計算。數據中心毋須凍得像雪房,才能保護設備。」

刀鋒伺服系統日漸流行,市場已接受行級制冷方案,應付高密度伺服系統產生的熱量,機櫃可安置更多設備,盡量利用空間。而且本港樓宇環境獨特,也有利使用行級制冷。
「本港樓宇樓底一般不高,介乎一米七至八之間,加上昇高地台來傳輸冷氣,須至少深600mm。樓頂又得預留位置佈線,行級制冷方案可減低地台所需高度,甚至免除建設昇高地台。」

本港數據中心最大市場為銀行及金融機構,其次則為設備代管(Co-location)數據中心的投資周期甚長,如今客戶也更留意營運成本(OPEX),也就是研究總體擁有成本,甚至兩三年內整體回報,如電力消耗和其他的成本。

趙啟文說,數據中心節省能源,客戶計畫電力時,也應從設計階段開始。「客戶傾向從每件設備標籤上能源指標計算用量。結果點算出耗電量,往往過量配置(Over-sizing),因為實際上的耗電量,往往較標籤為低。」

「例如部分客戶的不斷電電源(UPS)供電達500KW,可是耗電只有50 KW,結果往往過度配置,只有兩至三成效率。過度配置電力造成數據中心耗電效率低落。例如APCUPS可以升級模組,隨日後需要而提昇電量,毋須停機增加供電。」

APSCCM軟件,監視UPS耗電情況,可以監察冷卻,從總掣,以至配電器(PDU),直至機箱內電源拖板電源,監察每項設備用電水平,整體效率和效果,一目了然。「每部機箱耗電量不一,從總掣水平看來,整個數據中心看似電力充足,卻因為電源不平均,機櫃可能已達致耗電極限。APC拖板電源以TCP/IP協定,傳回每項設備耗電量,CCM 也可從其他協定,如SNMP獲悉每件設備運行狀態。」

新一代的數據中心,虛擬化加上智能配電,最高可以節省超過六成半電力消耗,並可隨需提昇效能,運作和效益更加透明化,也讓用戶可更清悉計算投資成本和回報。

沒有留言:

發佈留言