社群網站Facebook創辦人Mark Zuckerberg日前宣布了一個Open Compute計畫,釋出Facebook首座節能資料中心的設計資料,包括機房設計藍圖、備援電力設計,甚至還有省電伺服器的CAD設計圖。
從2010年1月開始,Facebook投資了1.8億美元,在美國奧瑞岡州的Prineville市打造第一座資料中心,第一階段建置面積達147,000平方呎(約4,140坪),2012年則會完成第二階段擴建,總面積更達到30萬平方呎(約8,500坪)。
這座資料中心完全採用外氣冷卻系統,採用無管式的蒸氣冷卻裝置,內部沒有安裝其他冷卻設備,並且採用了可減少電力傳遞損耗的伺服器供電設計,以及作為電力備援的共用電池櫃。
資料中心採上下兩層式設計,上層是外氣冷卻進氣通道,下層才是放置伺服器機櫃的空間,外部空氣進入上層閣樓後,若溫度太低則會混合機房內部釋出的熱空氣再進行過濾,然後通過蒸發式冷卻裝置與加濕系統,來確保空氣溫度介於18~29.4度C,以及濕度低於65%。最後,冷卻空氣須通過除霧設備後才進入送風室,然後透過風扇加壓將空氣注入資料中心的冷卻通道,由機櫃前方進入,穿過伺服器後集中到後方熱通道中,然後回氣到過濾室和室外空氣混合。冬天時,Facebook還會將熱空氣導入辦公空間來提高室內溫度,以減少暖氣耗電。
Facebook修改了伺服器供電設計,讓伺服器可以直接使用277伏特交流電,外部供電只需經過一次電壓轉換就能提供伺服器使用,不像傳統設計必須經過4次電壓轉換。資料中心工程總監Jay Park表示,可以將原本11~17%的電力傳遞損耗降低到2%。另外,Facebook也沒有採用傳統的不斷電系統,而是設計了可以和伺服器機櫃整合的電池櫃(Battery Cabinet),來提供48伏特的電力備援。每6個機櫃共用一座電池櫃。其他省電機制,例如使用網路線供電的LED照明系統,改用燈光警示來取代喇叭。
Facebook在機櫃中安裝了2類2路伺服器,一類採用Intel的Xeon 5500和5600系列處理器,最高搭配144GB記憶體,另一類則是AMD的8核和12核Magny-Cours處理器,記憶體最高達192GB。
Mark Zuckerberg表示,為了降低執行環境的運作成本,Facebook團隊大量參與資料中心和伺服器的設計,也將釋出這些設計藍圖,提供其他開發社交應用的開發者,可以打造更具成本效益的應用程式,來加速整個開發生態系的發展。
根據Facebook自行測試的數據顯示,這座資料中心運轉時的PUE值可達到1.07,換句話說,當資料中心消耗了107瓦電力時,只有7瓦是用於非IT設備的電力,例如冷卻散熱設備等。這個數值比美國業界平均值1.5還要低,也遠低於臺灣企業機房的平均PUE值2.5,中華電信預定在板橋打造的亞洲最大綠色資料中心也僅是以1.5為目標。
機房設在阿里山,才足以使用外氣冷卻法
IBM全球資訊科技服務事業部資訊系統架構規畫師鄧南品表示,臺灣傳統機房的PUE值大約2.2~2.7之間,但新建機房若採用熱封閉、水平式空調系統,並依據伺服器成長量考量機房空間,則可以達到PUE1.7,但仍遠低於Facebook資料中心的1.07。
不過,鄧南品也指出,類似像Facebook機房採用的外氣冷卻法,需要的外界環境溫度最好約十餘度C,以臺灣平地來說,每年可用的時間很短,甚至只有1個月,除非企業將機房設置在阿里山才會有比較長的可用時間,但相對來說,其他如設施建置或交通成本也會大增。
From: ithome
最新回復