您的想法是對的,一個網路機房的耗電,有兩大部份,一為CPU(server),一為空調,兩者的耗電量大約1:0.8~0.9,所以假設您的Server吃了20KVA電,那您的空調也將會吃了至少16KVA,換算成KWH(度)大概就是16+12.8=28.8度/時.而機房通常是24x7x365的,所以您的機房的兩大耗電一年就會吃掉 28.8 x 24 x 365 = 252288 度的電.
CPU的耗電,通常您只能求INTEL/AMD,IBM,HP,DELL他們設計出"省電又有力"的機器,因為您一點辦法都沒有,當然所有的SERVER廠家都說"買刀鋒"啦!因為"刀鋒"相對的省電啦!這也都沒錯! 另一招是說"集中化,虛擬化"等等...,,也是很棒的想法,至於您是否可以如此,您得自行評估.
在空調方面,您提到了冷熱通道,很棒,這是TIA-942標準引出來的概念. 以前機櫃都是一排一排的立正向前站好,結果造成了前排SERVER的熱氣送給後一排的SERVER吸,當然是越來越熱的,一發生此種熱的狀況,以前的人的反應一定是,"空調不足"!!,再買冷氣,當然,電力耗損就更高了!
要實作"冷熱通道",您最好是"下吹式空調"風壓要足夠,高架地板的密閉性要衡量,地板下的"阻礙氣流物"應適當規劃,機櫃與機架調整成背對背架構,回風機構的規劃也請考量.機櫃機架的前吸後排氣流路徑控制.
能如此,空調電力費用降好幾成!!
要讓機房的耗電量降低,
目前有一些硬體的新產品(電源供應器.主機板.交換器)
有設計省電的功能
但...如果真的要達到省電
恐怕有許許多多的機房設備需要做更換
要不然就是設定下班時間關閉冷氣
上班時間打開冷氣(需要注意空氣流通的問題)
另一種做法,可以參考看看!
列出所有 SERVER 的功能與清單,因大多的 SERVER 並不需要 24 小時的工作!
也就是說,想法子,列出能自動開關機的 SERVER !
再者,合併主機,也是一個方式,不過,這就真的要好好分析效能!以免打架!
有關SERVER節能,這部分除非使用節能商品
否則就只能透過主機的待命才能省電囉
但是SERVER進入待命會不會救一覺不起呢~有點給他恐怖
另外就是冷氣空調部分了,一般來說就是調降機房溫度1~2度
每月就可以節省電費2000元左右,大大有說到用洞洞板
理論上空氣是對流的,有進就有出
你將熱空氣區隔,那冷空氣一定會尤其他地方流入
所以你可能要考量空氣對流部分就可囉
濫用空調還是最費電的,補充一下冷熱通道的概念:
這是針對上送風式精密空調的設計方式,機櫃一排一排的排好,冷通道的地板開洞機櫃面對面,熱通道的地板密封機櫃背對背,形成該熱的通道熱,該冷的通道冷。整體概念上,冷通道中地板開洞送風,冷空氣往機櫃裡面跑,而往往在機櫃後方會增設風扇增加散熱效能,而原本的冷空氣遇熱后膨脹上升,形成簡單的對流。
熱通道其實中不必開洞,因為沒有具體效益。冷空氣碰到熱空氣要往上吹的話必須要很大的風壓,關鍵不是機房需要冷卻,而應該把重點放在如何讓服務器散熱。
冷通道中上送風式的好處是避免了機房上方有漏水的可能性,但往往對流的過程當中冷空氣很容易從旁邊溜走,增加了空調本身的負荷,影響到針對性製冷的效能。其實一個很簡單的方法:**在冷通道口增設塑料屏風,讓冷空氣有針對性的對機櫃送冷風,而冷風不會流到旁邊去。**另外,有效的監控方法可以在冷/熱通道的上方裝溫度傳感器,用不了多少錢,卻能有效知道透過冷熱通道形成空氣對流的效益。
順帶一提,能有效針對“刀鋒”的空調方案目前還是從缺階段,因為“刀鋒”的熱能過分集中,很難達到有效的、針對性的散熱效能。IBM有過把空調造在機櫃裡面的方案,不過是水冷的...好像很危險。在英國,已經有銀行采取類似的方案,不過用的是CO2,沒有水的危機,而且不用擔心什麽水泵呀亂七八糟的問題,環保、節能、有效;這門技術在亞洲現在沒有,不過年底我們公司將以上海、香港為中心,會把該技術引進亞太市場...在此,我就不打廣告了。