<address id="thnfp"></address>

    <address id="thnfp"><th id="thnfp"><progress id="thnfp"></progress></th></address>
    <listing id="thnfp"><nobr id="thnfp"><meter id="thnfp"></meter></nobr></listing>
    dvbbs
    收藏本頁
    聯系我們
    論壇幫助
    dvbbs

    >> 電腦專業知識交流
    搜一搜相關精彩主題 
    安易免費財務軟件交流論壇專業知識交流電腦知識交流 → 數據中心“大掃除” 機房清潔其實很簡單

    您是本帖的第 931 個閱讀者
    樹形 打印
    標題:
    數據中心“大掃除” 機房清潔其實很簡單
    炙天
    帥哥喲,離線,有人找我嗎?
    等級:論壇游民
    文章:101
    積分:900
    注冊:2011年1月10日
    樓主
      點擊這里發送電子郵件給炙天

    發貼心情
    數據中心“大掃除” 機房清潔其實很簡單

    數據中心在商業運營中扮演的角色越來越重要,在數據中心運營商眼中,最小化運營成本往往是頭等大事,提高IT設備運行效率,減少運營成本的好處也會傳遞給客戶,從而形成競爭優勢。管理效率很低的數據中心各方面成本都會上升,將會削弱總體盈利能力。清潔數據中心環境中的關鍵組件對提高運行效率有非常大的標注,本文將側重介紹清潔關鍵環境非常重要的課題(51CTO推薦閱讀:你干什么吃的!詳解數據中心的人為失誤)。

    圖片點擊可在新窗口打開查看

    每花費1美元,就需要在電力和制冷成本上花費51美分 

    在新興數據中心地域,如鳳凰城、硅谷、洛杉磯、鹽湖城和歐文等地,保持高水平服務的同時減少成本成為時下最熱門的話題。一個15000平方英尺的數據中心每月的電費要10萬美元,根據以往的經驗,一個典型的數據中心電力成本會高于硬件成本,據IDC最近所做的一項研究顯示,在服務器上每花費1美元,就需要在電力和制冷成本上花費51美分,因此,只要略微減少或增加電力消耗,都將對整個數據中心產生巨大的影響,遺憾的是,許多數據中心并不知道如何調整電力消耗,在這種情況下,知道如何清潔數據中心是至關重要的。

    有許多因素影響數據中心的運營效率,包括優化的電力輸出、氣流、冷/熱通道配置、散熱效率和溫度控制,電源使用效率(PUE)是衡量一個數據中心運營、管理水平的關鍵指標,也是綠色、節能、環?疾斓闹匾笜,其具體計算公式是:(數據中心的總用電量)/(IT設備的總用電量)。在低效數據中心中,大量的電力都被浪費在空氣冷卻上,如果有專業團隊清潔數據中心關鍵位置,確保氣流流通順暢和合理,就不用擔心這些了。

    ip地址已設置保密
    2011/1/11 10:19:44
    炙天
    帥哥喲,離線,有人找我嗎?
    等級:論壇游民
    文章:101
    積分:900
    注冊:2011年1月10日
    2
      點擊這里發送電子郵件給炙天

    發貼心情

    氣流導向設置錯誤

    據Uptime協會最近發布的一份報告顯示,數據中心的平均制冷量通常是它們真正需要的2.5倍,大約有60%的冷空氣會因氣流流動而丟失,其中部分冷空氣因氣流導向設置錯誤經過了不該經過的地方,如誤入熱通道,還沒通過服務器就被排出去了等,有許多方法可以確定冷熱氣流流動是否科學,如熱量喪失分析技術(51CTO推薦閱讀:搬次家扒層皮 老外談數據中心搬遷問題(圖))。

    圖片點擊可在新窗口打開查看

    不是所有制冷問題都需要購買空調解決

    每個數據中心管理人員都知道,冷空氣應該從服務器前面板進,后面板出,話雖如此,但許多時候服務器的擺放并不規范,在實際工作中,我們發現有80-90%的客戶沒有正確擺放他們的服務器,完全沒有考慮服務器擺放和氣流流動效率之間的聯系,大量的冷空氣沒有流經服務器,有的甚至直接就被排出去了。相反,高效的氣流流動可以一直讓室內溫度控制在合理范圍內,從而減少電力消耗和成本。

    很多時候,數據中心運營商發現制冷問題后,往往不會尋找根本原因,只是簡單地通過增加空調來解決問題,但80-90%的時候只要通過重新配置氣流流動路徑,利用正確的產品就能最大限度減少冷空氣浪費。擋板可以密封設備,提高制冷系統的效率,墊圈可以減少氣流損失,提高PUE(注意:值越小越好)。

    另一個值得考慮的工具是圍欄,它可以有效隔離和控制氣流流動方向,讓空氣流動效率更高,減少電力成本,另一個好處是可以減少數據中心的碳排放量,對企業實施綠色戰略非常有幫助。

    同排服務器前后面板都應該保持一致,相鄰兩排服務器應采用背靠背方式布局,形成集中的冷空氣吹入和集中的熱空氣吹出,最大化利用冷空氣,并且可以確保熱空氣不再回到室內,但很多數據中心還沒有做到這種程度。

    ip地址已設置保密
    2011/1/11 10:20:00
    炙天
    帥哥喲,離線,有人找我嗎?
    等級:論壇游民
    文章:101
    積分:900
    注冊:2011年1月10日
    3
      點擊這里發送電子郵件給炙天

    發貼心情

    常見冷空氣流失情況

    除了前面介紹的冷空氣流失外,還有以下常見的冷空氣流失情況:

    穿孔地磚;

    地磚位置錯誤;

    使用過多的穿孔地磚;

    在地板上打洞;

    洞未正確密封;

    HVAC單元工作效率不佳;

    低效運轉的HVAC單元損失能源。

    業內專家過去一致認為數據中心室內溫度控制在60度左右為最佳,但現在情況發生了變化,美國采暖、制冷和空調工程師協會(ASHRAE)發布了一份新指南指出,溫度控制在80.6度就可以讓IT設備安全地散熱了,但許多數據中心仍然按照傳統的的溫度標準運營,因此制冷需要的電力消耗會更多,成本很難降下來(51CTO推薦閱讀:數據中心夏季降溫的11個技巧)。

    有專業的數據中心清潔團隊提供服務后,提高運營效率往往比許多數據中心管理人員想象的要容易得多,大多數專業公司會提供免費的散熱效率分析,并提供廉價的補救辦法,因此選擇專業的數據中心室內環境潔凈公司,可以提高IT設備的散熱效率和制冷效率,降低數據中心的運營成本。

    ip地址已設置保密
    2011/1/11 10:20:21

     3   3   1/1頁      1    
    網上貿易 創造奇跡! 阿里巴巴 Alibaba
    北京安易天地軟件有限公司北方論壇
    聯系電話:010-51268244 13611231185 QQ:511102924
    Powered By Dvbbs Version 7.1.0 Sp1
    頁面執行時間 0.10938 秒, 5 次數據查詢
    Channel