Журнал о компьютерных сетях и телекоммуникационных технологиях
СЕТИ И СИСТЕМЫ СВЯЗИ on-line
  ПОИСК:
    Домой
 
   
АРХИВ ЖУРНАЛА
   

2008: 1 2 3 4 5 6 7 8 9 10 11 12 13
2007: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2006: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2005: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2004: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2003: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2002: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2001: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2000: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
1999: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1998: 1 2 3 4 5 6 7 8 9 10 11 12
1997: 1 2 3 4 5 6 7 8 9 10 11 12
1996: 1 2 3 4 5 6 7 8 9 10


Rambler's Top100

  

Как снизить энергопотребление ЦОДа

Арт Уитман

Покупка энергосберегающих технологических решений не единственный и даже не самый лучший способ снижения энергопотребления центров обработки данных. Переосмысление использования уже имеющейся у вас техники может дать более сильный эффект.

Центры обработки данных (ЦОД) потребляют очень много электроэнергии. Этот тезис стал одним из главных выводов представленного 2 августа 2007 г. Конгрессу США отчета Агентства по охране окружающей среды (Environmental Protection Agency — EPA). Казалось бы, ничего удивительного здесь нет, но приведенные агентством огромные цифры все же ошеломляют. В 2006 г. ЦОДы израсходовали 61 млрд кВт·ч электроэнергии, что составило 1,5% всей потребленной в США электроэнергии. Они заплатили за нее 4,5 млрд долл., что приблизительно равно затратам на электричество 5,8 млн среднестатистических семей. От общего энергопотребления ЦОДов 10% пришлись на долю федеральных правительственных организаций.

Поистине впечатляющим стал прогноз агентства EPA, учитывающий различные сценарии развития событий. Если мы, ИТ-специалисты, не предпримем никаких мер по снижению энергопотребления, то к 2011 г. объем используемой ЦОДами электроэнергии удвоится. Если же все мы внедрим энергосберегающие технологии, рассматриваемые агентством EPA как самые современные, то к 2011 г. сможем снизить общее энергопотребление ЦОДов до уровня 2001 г., что на 90 млрд кВт·ч меньше, чем при развитии событий по первому сценарию.

Хотя рекомендации EPA носят довольно общий характер (типа «следует консолидировать серверы» и т. п.) и скудны на конкретные советы, в них сформулирован действительно полезный подход, а именно: они призывают не только внедрять энергосберегающие технологии, но и реформировать ИТ-операции. ИТ-специалисты же нередко пытаются найти технические решения операционных проблем. Конечно, потребление низкокалорийного мороженого вместо высококалорийного принесет некоторую пользу вашему здоровью, но несравнимо меньшую, чем изменение образа жизни, предполагающее более тщательный контроль за своим рационом питания и регулярные занятия физкультурой. Точно так обстоят дела и в случае с ЦОДами: хотя покупка энергосберегающих технологических решений и является прекрасной идеей, в плане экономии энергии вы продвинетесь куда как дальше, если переосмыслите использование уже имеющейся в вашем ЦОДе техники.

Признание необходимости снижения энергопотребления в государственных организациях и частных компаниях на федеральном уровне станет весьма позитивным шагом. Агентство EPA разрабатывает новый стандарт Energy Star для расширенного набора оборудования, включая серверы и «связанные с ними категории продуктов», а поскольку правительство США — это один из самых крупных заказчиков ИТ-средств, то у производителей имеется сильный стимул для создания соответствующих этому стандарту продуктов.

Переход к экономии

Как показывает история, американские компании не любят поддерживать инициативы, которые не способствуют увеличению их доходов, а отсутствие правительственных финансовых стимулов к внедрению энергосберегающих технологий означает, что их распространение должно опираться на собственную основу в виде экономического анализа, доказывающего снижение совокупной стоимости владения (Total Cost of Ownership — TCO) ИТ-системами. Однако определение экономического эффекта от использования «зеленых» технологий в ЦОДе — задача непростая.

Трудности начинаются уже с анализа счетов за электричество. Большинство ЦОДов представляют собой отдельное помещение в офисном или производственном здании и зачастую просто невозможно определить потребляемое именно ЦОДом количество электроэнергии без оснащения его помещения специальными датчиками или без установки отдельного электросчетчика. Как показали результаты проведенного журналом InformationWeek опроса 472 специалистов в области бизнес-технологий, руководители большинства предприятий и организаций никак не поощряют своих ИТ-специалистов за экономию электроэнергии (хотя покупка энергосберегающих решений позволяет снизить TCO ИТ-системой), и только 22% респондентов сказали, что их руководство требует от своих ИТ-служб снижения энергопотребления.

Таким образом, очень важно добиться, чтобы руководство компании признало необходимость снижения энергопотребления своей ИТ-инфраструктуры и экономически поощряло своих ИТ-профессионалов за достигнутые в этой области успехи. Если это произойдет, то расчет TCO ИТ-системой с учетом ее энергопотребления станет куда более полезным делом для ИТ-служб. Однако здесь есть «подводный камень». Сейчас большинство предприятий делят общий счет за электроэнергию между всеми своими подразделениями пропорционально занимаемой ими площади. Если же заставить ИТ-службу оплачивать всю расходуемую ею электроэнергию, то ее затраты по этой статье возрастут на порядок.

Даже если вы не сумеете убедить свое руководство в пользе экономии электроэнергии и необходимости поощрять за это, у ИТ-служб остается множество причин для внедрения энергосберегающих технологий. Дело в том, что их внедрение способствует решению острых проблем эксплуатации ИТ-инфраструктур. На недавно проведенной компанией Hewlett-Packard (HP) конференции были озвучены две на первый взгляд противоречивые тенденции. С одной стороны, как утверждают специалисты HP, через несколько лет больше половины существующих сегодня ЦОДов устареют, а с другой — по истечении аналогичного периода времени около трех четвертей нынешних ЦОДов будут использовать площади своих помещений не полностью. Это означает, что площадь занимаемого ЦОДом помещения не может служить мерой оценки его функциональности. С увеличением плотности размещения ИТ-оборудования (при этом растет энергопотребление в расчете на единицу стоечного пространства) нехватка мощности систем электропитания, а иногда и средств охлаждения начинает ощущаться гораздо раньше, чем нехватка свободной площади помещения ЦОДа, по крайней мере, при сегодняшнем подходе к конфигурированию его инфраструктуры.

Эту мысль подкрепляют результаты проведенного нами опроса, в ходе которого около половины респондентов ответили, что в ближайшие два года собираются реконструировать свои ЦОДы или построить новые. В данной статье мы сосредоточим свое внимание на реконструкции ЦОДов, поскольку еще никому не удалось построить поистине экологичный ЦОД.

Консолидация серверов

Первым шагом на пути к максимальному увеличению эффективности работы вашего ЦОДа является консолидация серверов. Она не только сократит энергопотребление серверного оборудования и уменьшит занимаемое им пространство, но и обеспечит работу критически важных приложений, требующих использования устаревших ОС, на современном оборудовании.

Один современный сервер, оснащенный двумя четырехъядерными процессорами и ОЗУ большой емкости, способен заменить более 30 устаревших однопроцессорных систем. Перестав их эксплуатировать, можно снизить энергопотребление ЦОДа на 12–15 кВт, что для калифорнийских компаний означает экономию 15 тыс. долл. в год, а для клиентов обслуживающей Нью-Йорк электроэнергетической компании ConEd итого больше — 18 тыс. долл. в год. При стоимости вышеупомянутого современного сервера около 10 тыс. долл. и почти такой же стоимости ПО виртуализации VMware (значительно дешевле купить ПО XenSource компании Citrix) затраты на них окупятся примерно через год.

Еще более значительной станет экономия ИТ-затрат за счет управления одним сервером вместо тридцати. Мы отнюдь не имеем в виду, что администрировать тридцать виртуальных серверов так уж просто, наоборот, их виртуальная сущность может заставить компании внедрять у себя средства автоматизации для выполнения функций администрирования серверов, включая инсталляцию программных «заплат». По оценкам специалистов компании IDC, затраты предприятий на сами серверы растут относительно медленно и в связи с распространением многоядерных процессоров и средств виртуализации серверов могут даже стабилизироваться, но стоимость управления серверами растет примерно с такой же скоростью, как и затраты на их электропитание. Поскольку доля затрат на управление становится все более весомой, их снижение имеет большое значение для повышения экономической эффективности ИТ-служб. Во многих из них хорошо продуманная консолидация серверов (вкупе с такими мерами, как автоматизация установки «заплат») может окупиться менее чем за год, даже с учетом расходов на дополнительное обучение персонала.

Управление энергопотреблением систем хранения

Многие предприятия (и до недавнего времени производители) отвергают саму идею управления энергопотреблением систем хранения данных (СХД), считая это нереальным и ненужным. Обе эти точки зрения неверны. В оперирующих большими объемами данных компаниях на питание и охлаждение СХД расходуется примерно столько же электроэнергии, сколько ее тратится на питание и охлаждение серверов. К тому же емкость СХД увеличивается примерно на 50% в год. Поэтому экономия затрат на электропитание и охлаждение СХД имеет большое значение.

Как и в случае с применением серверов, эффективность использования СХД обеспечивается за счет улучшения управления ими и их консолидации. К сожалению, многие предприятия по-прежнему считают управление СХД нелепостью. По оценкам специалистов компании Sun Microsystems, сегодня эффективно используется лишь 30% емкости всех корпоративных СХД — довольно-таки тревожная статистика, особенно если учесть, что она исходит от их производителя. Единственный способ исправить эту ситуацию — задействовать у себя систему управления ресурсами хранения данных, польза от внедрения которой не подлежит сомнению (см. «Экономия за счет управления СХД»).

Изменение сложившихся методов

Хорошая новость заключается в том, что прогресс в области управления серверами и СХД существенно упрощает реконструкцию старого или построение нового ЦОДа. Однако сложившимся методам эксплуатации ИТ-оборудования угрожают новые проблемы. По мере увеличения плотности размещения серверов с формфактором 1U и блейд-серверов в монтажных стойках и шкафах перфорированные напольные плиты фальшполов перестают обеспечивать эти устройства достаточным объемом холодного воздуха. Использующая фальшполы типичная система охлаждения (характерная для построенных за последние десять лет ЦОДов) способна отводить от одной стойки до 7 кВт тепла. И пусть сегодня в большинстве ЦОДов каждая стойка с оборудованием не генерирует столь большого количества тепла, в определенных условиях она может производить его куда больше. Например, полностью заполненная блейд-серверами стойка может потреблять 30 кВт и более электроэнергии. Только специализированные локальные охлаждающие системы способны справиться со столь большой тепловой нагрузкой в расчете на одну стойку.

В прошлые годы рекомендовалось равномерное распределение тепловой нагрузки по всем стойкам. Вы и сейчас можете попытаться разместить в каждой стойке блейд-серверы и другие высокомощные устройства вместе с менее мощными СХД и сетевым оборудованием или просто оставить стойки частично пустыми. Однако такой подход не всегда реализуем и может оказаться неэффективным. Даже при самом равномерном распределении тепловой нагрузки количество тепла, выделяемого в каждой стойке, может оказаться столь большим, что средства ЦОДа не смогут обеспечить должного охлаждения оборудования. В этом случае лучше сконцентрировать в шкафах все самое мощное оборудование и наряду с комнатным кондиционером задействовать средства охлаждения, работающие на уровне шкафа (rack-based) или ряда шкафов (row-based).

Шкафные системы охлаждения поставляет ряд компаний. Две из них — IBM и HP — используют разные подходы к отводу тепла из шкафа. Продукт eServer Rear Door Heat eХchanger фирмы IBM устанавливают вместо задней двери стандартного шкафа этой фирмы. Это решение, позволяющее отводить до 55% тепла, генерируемого установленным в шкафу оборудованием, использует систему холодного водоснабжения здания.

Преимущество данного продукта, выпущенного в 2005 г., — простота устройства и относительно невысокая цена — 4300 долл. Отводя из шкафа тепло еще до попадания его в помещение ЦОДа, продукт eServer Rear Door Heat eХchanger повышает максимально допустимый уровень тепловыделения в шкафу с 7 до 15 кВт. Единственным недостатком системы охлаждения фирмы IBM является тот факт, что вода в ней должна циркулировать под давлением 60 фунт/кв. дюйм (около 4 кг/кв. см). Не все системы водоснабжения зданий способны обеспечить столь высокое давление, особенно при большом числе шкафов с такими охлаждающими задними дверями.

Решение компании HP более функциональное, но и стоит дороже. Речь идет о системе Modular Cooling System; ее также подключают к системе холодного водоснабжения здания, но в дополнение к ней она задействует собственные вентиляторы и насосы. В результате получается система, способная отводить до 30 кВт тепла из шкафа и при этом не оказывающая никакого влияния на комнатную систему охлаждения. Это решение позволяет сконцентрировать в одном шкафу самое мощное оборудование и, отводя 100% генерируемого им тепла, существенно продлить срок службы инфраструктуры ЦОДа. Охлаждающие шкафы HP стоят по 30 тыс. долл. каждый, однако не исключено, что, установив их, вы сможете отказаться от строительства нового ЦОДа, поэтому стоит обратить на них внимание.

Если у вас уже имеются шкафы с оборудованием, а вам нужно лишь отводить из них большое количество тепла, то компания Liebert предлагает системы, монтируемые на шкафах или над ними. По утверждению специалистов компании, ее системы XD отводят до 30 кВт тепла из шкафа.

И наконец, работающие с рядами стоек системы охлаждения, такие, как Infrastruxure компании APC и XDH фирмы Liebert, используют устанавливаемые между стойками с оборудованием теплообменники в половину ширины стойки. Эти устройства вытягивают горячий воздух из задних частей стоек и подают кондиционированный (охлажденный) воздух к их передним частям. Поскольку эти системы охлаждения существенно уменьшают возможность смешивания горячего и охлажденного воздуха, они работают значительно более эффективно, чем обычные системы кондиционирования воздуха для компьютерных комнат (Computer Room Air Conditioning — CRAC). По словам специалистов компании APC, кондиционеры системы CRAC могут потреблять до 60% мощности, необходимой для работы охлаждаемых ими систем, а предложенное ею решение потребляет лишь до 40% этой мощности.

Любая из описанных систем охлаждения способствует существенному увеличению срока службы ЦОДа. Однако, если ограничивающим фактором является емкость установленных на крыше охлаждающих башен (т. е. способность существующих систем здания снабжать системы охлаждения холодной водой), то установка этих работающих на уровне шкафов и рядов стоек решений будет оправданна, если только вы отключите часть имеющихся у вас кондиционеров системы CRAC. Как правило, в ЦОДах имеется возможность делать это.

Установить, избыточна ли производительность работающих у вас кондиционеров системы CRAC — дело несложное. Если, прежде чем войти в ЦОД, вы надеваете свитер или даже теплую куртку, то производительность используемых вами комнатных кондиционеров явно больше, чем нужно. При правильно спланированной системе охлаждения ЦОДа температура воздуха в нем должна быть +25 °С, считает Пол Перес, вице-президент по расширяемым инфраструктурам ЦОДов компании HP. Температура же воздуха в большинстве ЦОДов составляет ниже +21 °С. По словам г-на Переса, при повышении температуры воздуха в ЦОДе на один градус энергопотребление систем охлаждения снижается на несколько процентов.

Профессиональная помощь

Если определить избыточную производительность действующих в компьютерной комнате кондиционеров несложно, то о принятии мер по ее снижению этого не скажешь. Большинство кондиционеров систем CRAC — это простые устройства: они либо включены, либо выключены и не предполагают никакой регулировки своей производительности. Менее 10% установленных сегодня кондиционеров систем CRAC оснащены двигателями с регулируемой скоростью вращения ротора, однако, даже используя такие кондиционеры, определение эффекта от изменения выходного воздушного потока одного устройства системы CRAC является делом нетривиаль-ным. До недавнего времени производители поставляли приборы и ПО для создания двухмерных и трехмерных диаграмм воздушных потоков и температурных градиентов в ЦОДе, не способные определять «зону влияния» каждого кондиционера системы CRAC. В июле 2007 г. компания HP анонсировала свое аппаратно-программное решение Thermal Zone Mapping, контролирующее температурную обстановку в ЦОДе и прогнозирующее влияние (на эту обстановку) перемещения или регулировки охлаждающей мощности кондиционеров системы CRAC.

Вместе с вышеупомянутым решением компания HP анонсировала систему Dynamic Smart Cooling (DSC), разработанную в сотрудничестве с фирмами Liebert и STULZ, ведущими поставщиками систем охлаждения для зданий в Северной Америке. Такое партнерство позволяет использовать ПО компании HP для контроля работы новых систем CRAC обеих фирм. Что же касается ЦОДов, построенных за последние пять лет, то для сопряжения кондиционеров их систем CRAC с ПО HP этим устройствам может потребоваться лишь дополнительная плата контроллера, при условии что они оборудованы двигателями с регулируемой скоростью вращения ротора. Более же старые кондиционеры необходимо заменить новыми. Специалисты компании HP утверждают, что ее решение DSC позволяет снизить затраты на охлаждение ЦОДов на 45%.

Однако, чтобы достигнуть такого уровня экономии средств, одной лишь инсталляции системы управления кондиционерами недостаточно. Вам, возможно, придется пересмотреть размещение своих устройств CRAC и стоек с оборудованием.

Если вы уже подумываете о перемещении стоек, кондиционеров и прочей «утвари», то самое время пригласить профессионального консультанта по планировке ЦОДов. ИТ-специалисты не имеют ни времени, ни достаточной квалификации, чтобы спланировать максимально эффективный ЦОД. Даже если они знают, чем отличается ламинарный воздушный поток от турбулентного, у них все равно отсутствуют приборы и ПО для контроля температурной обстановки в ЦОДе. Кроме того, приступив к перепланировке помещений ЦОДа, чтобы уложиться в нужные сроки, вам необходимо задействовать достаточное число слесарей-сантехников, электриков и специалистов по ИТ.

Впечатляющей характеристикой системы DSC является возможность планирования ЦОДа с перспективой на будущее. Все мы можем представить себе некий виртуализированный ЦОД, в котором серверы автоматически включаются и выключаются в зависимости от текущих бизнес-потребностей. Решение же DSC способно «чувствовать» изменяющиеся потребности в охлаждении такого динамического ЦОДа и выполнять соответствующие регулировки «на лету».

Независимо от того, кто модернизирует или строит ЦОД, основными требованиями к новому решению для него будет наличие контрольно-измерительных систем и модульного оборудования. Первые предоставят данные о энергопотреблении ЦОДа, а модульность оборудования позволит воздействовать на этот параметр. Кроме того, она даст возможность обеспечить максимальную энергетическую эффективность работы систем, чего невозможно добиться от нынешних архитектур ЦОДов (см. «Куда расходуется электроэнергия?»).

Когда предприятия начинают всерьез задумываться о снижении энергопотребления, им не следует сразу же хвататься за новейшие энергосберегающие технологии. Все, что им потребуется, это хорошо продуманная реорганизация работы ЦОДа, обеспечивающая снижение энергопотребления, экономию денежных средств и трудозатрат ИТ-персонала. .

  
3 '2008
СОДЕРЖАНИЕ

бизнес

• Одна частная история Ethernet

• Очарование новых информационных технологий

• Текучесть кадров: система раннего предупреждения

• Корпоративный веб-хостинг

инфраструктура

• Вкладывайте деньги в автоматизацию ИТ-процессов

• Как снизить энергопотребление ЦОДа

• Станут ли сети стандарта 802.11n «добрыми соседями»?

• Аналитика для «интеллектуальных» IP-систем видеонаблюдения

• Внутритрактовые NAC-устройства

• Нехватка электроэнергии и проектирование ЦОДа

информационные системы

• Формирование услуг в IMS с помощью контейнера сервлетов Java EE SIP

• Приложения ждет реструктуризация

сети связи

• SIP-коммуникации: время наконец пришло?

кабельные системы

• Системам 100-Gigabit Ethernet быть!

• Вездесущие медиаконвертеры


• Калейдоскоп


Реклама: Только наш магазин предлагает матрас 60 120 с хорошей скидкой!
 Copyright © 1996-2008 ООО "Сети и Системы Связи". вверх