Журнал о компьютерных сетях и телекоммуникационных технологиях
СЕТИ И СИСТЕМЫ СВЯЗИ on-line
  ПОИСК:
    Домой
 
   
АРХИВ ЖУРНАЛА
   

2008: 1 2 3 4 5 6 7 8 9 10 11 12 13
2007: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2006: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2005: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2004: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2003: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2002: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2001: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2000: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
1999: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1998: 1 2 3 4 5 6 7 8 9 10 11 12
1997: 1 2 3 4 5 6 7 8 9 10 11 12
1996: 1 2 3 4 5 6 7 8 9 10


Rambler's Top100

  

ЦОД следующего поколения

Арт Уитман

Давно построенные центры обработки данных (ЦОД) перестают соответствовать требованиям организаций, владеющих ими. Это главный вывод, который следует из результатов нашего опроса. Примерно половина респондентов заявили, что обязательно или предположительно будут модернизировать системы электропитания и охлаждения оборудования своих ЦОДов в ближайшие 12 месяцев. Перед большинством организаций стоит головоломная задача — как проводить необходимую модернизацию? С одной стороны, инфраструктура старого ЦОДа уже не годится для нормальной работы современных серверов, систем хранения данных и сетевого оборудования, которые потребляют все больше электроэнергии в расчете на единицу площади ЦОДа, а с другой — строительство нового ЦОДа может оказаться очень уж дорогостоящим делом.

У большинства организаций просто нет выбора. Дело в том, что им приходится сохранять и обрабатывать (новыми и более сложными способами) постоянно растущие объемы данных, и нет никаких признаков ослабления этой тенденции. И какими бы полезными ни были консолидация серверов и повышение эффективности управления хранением данных, рано или поздно вам все равно придется реконструировать свой старый ЦОД или строить новый.

Наибольшую озабоченность у ИТ-специалистов продолжают вызывать проблемы с электропитанием и охлаждением оборудования ЦОДа. Но в ответах на наш вопрос, испытывают ли организации дефицит свободного места в своем ЦОДе, были выявлены два интересных факта. Первый — почти половина опрошенных сказали, что в их ЦОДе вполне достаточно места для дальнейшего развития его ИТ-инфраструктуры. Такого ответа можно было ожидать, ведь рабочие характеристики серверов и систем хранения данных непрерывно улучшаются при сохранении или уменьшении их габаритных размеров. В результате для повышения эффективности работы ЦОДа отнюдь не всегда нужна дополнительная площадь. Второй факт показался нам довольно неожиданным: почти четверть респондентов заявили, что для организации своих ЦОДов они используют обычные, не предназначенные для этого помещения.

Мы не стали глубоко вникать, что является причиной этого, но можно предположить, что ответившие так респонденты работают в небольших компаниях или в удаленных филиалах крупных организаций. В любом случае решения типа «ЦОД в коробке» — системы размером с холодильник, снабженные необходимыми для эксплуатации примерно 30 серверов (или других сетевых устройств) высотой 1U средствами охлаждения и источниками бесперебойного питания (ИБП), должны пользоваться большим спросом.

Результаты опроса указывают на движущие силы консолидации ЦОДов. Чтобы решить ряд проблем, включая обеспечение соответствия законодательным требованиям по информационной безопасности и повышение надежности хранения данных, нужно совершенствовать системное управление, а для этого желательно переместить серверы подразделений компании и ее удаленных филиалов в ЦОД.

Что же на самом деле лучше?

Очевидно, что предприятиям нужны улучшенные ЦОДы. Но что же значит «улучшенные»? Должны ли, например, серверы быть специализированными или как можно более универсальными? Следует ли покупать блейд-системы или это всего лишь еще один способ «привязать» заказчика к конкретному производителю? Поможет ли питание оборудования постоянным током (DC) сократить расходы на электроэнергию или от такого типа питания будет больше проблем, чем пользы? Нужны ли фальшполы, или они уже устарели? Число вопросов кажется бесконечным, но совершенно ясно, что строить объекты (для организации ЦОДов) того же типа, какие строились всего лет пять назад, — провальная затея. Возможно, самой большой проблемой для организаций, планирующих строительство ЦОДа, является высокая стоимость последнего.

Раньше большинство систем электропитания для оборудования ЦОДов рассчитывались на удельную мощность 50 Вт/кв. фут (1 кв. фут = 0,0929 кв. м), но сейчас многие аналитики рекомендуют иметь систему удельной мощностью 500 Вт/кв. фут. Десятикратное увеличение удельной мощности систем электропитания (включая ИБП и электрогенераторы), а также необходимость иметь соответствующие системы охлаждения, делают затраты на реализацию этих систем самой большой статьей расходов при создании ЦОДов. Если вы хотите построить ЦОД уровня IV с надежностью работы «пять девяток» (в соответствии с определением организации Uptime Institute), то расходы на приобретение и монтаж его систем электропитания и охлаждения могут аж в 50 раз превысить затраты на строительство собственно здания ЦОДа (165 млн долл. против 3,3 млн в случае строительства ЦОДа площадью 15 тыс кв. футов). А ежегодная плата за электроэнергию при использовании ЦОДа вышеуказанной площади, как говорится «на полную катушку», составляет 13 млн долл. (в Калифорнии), что почти в пять раз превышает стоимость строительства его здания.

Учитывая столь значительные расходы на реализацию инженерной инфраструктуры ЦОДа и затраты на оплату электроэнергии, имеет смысл критически оценить все детали конструктивного решения его помещения. Одним из спорных моментов при проектировании ЦОДов является наличие фальшпола, поскольку последний становится бесполезным при высокоплотном размещении оборудования в монтажных стойках. Всего шесть лет назад среднее энергопотребление стойки с оборудованием было около 3 кВт. Сегодня этот показатель составляет почти 7 кВт, а при заполнении стойки блейд-серверами ее энергопотребление может возрасти до 30 кВт и больше. Ни одна из существующих систем охлаждения через фальшпол не рассчитана на такую концентрацию тепловой нагрузки. Но не только проблемы с охлаждением заставляют усомниться в необходимости фальшпола.

С увеличением энергопотребления стоек с оборудованием растет и их масса. Полностью заполненная аппаратурой стойка может весить от четверти тонны до одной тонны и даже больше. Чтобы фальшпол выдерживал столь тяжелые стойки, его нужно укреплять дополнительными подпорками. Вместо того чтобы полагаться на систему охлаждения через фальшпол, стоит рассмотреть варианты использования средств охлаждения, работающих на уровне стойки или ряда стоек, в качестве дополнения к этой системе или ее полной замены. Данные средства хороши тем, что они модульные и подают хладагент именно туда, куда нужно, это и делает их более эффективными.

DC или AC?

Проанализировав лучшие подходы к построению ЦОДов, вы несомненно получите большую пользу. Но один подход мы не советовали бы вам брать на вооружение — это использование систем электропитания DC вместо систем электропитания переменного тока (AC), которые в настоящее время преобладают в ЦОДах.

Системы электропитания DC нужны организациям, сетевая инфраструктура которых должна соответствовать требованиям NEBS (Network-Equipment Building System). Как правило, это телекоммуникационные операторы, использующие такие системы уже много лет главным образом по причине их высокой надежности и простоты подключения альтернативных источников питания (батарей и генераторов).

Предприятия других отраслей тоже проявляют интерес к DC-электропитанию, поэтому любой крупный производитель серверов выпускает по меньшей мере несколько моделей, питаемых от DC-систем. Одним из производителей, специализирующихся на выпуске таких серверов, является компания Rackable Systems.

Существует ряд факторов, препятствующих использованию DC-электропитания в ЦОДах. Во-первых, выбор ИТ-продуктов с таким типом электропитания сравнительно невелик. Во-вторых, построение DC-системы электропитания в масштабе ЦОДа требует специальных знаний и навыков — достаточно не затянуть хотя бы один болт на шине DC и она может расплавиться. В-третьих, вам придется разместить инверторы вне помещения ЦОДа, чтобы выделяемое ими тепло не мешало охлаждать установленное там оборудование.

В-четвертых, DC-системы электропитания обычно стоят дороже AC-систем (впрочем, имея более высокий КПД, DC-системы потребляют меньше электроэнергии, и вы можете сэкономить на снижении совокупной стоимости владения ими).

И наконец, в-пятых, если серверы, коммутаторы, маршрутизаторы и системы хранения данных с DC-электропитанием на рынке имеются, то DC-кондиционеров для ЦОДов не существует. Это означает, что вам придется реализовывать в ЦОДе две системы электропитания — DC и AC, но очевидно, что гораздо лучше иметь дело с системой только одного типа. По указанным выше причинам DC-электропитание в ЦОДах, ориентированных на разнообразные ИТ-приложения, не стало популярным..

  
8 '2008
СОДЕРЖАНИЕ

бизнес

• К инновационным ИТ-инфраструктурам — разными путями

• 3M ставит на оптику

• Как добиться успеха на рынке СПД

инфраструктура

• Отвод тепла в ЦОДе: плотность или площадь?

• Перелом на рынке средств 10-Gigabit Ethernet

• ЦОД следующего поколения

информационные системы

• Соковыжималка в апельсиновой роще, или eTOM и все-все-все

• Золотая середина в контроле над ПК

• Мыслить в стереотипах SOA

кабельные системы

• СКС: развитие рынка и высокоскоростные решения

• Монтажные шкафы и охлаждение оборудования

сети связи

• Операторам нужно измениться

защита данных

• Настало ли время безопасности для DNS?

• Блюсти ИТ-порядок

новые продукты

• PCI-плата ATEN IP8000; OmniSwitch для жестких условий; Новый анализатор от EXFO


• Калейдоскоп


Реклама:
 Copyright © 1996-2008 ООО "Сети и Системы Связи". вверх