Журнал о компьютерных сетях и телекоммуникационных технологиях
СЕТИ И СИСТЕМЫ СВЯЗИ on-line
  ПОИСК:
    Домой
 
   
АРХИВ ЖУРНАЛА
   

2008: 1 2 3 4 5 6 7 8 9 10 11 12 13
2007: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2006: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2005: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2004: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2003: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2002: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2001: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2000: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
1999: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1998: 1 2 3 4 5 6 7 8 9 10 11 12
1997: 1 2 3 4 5 6 7 8 9 10 11 12
1996: 1 2 3 4 5 6 7 8 9 10


Rambler's Top100

  

Универсальная сеть. Какой она будет?

Энди Дорнан

Передача трафика сети SAN по каналам ЛВС становится вполне реальным делом, но на какой технологии будет основана полученная таким образом конвергированная сеть — на Ethernet, InfiniBand или Fibre Channel?

Сетевая конвергенция — это нечто большее, чем просто передача голоса и данных по одной и той же коммуникационной инфраструктуре. Производители систем хранения данных (СХД) и сетевого оборудования обещают, что сети следующего поколения явятся своего рода гибридом ЛВС и сети хранения данных (Storage Area Network — SAN), виртуализирующим их на базе инфраструктуры с пропускной способностью каналов 20, 40 или даже 100 Гбит/с. Речь идет не о простом объединении существующих сетей: в ходе совершенствования решений для SAN прогнозируется конвергенция СХД и компьютерной оперативной памяти. Подобно тому как в прошлом специалисты отделили локальные СХД от серверов (сделав эти запоминающие устройства внешними и сетевыми), может произойти отделение от последних и оперативной памяти. Кроме того, твердотельные флэш-накопители станут все шире использоваться вместо жестких дисков.

У специалистов по сетям SAN с большим стажем работы может возникнуть ощущение дежа вю. Дело в том, что о перспективах конвергенции сетей SAN и ЛВС много говорилось еще при появлении на рынке первых решений на базе протокола iSCSI, который, обеспечивая передачу трафика СХД по IP-сетям, «обещал» сделать технологию Fibre Channel (FC) вообще ненужной. Протокол iSCSI вполне жизнеспособен, но задействуется он в основном в небольших сетях, где вполне достаточно использовать соединения с пропускной способностью 1 Гбит/с или меньше. Но даже в таких сетях пользователи предпочитают отделять инфраструктуру SAN от инфраструктуры ЛВС, притом что обе они построены на основе идентичных недорогих коммутаторов Gigabit Ethernet.

От прошлой активности промоутеров iSCSI действия новых апологетов сетевой конвергенции отличаются масштабом амбиций и объемом используемых денежных ресурсов. Сегодня представители индустрии сетевого оборудования и СХД совместно разрабатывают стандарты, призванные обеспечить возможность объединения нескольких сетей в одну. Недавно появившиеся на рынке компании Xsigo и 3Leaf Systems уже выпускают фирменные оборудование и ПО, предназначенные для виртуализации ввода-вывода, что позволяет объединять сети SAN и ЛВС (оперативную память эти продукты пока не затрагивают).

Между участниками рынка имеются серьезные разногласия по поводу того, какой же должна быть такая объединенная сеть. Но ни в одной из точек зрения не фигурирует маршрутизация IP-трафика. Поскольку сеть центра обработки данных (ЦОД) должна обеспечивать малую задержку передачи информации при малых же накладных расходах на данный процесс, она может быть реализована только на основе полностью коммутируемой инфраструктуры; при этом предполагается, что конвергированная сеть не выйдет за стены ЦОДа. Но на базе какой же технологии она будет функционировать — Ethernet, FC или InfiniBand?

Катализатором конвергенции сетей выступает виртуализация серверов, при которой использование систем SAN или устройств NAS (Network-Attached Storage — NAS) имеет огромное значение в плане отделения обработки данных (рабочая нагрузка сервера) от выполнения операций по управлению их хранением. Без применения виртуальных СХД в значительной мере теряется «обещанная» виртуализацией серверов гибкость ИТ-систем, поскольку данные приходится перемещать и реплицировать при каждом запуске виртуальной машины или ее удалении. Разделение обработки данных и управления их хранением облегчает перераспределение рабочей нагрузки в рамках сложной ИТ-системы.

Виртуализация серверов делает сетевую конвергенцию все более необходимой. Один невиртуализированный сервер обычно имеет два сетевых интерфейса: сетевую плату Ethernet и хост-адаптер FC, предназначенные для подключения к ЛВС и сети SAN соответственно. При запуске на сервере множества виртуальных машин (ВМ) каждой из них требуются свои собственные сетевая плата и хост-адаптер, которые должны быть виртуальными. Поскольку сети в любом случае нужно виртуализировать, интеграция их на основе единого высокопроизводительного транспорта сделает ЦОД более гибким.

Объединение ЛВС и сети SAN стало первым этапом сетевой конвергенции, в дальнейшем к ним присоединится сеть оперативной памяти. Концепция построения сетей SAN оказалась настолько успешной, что разные компании, начиная от Cisco Systems и заканчивая 3Leaf (стартап которого поддерживает корпорация Intel), рассматривают реализацию удаленной оперативной памяти в качестве очередного этапа развития ИТ-инфраструктур. Эти компании хотят сделать с модулями ОЗУ то же самое, что в свое время разработчики концепции сети SAN предприняли в отношении жестких дисков. «Многие серверы имеют достаточно большую вычислительную мощность, но их производительность ограничивается числом слотов для модулей памяти», — говорит главный исполнительный директор компании 3Leaf Б.В. Джагадиш.

В слоты типичного сервера можно установить модули памяти общим объемом 32 Гбайт, тогда как 64-разрядные процессоры и ОС поддерживают ОЗУ объемом 16 Тбайт и больше. В разработанной специалистами компании 3Leaf архитектуре процессор одного сервера соединяется с другими северами, выполняющими функции целевого устройства оперативной памяти. Связь осуществляется по шинам Coherent HyperTransport компании Advanced Micro Devices (AMD) и QuickPath корпорации Intel, разработанным для соединения процессоров внутри одного компьютера. Но специалисты 3Leaf заявляют, что могут как бы «растягивать» их по внешней сети с помощью специальной микросхемы, устанавливаемой в процессорное гнездо каждого сервера. В результате образуется единая инфраструктура, по кабелям которой передаются все три типа трафика: сетей оперативной памяти, SAN и ЛВС.

Насколько эта архитектура осуществима практически? Представители 3Leaf ответили, что в настоящее время их микросхема находится на стадии тестирования, причем ее версия для процессоров AMD планируется к выпуску до конца текущего года, а версия для процессоров Intel появится годом позднее. (Подобно применению процессоров внутри одного сервера, совместное использование процессоров AMD и Intel в рамках одной виртуализированной инфраструктуры будет невозможным, в силу того, что они работают с разными фирменными шинами.) Как и финансируемая компанией Juniper конкурирующая фирма Xsigo, компания 3Leaf уже продает устройство, способное виртуализировать FC-сети SAN и ЛВС Ethernet.

Компания 3Leaf называет это устройство I/O Server, отмечая тот факт, что оно построено из стандартных ПК-компонентов и может быть лицензировано производителями серверов. Фирма Xsigo именует свой продукт I/O Director, подчеркивая тем самым, что он является компонентом сети SAN. Однако с архитектурной точки зрения эти устройства виртуализации работают одинаково: виртуальные сетевые платы и хост-адаптеры каждого сервера (или каждой ВМ) пересылают трафик Ethernet и FC в специальное устройство, откуда он направляется по физическим каналам Ethernet и FC в сеть SAN и ЛВС. Здесь нет ничего общего с традиционными виртуальными ЛВС, поскольку данные продукты не являются конечными узлами сети и не имеют МАС-адресов.

Ethernet повсюду

В настоящее время устройствам фирм Xsigo и 3Leaf для своих физических соединений с серверами требуются каналы InfiniBand.

Этот выбор понятен: разработанная в том числе и для виртуализации ввода-вывода технология InfiniBand обеспечивает очень низкие накладные расходы на передачу данных и малую временную задержку их пересылки — 100 нс, что сопоставимо с характеристиками локальной шины памяти ПК. Как и в случае с применением технологии FC, пропускная способность каналов InfiniBand масштабируется до 20 Гбит/с, что опять же сравнимо с пропускной способностью шин процессоров AMD и Intel.

Кроме того, оборудование InfiniBand продается дешевле альтернативных решений. Так, 10-Гбит/с канальный хост-адаптер (Host Channel Adapter — HCA) стоит примерно 700 долл., а сетевая плата Ethernet и хост-адаптер FC — порядка 1000 и 2000 долл. соответственно. Примерно таково же соотношение цен портов коммутаторов. Впрочем, для соединения серверов некоторым пользователям коммутатор может и не понадобиться, поскольку устройство I/O Director компании Xsigo комплектуется дополнительными модулями InfiniBand, которые напрямую соединяются с серверами. При реализации же проектируемых специалистами компании 3Leaf сетей оперативной памяти коммутаторы будут необходимы.

Несмотря на все достоинства технологии InfiniBand, большинство отраслевых аналитиков считают, что в долгосрочной перспективе единые конвергированные сети все-таки будут основаны на технологии Ethernet. Со временем и фирмы Xsigo и 3Leaf планируют обеспечить поддержку коммутирующих инфраструктур Ethernet в своих продуктах. В феврале этого года компания Cisco выпустила на рынок мощный коммутатор для ЦОДов Nexus 7000, предназначенный для объединения множества сетей в одну. В отличие от инженеров вышеупомянутых молодых фирм специалисты компании Cisco не побеспокоились о реализации поддержки технологии InfiniBand в этом продукте. Впрочем, как говорят ее представители, модули InfiniBand, возможно, будут выпущены, если на них появится достаточно большой спрос.

Самый сильный довод в пользу применения технологии Ethernet (для построения конвергированных сетей) заключается в том, что она уже очень широко используется на предприятиях. На сетевом рынке отмечается устойчивая тенденция к доминированию оборудования Ethernet над продуктами на базе других технологий. Хотя некоторые пользователи на предприятиях переходят с кабельных соединений на устройства Wi-Fi, речь идет о беспроводном расширении инфраструктур Ethernet, а не о их полной замене. Первоначально технология Ethernet была разработана как средство связи между ПК. Теперь она широко применяется для доступа в Интернет и ее все чаще задействуют для передачи голоса и предоставления WAN-услуг в дополнение к сервисам ЛВС.

Неcколько новых стандартов и технологических инициатив, известных под общим названием Data Center Ethernet, нацелены на уменьшение временной задержки передачи пакетов в сетях Ethernet до уровня таковой в инфраструктурах FC и InfiniBand. Кроме то-го, разрабатываются решения по увеличению пропускной способности каналов Ethernet свыше 10 Гбит/с, но обычное десятикратное увеличение их пропускной способности вряд ли произойдет в ближайшее время.

«Оборудование для сетей 100-Gigabit Ethernet появится на рынке не раньше чем через 10 лет, — утверждает Коби Сегал, операционный директор компании Voltaire, производящей средства InfiniBand. — Речь идет отнюдь не только о коммутаторах — должна быть создана целая экосистема продуктов, включая кабели, разъемы и объединительные панели».

Специалисты по сетям Ethernet не оспаривают эту точку зрения. Члены рабочей группы IEEE 802.3ba предполагают, что стандарт на 100-Гбит/с технологию Ethernet будет готов к 2010 г., но это еще не означает, что первые совместимые с ним продукты станут работать на максимальной указанной в нем скорости передачи данных. Разработчики названного стандарта приняли решение предусмотреть в нем две скорости передачи — 40 и 100 Гбит/с. «Мы полагаем, что сначала будет реализована скорость передачи, равная 40 Гбит/с», — говорит Рейви Чалака, вице-президент по маркетингу недавно появившейся на рынке компании Neterion, специализирующейся на высокоскоростных средствах Ethernet.

С достижением скорости передачи данных 100 Гбит/с связаны сложнейшие технические проблемы. Например, в текущих спецификациях содержится требование, чтобы частота появления ошибочных битов (Bit Error Rate — BER) не превышала 10–12, что соответствует одному ошибочному биту на каждые 125 Гбайт переданных данных. Для низкоскоростных линий такое значение BER вполне приемлемо, но для 100-Гбит/с канала это означало бы появление в среднем одной ошибки каждые 10 с, что на прикладном уровне может создать серьезные проблемы, обусловленные задержками и «заторами» трафика из-за повторной передачи отбрасываемых пакетов. Производители надеются добиться значения BER, равного 10–15, что усредненно соответствует появлению одной ошибки приблизительно каждые 3 ч работы канала. Однако такое значение BER, как и сама 100-Гбит/с скорость передачи данных, является всего лишь желанием разработчика, реализацию желаний, как известно, никто не может гарантировать.

Аналогичные проблемы возникают при попытке модернизировать любую сетевую технологию. Неудивительно, что скорость 40 Гбит/с является следующим целевым показателем и для технологии InfiniBand. Технологии InfiniBand и Ethernet настолько похожи, что компания Mellanox поставляет 10-Гбит/с HCA-адаптер InfiniBand, способный работать и как сетевая плата Ethernet. Для передачи данных со скоростью 40 Гбит/с в оборудовании InfiniBand и Ethernet можно использовать идентичные технические решения, первоначально разработанные для WAN-каналов OC-768, имеющих почти такую же пропускную способность.

Из всех инициатив под флагом Data Center Ethernet наиболее важной для развития СХД представляется разработка технологии Fibre Channel over Ethernet (FCoE), которая должна быть завершена в начале 2009 г. Ее поддерживают ведущие компании индустрии СХД, включая IBM, Cisco, QLogic и Brocade. Кроме того, многие производители уже демонстрируют фирменные реализации этой технологии. Стремление разработчиков «научить» коммутаторы Ethernet «разговаривать» на языке FC способствует стиранию различий между ЛВС и SAN.

Будет ли готова Ethernet?

В долгосрочной перспективе использование технологии FCoE должно исключить необходимость преобразования трафика Ethernet в трафик FC и обратно. Протокол FC более высокого уровня сохранится, так как он надежен в работе и совместим с существующими приложениями для хранения данных, а технологию Ethernet станут использовать для организации всех каналов подключения СХД. Однако вряд ли это произойдет в обозримом будущем. Поскольку СХД обычно имеют более длинный цикл замены, чем сетевые коммутаторы, и в консолидации сетевых соединений СХД насущной необходимости нет, большинство производителей предлагают сначала использовать технологию FCoE только для подключения серверов к сети. При этом соединения FCoE нужно будет преобразовывать в физические каналы FC с помощью либо отдельного устройства, либо модуля FC в коммутаторе Ethernet.

Однако, если технология FCoE окажется полностью готовой к применению, может случиться так, что технология Ethernet не будет готова к этому. Проведенное компанией Neterion тестирование показало, что, когда задействуется ПО Vmware, реальная пропускная способность многих 10-Гбит/с каналов Ethernet вследствие накладных расходов на виртуализацию снижается в среднем до 4 Гбит/с. Для решения этой проблемы вышеназванная компания предлагает использовать свое собственное технологическое решение. Речь идет о наделении сетевых адаптеров Ethernet дополнительными «интеллектуальными» возможно-стями, реализующими примерно ту же концепцию, которая положена в основу работы аппаратной поддержки виртуализации, встраиваемой компаниями Intel и AMD в свои процессоры. К тому времени, когда подобная стандартизированная функциональность появится в большинстве высокоскоростных устройств Ethernet, люди, желающие использовать свои 10-Гбит/с каналы в полную силу, могут разочароваться в технологии виртуализации.

Так как в сети InfiniBand вполне возможно реализовывать виртуальные каналы FC, вряд ли можно говорить о большом будущем серверных физических каналов FC. Тем не менее производители оборудования FC не собираются отказываться от этой технологии. Представители Brocade говорят, что компания будет поддерживать технологию FCoE, но сегодня она продает устройство Fibre Channel Director, ориентированное на конвергенцию сетей. «Мы стремимся наделить характеристиками SAN другие имеющиеся в ЦОДах се-ти», — говорит Дуг Инграхем, старший директор по управлению продуктами компании Brocade. Его концепция конвергенции сетей аналогична концепции компании Cisco, только реализация ее основана на технологии FC, а не на технологии Ethernet. И так же как в Cisco, в Brocade не видят необходимости поддерживать InfiniBand.

СХД имеют не такой короткий цикл замены, как у виртуальных серверов, но при замене этих систем могут происходить серьезные технологические изменения. Почти все СХД основаны на жестких дисках, производительность которых уже достигла своего технологического предела. Емкость устройств флэш-памяти повысилась до такого уровня, при котором они становятся привлекательной альтернативой жестким дискам. Недаром в январе текущего года компания EMC анонсировала высококлассный дисковый массив с поддержкой флэш-накопителей. Хотя конкуренты этого производителя, по всей вероятности, последуют его примеру, нужно иметь в виду, что с флэш-технологией не все так просто: у нее еще имеются нерешенные проблемы.

Жесткие диски и флэш-память

Основная проблема, связанная с использованием жестких дисков, не имеет никакого отношения к емкости последних или к пропускной способности их шин ввода-вывода. За последние годы эти показатели выросли многократно при значительном удешевлении самих дисков, и, похоже, данная тенденция продолжится. Проблема заключается в малом быстродействии привода магнитных головок дисков, перемещающего их вдоль поверхности магнитных пластин. Данный механический процесс повторяется всякий раз, когда нужно записать новый файл или считать старый. В самых быстрых дисках магнитные головки перемещаются примерно за 4 мс, а, значит, такой диск может выполнять не более 250 операций чтения-записи в секунду. Увы, в отношении движущихся механических деталей, включая детали приводов магнитных головок, закон Мура не действует — следовательно, увеличение этого числа маловероятно.

Между тем серверы работают в условиях экспоненциального роста числа обращенных к ним запросов. Применение обогащенных Интернет-приложений и постоянно действующих каналов удаленного доступа еще более усугубляет эту проблему, потому что клиенты часто запрашивают данные небольшими порциями, всякий раз заставляя детали дисков двигаться. Традиционные способы повышения производительности дисковых подсистем — увеличение числа дисков и кеширование данных в ОЗУ являются дорогостоящими и энергоемкими. Динамическое ОЗУ потребляет меньше электроэнергии, чем постоянно вращающиеся жесткие диски той же емкости, но, поскольку в случае сбоя по питанию хранящиеся в нем данные безвозвратно теряются, его можно использовать лишь как дополнение к жестким дискам, но не в качестве их замены.

Недостатки, характерные для жестких дисков, у флэш-памяти отсутствуют: не имея никаких движущихся деталей, она способна выполнять тысячи операций чтения-записи в секунду. Кроме того, по сравнению с жесткими дисками и модулями динамического ОЗУ она потребляет гораздо меньше электроэнергии. Недостаток же флэш-памяти заключается в том, что изнашивается она даже быстрее жестких дисков: флэш-накопитель можно перезаписывать не более 100 тыс. раз, после чего он выходит из строя. Это вполне подходит для устройств бытовой электроники и ноутбуков, обращающихся к такого рода накопителям лишь эпизодически, но не приемлемо для серверов, память которых используется практически постоянно.

«Флэш-память, безусловно, имеет свои ограничения, — соглашается Амил Ахола, главный исполнительный директор новой компании Pliant Technology, руководство которой планирует выпускать конкурентоспособную (по сравнению с жесткими дисками) флэш-память для СХД. — Разработать конструкцию флэш-памяти, по продолжительности и надежности работы не уступающей жестким дискам, отнюдь не просто».

Создать флэш-накопитель с бесконечным числом операций перезаписи пока невозможно. Компания STEC, флэш-накопители которой емкостью 73 и 146 Гбайт используются в СХД компании EMC, преодолела вышеуказанное ограничение с помощью методики выравнивания износа (wear leveling). Ее идея заключается в том, что операции записи равномерно распределяются по всей поверхности кристалла флэш-памяти, в результате все части последней изнашиваются почти одновременно. Эта методика повышает максимальное число операций записи данных на флэш-накопитель до 2 млн раз.

Компания Pliant предполагает использовать дополнительные методы коррекции ошибок, которые, как утверждают ее представители, позволят еще более удлинить срок службы флэш-накопителей. Специалисты компании разрабатывают микросхему ASIC, она будет обнаруживать части кристалла флэш-памяти, которые вот-вот откажут, и блокировать их использование. Продукты Pliant все еще находятся на стадии разработки и должны появиться на рынке в конце текущего года в составе СХД крупных OEM-производителей. Большим недостатком флэш-дисков от Pliant является их дороговизна, стоить они предположительно будут 20–30 долл. за гигабайт. Цены же на жесткие диски выражаются теми же цифрами, только не в долларах, а в центах.

Флэш-память постоянно дешевеет, и она становится все более привлекательной с точки зрения окупаемости затрат. По прогнозам специалистов компании Pliant, со временем флэш-память будет стоить примерно столько же, сколько и накопители на жестких дисках. Кроме того, для создания высокопроизводительных СХД нужно меньше флэш-накопителей (чем жеских дисков), что обеспечивает экономию пространства в аппаратной комнате, уменьшение затрат на техническое обслуживание оборудования и значительное снижение энергопотребления.

Даже если переход от жестких дисков к флэш-памяти со временем обеспечит уменьшение габаритных размеров СХД и сокращение их числа (нужного для решения той или иной конкретной задачи), маловероятно, что они снова будут использоваться преимущественно внутри серверов. Характерная для виртуализации гибкость означает, что ресурсы хранения данных станут все больше и больше отделяться от приложений, которым будет «безразлично», где и как хранятся их данные: локально или удаленно, на жестком диске или во флэш-памяти. Виртуальным серверам потребуются виртуальные устройства хранения данных с виртуальной же сетью между ними..

  
12 '2008
СОДЕРЖАНИЕ

бизнес

• В фокусе BBWF — видео и реклама

• Четыре основных тренда развития рынка телекоммуникаций России

инфраструктура

• Ввод в эксплуатацию и диагностика сетей VoIP

• FTTx: выбор технологии

• Универсальная сеть. Какой она будет?

• ЦОДы нового поколения

• Консорциум Green Grid и повышение энергетической эффективности ЦОДов

информационные системы

• Большая бизнес-аналитика от «большой четверки»

сети связи

• На пути к IP-трансформации

• До свидания, фиксированный WiMAX, — здравствуй, мобильный?

кабельные системы

• Кабельная проводка для систем IP-видеонаблюдения

защита данных

• Не упускать из виду

• Безопасности много не бывает

новые продукты

• «Магические» лотки OBO Bettermann: GR- и RKS-Magic; Новое решение для конференц-связи по IP; Новая система беспроводной оптической связи от MRV


• Калейдоскоп


Реклама:
 Copyright © 1996-2008 ООО "Сети и Системы Связи". вверх