DSCon ATTO Technologies

Главная > Образование >Общие вопросы

Методы подключения хост систем (Часть 3)

Часть 1 | Часть 2 | Часть 3

SAN

SAN – это сфокусированная на хранении сеть, в которой RAID системы, подключенные с помощью Fibre Channel обеспечивают емкости для хранения данных многим равноправным серверам. Конфигурация, контроль доступа и безопасность – три дополнительные нагрузки, возложенные на системных администраторов при использовании сетей SAN. Эти вопросы решаются с помощью уникальных, определенных производителями схем для конфигурации зонирования портов и локальной сети, а также LUN Masking.

Fibre Channel RAID подсистемы уровня предприятия

RAID системы среднего класса и класса предприятия обеспечивают как избыточность дисков через RAID, так и резервное оборудование:

  • Процессоры управления хранилищами
  • Пути Fibre Channel
  • Батарейная поддержка кэша
  • Вентиляция
  • Источники электропитания

Подсистемы массивов RAID построены с использованием DPE (Disk Processor Enclosure) и одного или более модулей дискового массива (DAE - Disk Array Enclosure). DPE включает два процессора управления хранилищами, обеспечивающих хост интерфейс Fibre Channel, а также ‘RAIDed' отображение данных пользователей на выходной буфер секторов данных «фермы дисков» (disk farm).

В последнее время на рынке появились массивы с дисками SATA с внешним интерфейсом Fibre. Ожидается, что через пять лет большинство приложений, ранее использовавших для хранения данных дисковые массивы Fibre Channel или SCSI сместятся на массивы SATA по причине их стоимости.

Видение SAN

В представлении SAN все серверы и узлы хранения равноправны. Данные могут беспрепятственно использоваться в SAN совместно несколькими системами. SAN может решить все проблемы.

Реальность SAN

Реальность SAN оказалась совсем иной. Гетерогенные платформы и файловые системы могли совместно использовать один и тот же RAID массив хранения данных с применением зонирования портов коммутатора и LUN masking массива, но совместное использование данных между гетерогенными файловыми системами невозможно было организовать с помощью SAN.

Дополнительные проблемы взаимодействия с адаптерами шины узла (HBA) и каскадными коммутаторами от различных производителей привели к тому, что ранние пользователи SAN испытывали значительные трудности.

Управление хранением данных в сетях SAN добавило дополнительные уровни сложности для работы системных администраторов, что в свою очередь замедлило рост применения SAN. Обязанности администраторов хранилищ по установке новых систем хранения данных теперь включают:

  • Определение подходящего уровня RAID для приложения
  • Связать логические диски (диск) до уровня RAID
  • Определить ограничения LUN
  • Предел сегментов LUN для данной ОС
  • Сегменты форматирования для данной ОС
  • Разрешить доступ к LUN на уровне хоста

Сейчас администраторы хранилищ данных должны на постоянной основе наблюдать за использованием данных и наращивать по мере необходимости дисковое пространство.

Примером распределенной файловой системой для SAN может служить IBM Tivoli (Sanergy). Эти файловые системы работают на хосте и обеспечивают механизм деления файлов (file locking mechanism) между гетерогенными хостами.

В современных центрах данных зачастую используется несколько сетей SAN. Как правило, это делается на базе ОС или приложений. Ниже показана иллюстрация именно такого центра данных с изолированным участком (island) Unix SAN и изолированным участком Microsoft SAN.


Два изолированных участка (island) SAN внутри одного и того же центра данных

IPSAN

Сети хранения данных SAN на основе интернет протокола (IP SAN) будут следующей крупной областью роста SAN. С конца 2002 началась поставка дисков и лент на основе протокола iSCSI. Преимуществом iSCSI является стоимость инфраструктуры GigE (коммутаторов) по сравнению с Fibre Channel.

Все существующие и последующие топологии SAN будут выполнены с применением технологии iSCSI / Ethernet. В начале 2003 компания Overland выпустила GigE (Gigabit Ethernet) плату для библиотек Neo с поддержкой iSCSI.

Кластеризация серверов

Одним из ключевых преимуществ Fibre Channel – это значительное преодоление 25 метрового барьера длины SCSI кабелей. Отныне с короткими волнами оптического Fibre у вас в распоряжении есть несколько сотен метров. Сфера, в которой эта дополнительная длина кабеля имеет особо важное значение, – это кластеры серверов. При кластеризации серверов, множество серверов имеет доступ к одним и тем же логическим дискам и данным. Когерентность работы дисков обеспечивается с помощью назначения одного из серверов ведущим в кластере (Cluster Master). Cluster Master контролирует связность, поддерживая метаданные и блокировку чтения и записи для виртуальных дисков, а также гарантируя, что операции записи производятся в строгом порядке.

Кластеризация серверов, как показано на иллюстрации, является средством для достижения масштабируемости доступа к базам данных или другим совместно используемым данным в RAID массиве. В качестве примера, это может быть база данных Oracle, используемая при проведении транзакций электронной торговли в режиме реального времени. Серверы объединены вместе для обеспечения вычислительной мощности и резервирования транзакций. Связность кластера поддерживается благодаря использованию контроля за кластером и тактовой сети (heartbeat network) между серверами в кластере. Тактовый импульс используется для проверки статуса всех элементов кластера: если сервер метаданных выходит из строя и не отвечает на тактовые импульсы, предопределенные политики позволяют другому элементу кластера взять роль сервера метаданных, что можно обозначить термином отказоустойчивость.

Усовершенствованное программное обеспечение для кластеров также предоставляет способ, с помощью которого уже активный сервер внутри кластера может принять сетевой IP адрес неисправного сервера. Клиенты, использующие внутреннюю локальную сеть или интернет могут столкнуться с небольшими паузами (< 10 секунд) в работе, но долгосрочный доступ к данным по-прежнему сохраняется.

Cети SAN высокой доступности

Сети SAN высокой доступности созданы для устранения любой возможной точки отказа в SAN. В конфигурации четырех узлов системы, показанной ниже, каждый сервер оснащен двумя Fibre Channel адаптерами шины узла (HBA).

Один из этой пары адаптеров в каждом сервере подключен к одному из двух независимых коммутаторов Fibre Channel. Каждый процессор управления хранилищем RAID массива подсоединен к независимым коммутаторам Fibre Channel. Встроенные программы массива обеспечивают доступность логических томов через один из процессоров управления хранилищем.


Четыре серверных узла full dual path SAN

Программное обеспечение драйверов сервера обеспечивает единое представление о присоединенных ресурсах dual path. В случае отказа в работе одного из путей, программное обеспечение драйвера разрешает доступ к ресурсам по альтернативному пути. В усовершенствованных системах Active/Active, приложения, работающие на серверах, могут не замечать сбоя в работе пути, отмечая только снижение пропускной способности.

Методы резервного копирования в SAN

Одним из ключевых преимуществ сетей SAN является то, что с аппаратной точки зрения они делают совместное использование библиотек более простым. В приведенном ниже примере SAN, один из серверов Solaris также является сервером резервного копирования, использующим Veritas NetBackup. Сервер резервного копирования управляет резервированием и носителями, в то время как агенты резервирования на оставшихся серверах посылают резервируемые данные через Fibre Channel на диски в Fibre Channel Option (FCO), которыми оснащены библиотеки Neo.

По мере увеличения в размере сети SAN, можно без проблем добавлять дополнительные модули Neo и платы FCO для удовлетворения требований в емкости и производительности, необходимых для высокоскоростного резервного копирования.

Изолированный участок (island) резервного копирования в SAN

Изолированный участок (island) SAN резервного копирования создан с помощью опции сегментирования библиотек (Library Partitioning Option) Neo. Независимые программные продукты по резервированию от различных производителей могут работать на каждом из участков SAN, выполняя параллельное резервное копирование.


Использование ленточной библиотеки Neo с платами FCO и LPO для резервного копирования двух независимых сетей SAN

Независимые платы Fibre Channel Option (FCO) и Library Partitioning Option (LPO) гарантируют полную независимость данных и команд SAN. Идеальное решение для компаний со смешанными средами хранения. Плата LPO позволяет пользователям разделить библиотеку Neo на несколько виртуальных библиотек поменьше.

Резервное копирование без использования сервера

Ранее при осуществлении резервного копирования, данные сначала считывались с первичного хранилища, на сервер, затем передавались по сети SAN второй раз перед тем, как быть записанными на ленту.


Традиционное резервирование данных в две стадии

При осуществлении резервного копирования без использования сервера, данные перемещаются только напрямую между первичным и вторичным хранилищами и только один раз. Сервер и его операционная система, которым принадлежит резервируемый LUN, больше не находятся на пути перемещения данных, позволяя достигать высоких скоростей при копировании с устройства на устройство.

При осуществлении резервного копирования без использования сервера время ожидания минимально. Некоторые программные продукты по резервированию копируют логический диск как образ, изображение (image), что позволяет значительно снизить взаимодействие ОС и улучшить пропускную способность.


Резервное копирование без использования сервера в одну стадию
с библиотекой Neo

Резервное копирование без использования сервера будет применяться в сетях SAN, обеспечивающих высокоскоростной режим передачи. Многопоточные операции резервного копирования без использования сервера – это способ, благодаря которому отделы административных информационных систем могут справляться со все возрастающими требованиями хранения и резервирования данных.

Примером программного обеспечения по резервированию, поддерживающим резервное копирование без использования сервера может служить NetVault 7.x от BakBone. Эта методология резервного копирования уже нашла применение в сетях iSCSI Ethernet SAN в disk-to-disk back-up.

КОНВЕРГЕНЦИЯ SAN NAS

За последнее время многое было сказано о конвергенции SAN/NAS, которая должна произойти в ближайшие 18-24 месяцев. “Конвергенция” этих двух рынков происходит на двух фронтах.

Первый фронт – это использование протоколов, работающих на уровне блока, таких как SCSI over Ethernet. Благодаря iSCSI пользователи смогут применять технологию Ethernet для создания функциональных возможностей SAN. Сетевые интерфейсные платы (NIC - Network Interface Card) будут играть двойную роль в будущем обеспечении как традиционного доступа к данным на уровне файлов, так и доступа к данным на уровне блока. Предполагается, что в следующие несколько лет наиболее используемым интерфейсом HW/protocol будет протокол 10 GigE TCP/IP.

Вторая область “конвергенции” SAN и NAS представляет собой ничего более, чем работу нескольких производителей систем NAS высокого класса, предоставляющих доступ на уровне блока к части их «фермы дисков» (disk farm). Архитектуру систем от производителей NAS, принявших решение преложить данную характеристику, можно увидеть на левой части графика:

Правая сторона представляет собой то, что считается конвергенцией SAN NAS. Как видно на графике, производитель открыл собственную частную backend SAN «ферму дисков» (disk farm) путем добавления коммутатора Fibre Channel перед RAID контроллерами. Теперь хост системы, присоединенные к коммутатору, смогут использовать часть RAIDed JBOD для доступа на уровне блока к хранилищу SAN storage. Виртуальные диски не могут совместно использоваться внешними интерфейсами SAN и NAS.

Часть 1 | Часть 2 | Часть 3

Где купить?
Контакты
Компания | Продукты | Поставщики | Поддержка | Образование | Press room
Copyright © 2000-2016 DSCon®. All Rights Reserved.