пятница, 11 октября 2013 г.

понедельник, 7 октября 2013 г.

суббота, 5 октября 2013 г.

Запуск командной строки с правами администратора в Windows 8

В Windows 8, как и в предыдущих версиях Windows, ряд задач администрирования и управления системой осуществляется через интерфейс командной строки (cmd.exe). Однако, как и в предыдущих версиях Windows, ряд подобных задач для своего выполнения требуют наличие прав администратора. В этой статье мы поговорим о том, как открыть командную строку с правами администратора в Windows 8. В связи с тем, что Microsoft несколько переделало интерфейс этой операционной системы, эта процедура будет несколько отличаться о той, к которой мы привыкли в Windows 7 (отсутствует меню Пуск). Проблема в том, что при щелчке правой кнопкой мыши по ярлыку программы на стартовом экране Metro, меню «Run as administrator» не появляется.

В Windows 8 запустить командную строку с помощью прав администратора можно несколькими способами:
Со стартового экрана
Из меню проводника Explorer
С помощью диспетчера задач


Опишем каждый из этих способов открытия командной строки с правами админа в Win8 подробнее.

Открываем командную строку из интерфейса Metro UI



В строке «Поиск» интерфейса Windows 8 Metro UI, нужно набрать “cmd” (или “command prompt”), в результате в левой панели отобразится найденное приложение. Затем нужно щелкнуть правой кнопкой мыши по появившемуся ярлыку и в нижней части экрана появится строка с дополнительными опциями запуска. Выберите «Запуск от имени администратора» (“Run as administrator”)

Все то же самое можно выполнить, выделив найденное приложение и нажав на клавиатуре комбинацию Ctrl + Shift + Enter.


Запуск командной строки из проводника

Откройте окно проводника Windows Explorer, нажав сочетание клавиш Win+E. В левом окне выберите элемент Мой компьютер, а справа – диск C:\. Затем в верхнем меню выберите File->Open command prompt -> Open command prompt as administrator (Открыть командную строку как администратор).


Запуск командной строки из диспетчера задач

Откройте диспетчер задач Windows 8, нажав сочетание клавиш Ctrl + Shift + Esc. Затем нужно создать новую задачу, выбрав пункт меню «Файл -> Запустить новую задачу» («File -> New Task (Run)»), набрать в появившемся окне cmd, поставить флажок «Запустить задачу с привилегиями Администратора» («Create this task with administrative privileges.») и нажать ОК.


Запуск из меню быстрого доступа Win+X

Окно командной строки с повышенными привилегиями также можно открыть с помощью меню быстрого запуска, для этого, находясь на начальном экране, нужно нажать Win+X. В появившемся меню выберите пункт «Командная строка (администратор)» («Command Prompt (Admin)»).


Вот какие способы запуска командной строки с правами администратора в Windows 8 удалось обнаружить нам. В комментариях предлагайте свои варианты .

Управление беспроводными сетями в Windows 8

В Windows 8 (как и в предыдущих версиях Windows) при успешном подключении к беспроводной Wi-Fi сети, система автоматически создает для данного подключения отдельный профиль Wi-Fi сети. В данном профиле содержится вся информация, необходимая для установки беспроводного соединения: имя сети (SSID), способ аутентификации, сетевой пароль (password key) и другая информация. В дальнейшем, если данная Wi-Fi сеть оказывается в зоне видимости, этот профиль используется для автоматического подключения к ней.


В Windows 7 существовал специальный элемент панели управления, позволяющий управлять профилями беспроводных сетей (Manage Wireless Network ): удалять профили, изменять их параметры или приоритет. В Windows 8 Microsoft по каким-то причинам решило удалить этот функционал, поэтому в Windows 8 управлять профилями Wi-Fi сетей можно с помощью сторонних утилит (это не наши методы!), либо с помощью командной строки.

Итак, беспроводными сетями в Windows 8 можно управлять с помощью командной строки, в этом нам поможет команда netsh.

Список профилей беспроводных сетей можно вывести с помощью команды:

netsh wlan show profiles

Команда возвращает список сохраненных профилей беспроводных Wi-Fi сетей. В данном примере имеется один профиль Wi-Fi сети с именем michael.


Просмотр сохраненных паролей для Wi-Fi сетей в Windows 8

Не секрет, что система для удобства пользователя сохраняет ключ сети (пароль для подключений к сети).

Просмотреть сохраненный пароль для доступа к Wi-Fi сети (WPA, WEP и т.д) можно прямо из командой строки с помощью команды netsh, указав нужный профиль:
netsh wlan show profiles name= michael key=clear

Пароль (ключ) Wi-Fi сети можно увидеть в разделе Security settings ->Key Content. В данном случае пароль для подключения к Wi-Fi точке доступа: testwifikey.


Удаление профиля Wi-FI соединения в Windows 8

Удалить сохраненный профиль беспроводного подключения в Windows 8 можно командой:
netsh wlan delete profile name=[profile name]

Эта команда уничтожит все сохраненные профили для всех интерфейсов WLAN.
Если нужно удалить профиль wi-fi сети для конкретного интерфейса WLAN, воспользуйтесь следующей командой:
netsh wlan delete profile name=[profile name] interface=[interface name]


Примечание. Профили беспроводных сетей в Windows 8 хранятся в виде XML-файлов в каталоге C:\ProgramData\Microsoft\Wlansvc\Profiles\Interfaces\{GUID_интерфейса}\{GUID_Профиля}.xml
Каждому Wi-Fi адаптеру соответствует собственный GUID интерфейса {GUID_интерфейса}, и все сохраненные профили для данного интерфейса хранятся в xml файле с {GUID_Профиля}в качестве имени.Чтобы удалить информацию о конкретном беспроводном профиле достаточно удалить соответствующий xml файл.

Как в Windows 8 подключиться к беспроводной сети через командную строку

Подключиться к беспроводной сети через командную строку в Windows 8 можно в том случае, если в системе уже имеется необходимый профиль. Для подключения используется команда:
netsh wlan connect name=[profile name]

В том случае, если необходимо из командной строки подключиться к сети, сохраненной в профиле (как получить список всех профилей в системе описано выше) с именем wlrЗ1З$$, выполните следующую команду:
netsh wlan connect name="wlrЗ1З$"


Возможно также указать конкретный интерфейс, с помощью которого необходимо установить Wi-Fi подключение. В этом случае команда будет выглядеть так:
netsh wlan connectmso-ansi-language:EN-US" lang="EN-US">1З$" interface="Wireless Network Connection 2"
Отключение от WiFi сети

Чтобы отключится от беспроводной сети воспользуйтесь командой:
netsh wlan disconnect

Либо укажите конкретный интерфейс:
netsh wlan disconnect interface="Wireless Network Connection 2"

Как изменить приоритет беспроводных сетей в Windows 8

При наличии в зоне действия нескольких Wi‑Fi сетей, приоритет беспроводных подключений определяется следующим образом: последнее подключение становится самым приоритетным, если активен пункт «подключаться автоматически». В случае недоступности этой сети, Windows 8 пытается подключиться к Wi-Fi сети, которая была приоритетна в прошлый раз и в случае успешного подключения приоритет этой сети повышается.

Примечание. В Windows 8 при наличии нескольких подключений к сети по умолчанию система пытается соединиться сначала по Ethernet, если это невозможно – пытается установить Wi-Fi соединение, и если недоступны оба этих варианта, Windows 8 подключится к мобильной сети.

Текущий приоритет для беспроводных сетей можно отобразить с помощью уже знакомой команды:
netsh wlan show profiles

Чем выше профиль находится в списке– тем выше приоритет этого подключения. Чтобы изменить приоритет одной из Wi-Fi сетей, воспользуйтесь командой:
netsh wlan set profileorder name=”wlrЗ1З$" interface=”Wireless Network Connection 2” priority=1

Данная команда повышает до максимального (1) приоритет беспроводной сети wlrЗ1З$$ для интерфейса Wireless Network Connection 2.


И если опять вывести список всех профилей сетей, вы увидите, что приоритет сети wlrЗ1З$$ был повышен (в списке стоит выше всех).


Перенос профилей Wi-Fi сетей между компьютерами с Windows 8

Чтобы перенести существующий Wi-Fi профиль с одного компьютера на другой, необходимо экспортировать его в XML файл, а затем загрузить его на другой компьютер.

И опять нам на помощь приходит утилита netsh, позволяющая выполнить экспорт и импорт настроек беспроводных сетей (профилей) в XMLфайл:

Выгрузим настройки Wi-Fi профиля:
netsh wlan export profile name=” wlrЗ1З$” folder=c:\wifi

В результате в каталоге c:\wifi должен появиться xml файл, который необходимо скопировать на другой компьютер и импортировать его командой:
netsh wlan add profile filename=”c:\wifi\WiFi_profile_name.xml”

С помощью указанных команд в том числе можно осуществлять резервное копирование всех Wi-Fi профилей на компьютере.
Ограничение доступа к Wi-Fi сетям

Ограничить доступ к Wi-Fi сетям можно с помощью групповых политик Windows. Пример реализации такого ограничения описан в статье: Блокировка беспроводных сетей в Windows 7.
Точка доступа на базе Windows 8

Из компьютера на базе Windows 8 с Wi-fi адаптером с помощью все тойже команды netsh можно организовать точку доступа. Подробнее процедура описана тут: Как создать точку доступа Wi-Fi на Windows 8.

Установка устройств в Windows 7 без прав администратора

Переехали сюда

Изоляция драйвера принтера в Windows 7

Переехали сюда

Резервное копирование и восстановление образа системы в Windows 8.1

Переехали сюда

Как разрешить пользователям домена устанавливать принтеры

Переехали сюда

пятница, 4 октября 2013 г.

Восстановление отдельных файлов из образа Windows 8

Восстановление отдельных файлов из образа Windows 8


ОС система Windows 8 предоставляет широкие возможности резервного копирования данных, включающая в себя возможности ведения истории файлов и функционал, позволяющий создать образ системы целиком. Концепция разработчиков системы такова – функционал File History нужен для удобного и оперативного повседневного восстановления пользовательских данных, образ же системы создается не так часто и позволят полностью восстановить данные раздела (в том числе системные файлы) на некую с работоспособным параметрами ОС.

Резервную копию образа системы рекомендуется создавать перед внесением изменений в аппаратную конфигурацию компьютера, при выполнении обновления системы, установке новых драйверов и т.д. Наличие резервной копии образа системы позволит в случае, если что-т пойдет не так, в любой момент откатиться к работоспособному состоянию Windows. Однако при восстановлении из такого образа вся имеющаяся информация на системном диске затирается файлами образа. Что же делать, если из системного образа нужно восстановить только некоторые файлы?

К счастью, это задача достаточно проста. Дело в том, что в основе стандартной системы создания резервной копии образа системы в Windows 8 лежит концепция виртуальных дисков (Virtual Hard Drive). Т.е. образы записываются и хранятся в виде файлов виртуальных дисков в формате vhdx (Virtual Hard Drive). Такие виртуальные диски можно легко смонтировать стандартными средствами Windows 8 и работать с ними, как с обычными дисками системы. Смонтировав такой диск в систему, пользователь сможет восстановить из бэкапа образа системы отдельные файлы и каталоги.

Подключаем VHD диск с резервной копией образа системы

Резервное копирование образа системы обычно выполняется на отдельный физический диск или сетевую папку. Поэтому в первую очередь необходимо подключить к компьютеру носитель с резервной копией образа Windows 8 (или подключить сетевую папку).

Откройте консоль управления компьютером Computer Management и перейдите в диспетчер управления дисками Storage->Disk Management (эту же консоль можно вызвать из меню WinX, нажав комбинацию клавиш Win+X и выбрать пункт Disk Management). Чтобы смонтировать виртуальный vhd диск, выберите пункт Attach VHD в меню Action.


В появившемся окне нажмите кнопку Browse и укажите путь к vhdx файлу. Данный файл хранится на диске, содержащем резервную копию образа системы в каталоге с именем, имеющем следующий формат [Backup_Drive]:\WindowsImageBackup\[PC_Name]\Backup xxxx-xx-xx xxxxxx. В нашем примере полный путь к vhdx файлу следующий: F:\WindowsImageBackup\Oberon8\Backup 2013-08-14000203.


В данном каталоге хранятся два vhdx файла, выберите vhdx файл большего размера (в нашем примере размер файла с образом около 120 Гб).
Примечание. В том случае, если на компьютере при выполнении бэкапа сохранялся образ не только системного диска, но и других дисков, тогда в данном каталоге может оказаться более 2 vhd файлов, причем совсем не обязательно, что диск максимального размера будет содержать образ системного диска. Разобраться в vhdx файлах образов дисков можно лишь по их содержимому, для чего их все придется смонтировать указанным способом.

После того, как виртуальный диск смонтирован, ему нужно назначить букву диска. Для этого щелкните ПКМ по диску и выберите пункт меню «Change Drive Letters and Path»


В открывшемся окне нажмите кнопку Add и назначьте диску любую букву, например G:.


После этой операции в системе появится новый диск, которому назначена буква G:\. Откройте его в проводнике или любом файловом менеджере и найдите файлы, которые необходимо восстановить.


Совет. Пользовательские документы (фото, видео, музыка и прочие документы можно обычно сохраняются в профиле пользователя в каталоге G:\Users\{user_name}.


После того, как вы нашли и скопировали нужные файлы, внешний диск можно отключить, в результате чего из системы пропадет и виртуальный vhd диск.

Отдельные файлы из образа системы точно таким же образом можно восстановить и в Windows 7.

Катастрофоустойчивая инфраструктура на базе VMware SRM (Часть I)

Переехали сюда

Windows Storage Server 2008 и Microsoft iSCSI Software Target 3.2

Windows Storage Server 2008 и Microsoft iSCSI Software Target 3.2

Анонсированный в мае этого года Windows Storage Server 2008 является идеологическим наследником Windows Storage Server 2003 R2. Как и предыдущая версия, Windows Storage Server 2008 поставляется только по OEM каналам и доступен, в большинстве случаев, в виде готового NAS устройства (например, от HP).

WSS2008 основан на Windows Server 2008 SP1, при этом, настолько похож на своего прародителя (даже Service Pack 2 у них общий), что чтобы 'почувствовать' разницу, мне пришлось зайти на сайт Microsoft и посмотреть отличия. Поэтому, если вы уже работали с обновленными компонентами CIFS, DFS, NFS Server, то WSS2008 в этом плане не будет представлять для вас интереса.

Самым существенным отличием WSS2008 является новый Microsoft iSCSI Software Target версии 3.2, который позволяет превратить ваш сервер в полноценное сетевое хранилище. Чем же так хорош этот новый iSCSI Target, что ради него следует если не купить, то хотя бы протестировать WSS2008?

Для установки Microsoft iSCSI Software Target вам не потребуется никаких дополнительных подготовок - просто запустите iscsitarget.msi и следуйте инструкциям на экране.

Дополнительный пакет iscsitargetClient.msi может потребоваться, если вы планируете выполнять резервное копирование виртуальных дисков, а также управлять службой при помощи сторонних программ.

После окончания установки выберите Run -> Administrative Tools -> Microsoft Software iSCSI Target для запуска консоли управления.

Консоль управления разбита на три категории: iSCSI таргеты (iSCSI Targets), устройства (Devices) и снимки (Snapshots).


Для начала создайте новый Target, щелкнув правой кнопкой мыши по iSCSI Targets и выбрав Create iSCSI Target. С помощью Мастера вы сможете задать идентификатор и краткое описание, определить перечень клиентов (iSCSI Initiator), которым разрешено присоединяться к данному серверу (права доступа определяются на основе различаемого имени iSCSI (iSCSI Qualified Name), IP адреса, DNS имени или MAC адреса инициатора), а также презентовать один, либо несколько виртуальных дисков. Дополнительно, в свойствах объекта вы можете настроить процедуру аутентификации на основе CHAP и задать ряд дополнительных настроек подключения.


Создание и управление виртуальными дисками осуществляется из вкладки Devices (диски хранятся в формате .vhd). Динамические диски не поддерживаются, однако, при желании вы можете расширить (extend) диск до нужного размера.

Microsoft iSCSI Software Target позволяет монтировать виртуальные диски локально в системе. Даже если в данный момент диск уже презентован какому-либо серверу, вы всегда сможете открыть его на чтение (например, чтобы скопировать нужные файлы).

Самой полезной функцией Microsoft iSCSI Software Target является возможность создание снимков виртуальных дисков, используя технологию VSS (Volume Shadow Copy). В любой момент времени вы можете сделать мгновенную копию виртуального диска и смонтировать ее локально, либо назначить (Export) одному и существующих таргетов в режиме чтения для доступа к хранящейся информации (например, для выполнения операции резервного копирования с помощью подручных программ). В случае внесения нежелательных изменений в актуальную копию данных вы всегда сможете откатиться к одному из снимков.

Создавать снимки можно вручную, либо настроить для этих целей диспетчер заданий Windows (Schedule Task). Для экономии дискового пространства вы также можете задать ограничение на размер места, отводимого под хранение снимков, а также перенести его на другой логический диск.


В случае исчерпания заданного лимита, система удалит самые ранние сделанные снимки дисков и запишет на освободившееся место новые.

Наконец, можно организовать отказоустойчивый кластер (Failover Cluster) из двух и более серверов WSS2008. Данная возможность будет полезной если у вас в компании есть внешнее хранилище (DAS), работающее только через SCSI или SAS, и вам хочется обеспечить доступ к нему и по iSCSI, сохраняя высокий уровень отказоустойчивости.

Скачать тестовую версию WSS2008 и iSCSI Target 3.2 вы можете после прохождения регистрации на сайте Microsoft.

P.S. При первом входе в Windows Storage Server 2008 вам предложат ввести пароль администратора, и это будет не пустой пароль, как в режиме Core установки Windows Server 2008, а “wSS2008!”. В инструкции для OEM поставщиков и на самом сайте об этом не написано ни слова. Хорошо, что Google помог.

Защита iSCSI в среде Windows

Переехали сюда

Настройка Data ONTAP Edge (Часть II)

Переехали сюда

четверг, 3 октября 2013 г.

Настройка NetApp Data ONTAP Edge (Часть I)

Переехали сюда

Современные системы хранения данных. Часть 2

 Современные системы хранения данных. Часть 2 (2005)

систем хранения и сферой применения такого оборудования. Ведь для возникновения целого направления в современной IT-индустрии был нужен мощный толчок. Можно с уверенностью сказать, что таких подвижек не было уже давно, повсеместно применялась стандартная схема – сервер с дисками внутри, на которых хранятся основные данные; локальная сеть и компьютеры-клиенты. И вот наконец-то свершилось – системы хранения данных выделяются в отдельный «пласт». Теперь данные хранятся на специализированном оборудовании, обеспечивающем высочайшую надёжность хранения и уровень сервиса, который сложно получить на стандартных схемах информационной инфраструктуры предприятия. Собственно, ради этих составляющих – надёжности хранения и сервиса, которые предоставляет хранилище для управления информацией – в основном и строятся сети хранения данных (Storage Area Network, SAN).

В этой статье постараемся более конкретно разобраться с элементами, характерными именно для сетей хранения данных – функциональностью СХД, протоколами, топологиями подключения хранилищ к серверам. Одной из самых «продвинутых» и распространённых топологий и является SAN, хотя хранилища можно подключать по разными схемам.

Итак – сети хранения и системы хранения данных. Если «зачем» пояснялось в первой части статьи, то во второй мы попытаемся ответить на вопрос «как». Как мы помним, системы хранения данных, или, на профессиональном жаргоне, дисковые стойки, в первую очередь легко различать по внешним интерфейсам, которые и обеспечивают подключения серверов (хостов), и по типу используемых внутри накопителей. Кое-какие из интерфейсов и типов накопителей мы уже упоминали, теперь же коснёмся самых современных. Наряду с терминами СХД (система хранения данных) будем также упоминать синонимы – к примеру, «дисковая стойка».

Внешние интерфейсы подключения – это, как мы помним, в основном SCSI или FibreChannel, а также довольно молодой стандарт iSCSI. Также не стоит сбрасывать со счетов небольшие интеллектуальные хранилища, которые могут подключаться даже по USB или FireWire. Мы не станем рассматривать более редкие (порой просто неудачные в том или ином плане) интерфейсы, как SSA от IBM или интерфейсы, разработанные для мейнфреймов – к примеру, FICON/ESCON. Особняком стоят хранилища NAS, подключаемые в сеть Ethernet. Под словом «интерфейс» в основном понимается внешний разъём, но не стоит забывать, что разъём не определяет протокол связи двух устройств. На этих особенностях мы остановимся чуть ниже.

Интерфейс SCSI


Расшифровывается как Small Computer System Interface (читается «скази») – полудуплексный параллельный интерфейс. В современных системах хранения данных чаще всего представлен разъёмом SCSI:


…и группой протоколов SCSI, а конкретнее – SCSI-3 Parallel Interface. Отличие SCSI от знакомого нам IDE – бОльшее число устройств на канал, бОльшая длина кабеля, бОльшая скорость передачи данных, а также «эксклюзивные» особенности типа high voltage differential signaling, command quequing и некоторые другие – углубляться в этот вопрос мы не станем.
Если говорить об основных производителях компонент SCSI, например SCSI-адаптеров, RAID-контроллеров с интерфейсом SCSI, то любой специалист сразу вспомнит два названия – Adaptec и LSI Logic. Думаю, этого достаточно, революций на этом рынке не было уже давно и, вероятно, не предвидится.

Интерфейс FibreChannel

Полнодуплексный последовательный интерфейс. Частично рассмотрен нами ранее, чаще всего в современном оборудовании представлен внешними оптическими разъёмами типа LC или SC (LC – меньше по размерам):

…и протоколами FibreChannel Protocols (FCP). Существует несколько схем коммутации устройств FibreChannel:

Point-to-Point – точка-точка, прямое соединение устройств между собой:


Crosspoint Switched – подключение устройств в коммутатор FibreChannel (аналогичное реализации сети Ethernet на коммутаторах):


Arbitrated loop – FC-AL, петля с арбитражным доступом – все устройства связаны друг с другом в кольцо, схема чем-то напоминает Token Ring. Также может использоваться коммутатор – тогда физическая топология будет реализована по схеме «звезда», а логическая – по схеме «петля» (или «кольцо»):


Подключение по схеме FibreChannel Switched является самой распространённой схемой, в терминах FibreChannel такое подключение называется Fabric – в русском языке существует калька с него – «фабрика». Следует учесть, что коммутаторы FibreChannel – это довольно продвинутые устройства, по сложности наполнения близкие к IP-коммутаторам уровня 3 (маршрутизаторам). Если коммутаторы соединены между собой, то они функционируют в единой фабрике, имея пул настроек, действующих для всей фабрики сразу. Изменение каких-то опций на одном из коммутаторов может приводить к перекоммутации всей фабрики, не говоря уже о настройках авторизации доступа, к примеру. С другой стороны, существуют схемы SAN, которые подразумевают несколько фабрик внутри единой сети SAN. Таким образом, фабрикой можно называть только группу объединённых между собой коммутаторов – два или более не объединённых между собой устройства, введённые в SAN для повышения отказоустойчивости, образуют две или более различные фабрики.

Адресация устройств FibreChannel осуществляется по 64-битовому адресу WorldWideName (WWN), простой пример записи WWN-адреса – 90:06:F1:60:00:60:03:b4. Применимо к портам FibreChannel можно сказать, что WWN этих портов – аналог MAC-адреса в LAN.

Компоненты, позволяющие объединять хосты и системы хранения данных в единую сеть, принято обозначать термином «connectivity». Connectivity – это, конечно же, дуплексные соединительные кабели (обычно с интерфейсом LC), коммутаторы (switches) и адаптеры FibreChannel (HBA, Host Base Adapters) – то есть те платы расширения, которые, будучи установленными в хосты, позволяют подключить хост в сеть SAN. HBA обычно реализованы в виде плат стандарта PCI-X или PCI-Express. На фотографии – PCI-X адаптер FibreChannel от компании QLogic с двумя внешними портами FC 2Gb и дуплексным интерфейсом подключения LC:


Часто возникают вопросы – как же FibreChannel может работать по «меди»? Как уже упоминалось, не стоит путать fibre и fiber – среда распространения сигнала может быть различной. Например, все жёсткие диски FibreChannel имеют металлические контакты, да и обычная коммутация устройств по «меди» – не редкость, просто постепенно все переходят на оптические каналы как наиболее перспективную технологию и функциональную замену «меди». В некотором современном оборудовании с внешними оптическими интерфейсами полки расширения (то есть «коробки» для дополнительных жёстких дисков) подключаются к основному устройству с внешними портами по схеме FC-AL (!) медными кабелями (!), что может вас удивить, однако медное подключение более надёжно в механическом плане и менее требовательно в плане своего обслуживания. Но имеются и минусы – например, ограничение на длину (не более 25 метров) и низкую помехозащищённость, что на скоростях в 2 Гбайт может быть проблемой.

Интерфейс iSCSI

Обычно представлен внешним разъёмом RJ-45 для подключения в сеть Ethernet – всем нам известный разъём:


…и собственно самим протоколом iSCSI (Internet Small Computer System Interface). По определению SNIA: «iSCSI — это протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами». На этом интерфейсе остановимся немножко подробней, хотя бы в силу того, что каждый пользователь способен использовать iSCSI даже в обычной «домашней» сети.

Необходимо знать, что протокол iSCSI определяет, как минимум, транспортный протокол для SCSI, который работает поверх TCP, и технологию инкапсуляции SCSI-команд в сеть на базе IP. Проще говоря, iSCSI – это протокол, позволяющий получить блочный доступ к данным с помощью команд SCSI, пересылаемых через сеть со стеком TCP/IP. iSCSI появился как замена FibreChannel и в современных СХД имеет перед ним несколько преимуществ – способность объединять устройства на огромных расстояниях (используя существующие сети IP), возможность обеспечивать заданный уровень QoS (Quality of Service, качество обслуживания), более низкую стоимость connectivity. Однако основная проблема использования iSCSI как замены FibreChannel – большое время задержек, возникающих в сети из-за особенностей реализации стека TCP/IP – это время может приближаться к 80 микросекундам, что сводит на нет одно из важных преимуществ использования СХД – скорость доступа к информации и низкую латентность. Это серьёзный минус.

Маленькое замечание по поводу хостов – они могут использовать как обычные сетевые карты (тогда обработка стека iSCSI и инкапсуляция команд будет осуществляться программными средствами), так и специализированные карты с поддержкой технологий аналогичных TOE (TCP/IP Offload Engines). Такая технология обеспечивает аппаратную обработку соответствующей части стека протокола iSCSI. Программный метод дешевле, однако больше загружает центральный процессор сервера и в теории может приводить к бОльшим задержкам, чем аппаратный обработчик. При современной скорости сетей Ethernet в 1 Гбит/с можно предположить, что iSCSI будет работать ровно в два раза медленнее FibreChannel со скоростью 2 Гбит, однако в реальном применении разница будет ещё заметнее.

Адресация iSCSI-устройств многим покажется слишком сложной, но это итог формирования стандартов эпохи расцвета IT. Существуют два типа адресации – EUI-based и IQN, просто приведу примеры записи адресов двумя различными методами адресации (они не эквивалентны друг другу – это лишь пример):

• eui.5a1b375297690100;
• iqn.1979-07.ivs.home:winxp.

Желающие могут ознакомиться с RFC 3720 и 3721 для более полной информации, а также найти более свежие документы, определяющие структуру iSCSI в целом.

Однако возможность организовать SAN на базе iSCSI проще, чем вам кажется. Что необходимо для сети данных? Устройства хранения, компоненты коммутации (connectivity) и хосты. Хостами могут быть обычные компьютеры, компоненты коммутации – это ваша локальная IP-сеть, сложнее с системой хранения, но и это решаемо. В терминологии iSCSI принято различать два типа устройств – Initiator и Target. Как вы уже догадались: Initiator – это хост, а Target – это система хранения данных. Для того чтобы ваш хост с операционной системой Windows смог подключиться к хранилищу с интерфейсом iSCSI, достаточно лишь иметь установленный на машине Software Initiator, на данный момент актуальная версия – «Microsoft iSCSI Software Initiator Version 2.01 (build 1748)». По этой ссылке можно ознакомиться с продуктом и при желании скачать (его использование абсолютно бесплатно). Что интересно, в новой версии ОС от Microsoft, Windows Vista, Microsoft iSCSI Software Initiator встроен по умолчанию даже в «домашнюю» версию операционной системы:


Мы видим стандартные пункты панели управления и настройку iSCSI для этой машины. Выделен адрес этого хоста как iSCSI-инициатора, используется уже знакомая нам адресация IQN. После того, как мы имеем iSCSI-инициатор, компоненты коммутации, нам необходима iSCSI-target, то есть наша СХД. Естественно, первый и самый простой вариант – аппаратное устройство, система хранения данных с интерфейсом iSCSI. Второй вариант – опять же программно реализованный iSCSI-target. На базе всеми любимой операционной системы Windows его можно получить, используя стороннее ПО компании «String Bean Software», к примеру. Такое ПО называется «WinTarget» и может быть опробовано в виде бесплатной 14-дневной испытательной версии, хотя сам продукт платный. С помощью Wintarget вы можете создать на целевом хосте (компьютере, выступающем в роли iSCSI-target) виртуальные логические тома (LUN, хотя правильнее их всё же называть LU – logical unit), которые и будут доступны хостам-инициаторам, хотя на целевой машине эти логические тома будут представлен в виде обычных файлов соответствующей длины. В отличие от обычного файлового доступа к компьютеру по сети, при использовании iSCSI мы получаем блочный доступ. Наш LUN, физически размещённый на инициаторе (который, в свою очередь, может находиться за тысячи километров – подключение через Интернет), видится нашей машиной как обычный «логический диск» (в терминологии Windows). Мы можем присвоить ему «букву диска», отформатировать и использовать в нашей системе так же, как разделы локального жёсткого диска. Ведь забавно выглядит работа с домашнего компьютера с подключённым к нему десятком LUN’ов, которые физически разнесены по всему земному шару – когда загружаетесь вы, к примеру, с СD, а жёсткого диска в вашей системе и вовсе нет! Пока проблема только в «ширине каналов».

При желании каждый может найти дополнительную информацию по iSCSI и поставить собственные эксперименты, однако упомяну ещё одну функциональность, которая становится доступна домашним пользователям – это построение кластеров на базе стандартного аппаратного обеспечения. Необходимы лишь кластерная ОС да грамотно настроенный iSCSI-target, тогда необходимое число LUN видно сразу всем узлам кластера. Скажу более – кластер вида active-active был мной построен и опробован на базе обычной домашней машины (XP Professional), которая выступала в роли iSCSI-target. Хосты (iSCSI-initiator’ы) были установлены в виртуальной машине VMware Workstation на базе Windows 2003 Server с установленным поверх «Microsoft iSCSI Software Initiator». Все желающие могут повторить эти эксперименты.

И кратко упомянем ещё пару протоколов, которые встречаются более редко и предназначены для предоставления дополнительных сервисов уже существующим сетям хранения данных (SAN):

FCIP (Fibre Channel over IP) – туннельный протокол, построенный на TCP/IP и предназначенный для соединения географически разнесённых сетей SAN через стандартную среду IP. Например, можно объединить две сети SAN в одну через Интернет. Достигается это использованием FCIP-шлюза, который прозрачен для всех устройств в SAN.

iFCP (Internet Fibre Channel Protocol) – протокол, позволяющий объединять устройства с интерфейсами FC через IP-сети. Важное отличие от FCIP в том, что возможно объединять именно FC-устройства через IP-сеть, что позволяет для разной пары соединений иметь разный уровень QoS, что невозможно при туннелировании через FCIP.

Мы кратко рассмотрели физические интерфейсы, протоколы, типы коммутации и адресацию для систем хранения данных, не останавливаясь на перечислении всех возможных вариантов. Теперь попытаемся представить эти технологии в реальных системах, поставляемых на наш рынок различными производителям. Сначала, просто для примера, приведу имеющийся у меня итоговый отчёт одной из ведущих аналитических компании мира – IDC. В таблице видны финансовые результаты 2 квартала 2005 года на мировом рынке внешних (именно они нас интересуют) дисковых систем хранения:


Думаю, кое-кому может быть не известно о лидере – EMC Corporation. Всё дело в том, что EMC специализируется именно на оборудовании для хранения данных, программных продуктах для обеспечения управления информацией и сервисе, предоставляемом клиентам, использующим это оборудование и ПО. Как мы понимаем, такие продукты – это сфера высоких технологий, а вот HP, IBM, Dell и Hitachi производят также широкий спектр другой продукции (часто даже не компьютерной), посему эти названия, как мне кажется, ни у кого не вызовут вопросов. Что интересно, ПО, поставляемое EMC, настолько актуально, что это позволило компании занять 7 место в мировом рейтинге «софтовых компаний» по объёмам поставок. Между прочим, известная всем специалистам компания VMWare также принадлежит корпорации EMC.

В приведенном списке есть две компании, которые сами производят весь спектр поставляемых ими дисковых систем хранения – это EMC Corp. и Hitachi (HDS, Hitachi Data Systems), также оборудование этих компаний поставляют другие производители под своей собственной маркой. Компания HP использует системы хранения от Hitachi как свои старшие модели (HP XP), а компания Dell – системы хранения от EMC (DELL|EMC). IBM же использует в качестве OEM-производителей для своих младших моделей СХД продукты от Adaptec и Engenio (подразделение LSI Logic, занимающееся направлением компонент систем хранения данных). Конечно, в лидеры не попали множество более мелких компаний, производящих свои собственные системы хранения, а их немало, и о них мы поговорим.

Если перечислить основных значимых производителей рынка внешних систем хранения данных, то список будет примерно таков: EMC, HP, IBM, Dell, Hitachi, NetApps, Dothill, Engenio, Adaptec, Raidtec и другие. Конечно, ещё есть имена, которые на слуху, но отношение к системам хранения данных имеют второстепенное, хотя их и выпускают – например, D-Link.

Какие же параметры характеризуют системы хранения данных? Некоторые из них были перечислены в прошлой статье – это тип внешних интерфейсов подключения и типы внутренних накопителей (жёстких дисков). Следующий параметр, который есть смысл рассматривать после двух вышеперечисленных при выборе дисковой системы хранения, – её надёжность. Надёжность можно оценить не по банальному времени наработки на отказ каких-то отдельных компонент (факт, что это время примерно равно у всех производителей), а по внутренней архитектуре. «Обычная» система хранения часто «внешне» представляет собой дисковую полку (для монтажа в 19-дюймовый шкаф) с жёсткими дисками, внешними интерфейсами для подключения хостов, несколькими блоками питания. Внутри обычно установлено всё то, что обеспечивает работу системы хранения – процессорные блоки, контроллеры дисков, портов ввода-вывода, кэш-память и так далее. Обычно управление стойкой осуществляется из командной строки или по web-интерфейсу через любой браузер, начальная конфигурация часто требует подключения по последовательному интерфейсу. Пользователь может «разбить» имеющиеся в системе диски на группы и объединить их в RAID (различных уровней), получившееся дисковое пространство разделяется на один или несколько логических блоков (LUN), к которым и имеют доступ хосты (серверы) и «видят» их как локальные жёсткие диски. Количество RAID-групп, LUN-ов, логика работы кэша, доступность LUN-ов конкретным серверам и всё остальное настраивается администратором системы. Обычно СХД предназначены для подключения к ним не одного, а нескольких (вплоть до сотен, в теории) серверов – посему такая система должна обладать высокой производительностью, гибкой системой управления и мониторинга, продуманными средствами защиты данных. Защита данных обеспечивается многими способами, самый простой из которых вы уже знаете – объединение дисков в RAID. Однако данные должны быть ещё и постоянно доступны – ведь остановка одной системы хранения данных, центральной на предприятии, способна нанести ощутимые убытки. Чем больше систем хранит данные на СХД, тем более надёжный доступ к системе должен быть обеспечен – потому что при аварии СХД останавливается работа сразу всех серверов, хранящих там данные. Высокая доступность стойки обеспечивается полным внутренним дублированием всех компонент системы – путей доступа к стойке (портов FibreChannel), процессорных модулей, кэш-памяти, блоков питания и т.д. Попытаемся принцип 100%-го резервирования (дублирования) объяснить следующим рисунком:


цифрами здесь обозначены:
Контроллер (процессорный модуль) СХД, включающий в себя:

центральный процессор (или процессоры) – обычно на системе работает специальное ПО, выполняющее роль «операционной системы»;

интерфейсы для коммутации с жёсткими дисками – в нашем случае это платы, обеспечивающие подключение дисков FibreChannel по схеме петли с арбитражным доступом (FC-AL);

кэш-память;

контроллеры внешних портов FibreChannel.
Внешний интерфейс FC; как мы видим, тут их по 2 штуки на каждый процессорный модуль;
Жёсткие диски – ёмкость расширяется дополнительными дисковыми полками;
Кэш-память в такой схеме обычно зеркалируется, чтобы не потерять сохранённые там данные при выходе любого модуля из строя.

Касательно аппаратной части – дисковые стойки могут иметь различные интерфейсы для подключения хостов, различные интерфейсы жёстких дисков, различные схемы подключения дополнительных полок, служащих для увеличения числа дисков в системе, а также другие чисто «железные параметры». Попытаемся понять, какие же параметры характерны для самых ходовых СХД, которые производитель относит к разряду midrange, на примере системы хранения данных EMC Clariion CX500/CX500i. Отличие моделей с буквой «i» и без неё – в реализации внешних интерфейсов: FibreChannel и iSCSI, соответственно. Clariion CX500 – это средняя модель линейки EMC Clariion, которая обладает 100% резервом всех компонент, её внутренняя архитектура соответствует приведённому выше рисунку «Структурная схема системы хранения данных». Краткие параметры CX500 таковы:

два независимых процессорных блока (storage processor), обеспечивающих резервирование;

внешний интерфейс подключения – 4 порта FibreChannel 2Gb (LC-коннекторы);

кэш-память – 4GB с поддержкой зеркалирования;

RAID уровней 0, 1, 3, 5, 10. Возможность создавать множество RAID-групп внутри одного массива;

поддержка дисков HotSpare, возможность назначать hs-диски для всего массива – так называемые global hot spare;

до 120 жёстких дисков «горячей замены» на массив, поддержка технологии верификации целостности данных (EMC SNiiFFER);

жёсткие диски, могут быть как с интерфейсом FibreChannel, так и SATA;

производительность системы – до 120000 IOPS (операций в секунду);

пропускная способность – до 760 Мбайт/с;

возможность создания до 1024 LUN;

возможность подключения до 256 серверов или до 128 серверов в конфигурации «высокой доступности» – когда каждый сервер подключён к СХД двумя логическими каналами (в каждый сервер устанавливается по 2 HBA);

поддерживаемые ОС – Windows, Linux, NetWare, Solaris, IBM AIX, HP-UX, VMWare и другие.

Два независимых ввода питания для двух блоков питания;

Фирменные аккумуляторные модули SPS, обеспечивающие сохранение кэш-памяти на жёсткие диски при аварийном отключении питания вместо батарей, которые поддерживают сохранениё данных в самом кэше (обычно это небольшой срок – до 72 часов).

Внешний вид EMC Clariion CX500:


Первая дисковая полка (нижняя на фото, под которой установлены SPS) содержит процессорные модули с портами ввода-вывода и первые 15 жёстких дисков. Остальные полки служат для расширения дисковой ёмкости дисками FibreChannel или SATA – на рисунке мы видим 8 полок, которые и содержат максимальный объём в 8*15=120 дисков.

Следующие модели от известных производителей можно условно отнести к одной «весовой» категории:

EMC Clariion CX500;

HP EVA3000;

IBM DS4400 / DS4300 Turbo;

HDS 9570V;

NetApp FAS940c;

Sun StorEdge 6130 / 6120;

Примечание:

Почти все оборудование на фотографиях предназначено для монтажа в серверные шкафы, ширина является стандартом и составляет 19 дюймов. Это поможет вам оценивать реальные размеры систем хранения.

Подробно о конкретных системах ведущих производителей поговорим в следующей части обзора.

Современные системы хранения данных 1 ч

 Современные системы хранения данных 1 ч (2005)

Что такое системы хранения данных (СХД) и для чего они нужны? В чём разница между iSCSI и FibreChannel? Почему данное словосочетание только в последние годы стало известно широкому кругу IT-специалистов и почему вопросы систем хранения данных всё больше и больше тревожат вдумчивые умы?

Думаю, многие заметили тенденции развития в окружающем нас компьютерном мире – переход от экстенсивной модели развития к интенсивной. Наращивание мегагерц процессоров уже не даёт видимого результата (см. обзор «Извечный вопрос: Intel или AMD?»), а развитие накопителей не поспевает за объёмом информации.

Если в случае процессоров всё более или менее понятно – достаточно собирать многопроцессорные системы и/или использовать несколько ядер в одном процессоре, то в случае вопросов хранения и обработки информации так просто от проблем не избавиться.

Существующая на данный момент панацея от информационной эпидемии – СХД. Название расшифровывается как Сеть Хранения Данных (SAN) или Система Хранения Данных. В любом случае – это специализированное железо и ПО, предназначенное для работы с огромными массивами ценной информации.


Сразу оговоримся, что нас в первую очередь интересует информация, используемая в бизнесе, от которой зависит жизнедеятельность предприятия и его нормальное функционирование. Ведь «домашнего пользователя» проблемы хранения и обработки данных касаются в меньшей степени.
Основные проблемы, решаемые СХД

Итак, какие же задачи призвана решить СХД? Рассмотрим типичные проблемы, связанные с растущими объёмами информации в любой организации. Предположим, что это хотя бы несколько десятков компьютеров и несколько разнесённых территориально офисов.

1. Децентрализация информации – если раньше все данные могли храниться буквально на одном жёстком диске, то сейчас любая функциональная система требует отдельного хранилища – к примеру, серверов электронной почты, СУБД, домена и так далее. Ситуация усложняется в случае распределённых офисов (филиалов).

2. Лавинообразный рост информации – зачастую количество жёстких дисков, которые вы можете установить в конкретный сервер, не может покрыть необходимую системе ёмкость.

Как следствие:

Невозможность полноценно защитить хранимые данные – действительно, ведь довольно трудно произвести даже backup данных, которые находятся не только на разных серверах, но и разнесены территориально.

Недостаточная скорость обработки информации – каналы связи между удалёнными площадками пока оставляют желать лучшего, но даже при достаточно «толстом» канале не всегда возможно полноценное использование существующих сетей, например, IP, для работы.

Сложность резервного копирования (архивирования) – если данные читаются и записываются небольшими блоками, то произвести полное архивирование информации с удалённого сервера по существующим каналам может быть нереально – необходима передача всего объёма данных. Архивирование на местах зачастую нецелесообразно по финансовым соображениям – необходимы системы для резервного копирования (ленточные накопители, например), специальное ПО (которое может стоить немалых денег), обученный и квалифицированный персонал.

3. Сложно или невозможно предугадать требуемый объём дискового пространства при развертывании компьютерной системы.

Как следствие:

Возникают проблемы расширения дисковых ёмкостей – довольно сложно получить в сервере ёмкости порядков терабайт, особенно если система уже работает на существующих дисках небольшой ёмкости – как минимум, требуется остановка системы и неэффективные финансовые вложения.

Неэффективная утилизация ресурсов – порой не угадать, в каком сервере данные будут расти быстрее. В сервере электронной почты может быть свободен критически малый объём дискового пространства, в то время как другое подразделение будет использовать всего лишь 20% объёма недешёвой дисковой подсистемы (например, SCSI).

4. Низкая степень конфиденциальности распределённых данных – невозможно проконтролировать и ограничить доступ в соответствии с политикой безопасности предприятия. Это касается как доступа к данным по существующим для этого каналам (локальная сеть), так и физического доступа к носителям – к примеру, не исключены хищения жёстких дисков, их разрушение (с целью затруднить бизнес организации). Неквалифицированные действия пользователей и обслуживающего персонала могут нанести ещё больший вред. Когда компания в каждом офисе вынуждена решать мелкие локальные проблемы безопасности, это не даёт желаемого результата.

5. Сложность управления распределёнными потоками информации – любые действия, которые направлены на изменения данных в каждом филиале, содержащем часть распределённых данных, создает определённые проблемы, начиная от сложности синхронизации различных баз данных, версий файлов разработчиков и заканчивая ненужным дублированием информации.

6.Низкий экономический эффект внедрения «классических» решений – по мере роста информационной сети, больших объёмов данных и всё более распределённой структуры предприятия финансовые вложения оказываются не столь эффективны и зачастую не могут решить возникающих проблем.

7. Высокие затраты используемых ресурсов для поддержания работоспособности всей информационной системы предприятия – начиная от необходимости содержать большой штат квалифицированного персонала и заканчивая многочисленными недешёвыми аппаратными решениями, которые призваны решить проблему объёмов и скоростей доступа к информации вкупе с надёжностью хранения и защитой от сбоев.

В свете вышеперечисленных проблем, которые рано или поздно, полностью или частично настигают любую динамично развивающуюся компанию, попробуем обрисовать системы хранения данных – такими, какими они должны быть. Рассмотрим типовые схемы подключения и виды систем хранения данных.

Мегабайты или транзакции?

Если раньше жёсткие диски находились внутри компьютера (сервера), то теперь им там стало тесно и не очень надёжно. Самое простое решение (разработанное достаточно давно и применяемое повсеместно) – технология RAID.




При организации RAID в любых системах хранения данных дополнительно к защите информации мы получаем несколько неоспоримых преимуществ, одно из которых – скорость доступа к информации.

С точки зрения пользователя или ПО, скорость определяется не только пропускной способностью системы (Мбайт/с), но и числом транзакций – то есть числом операций ввода-вывода в единицу времени (IOPS). Увеличению IOPS способствует, что вполне логично, большее число дисков и те методики повышения производительности, которые предоставляет контроллер RAID (к примеру, кэширование).

Если для просмотра потокового видео или организации файл-сервера больше важна общая пропускная способность, то для СУБД, любых OLTP (online transaction processing) приложений критично именно число транзакций, которые способна обрабатывать система. А с этим параметром у современных жёстких дисков всё не так радужно, как с растущими объёмами и, частично, скоростями. Все эти проблемы призвана решить сама система хранения данных – чуть ниже будет видно, как и какими методами.


Уровни защиты

Нужно понимать, что в основе всех систем хранения данных лежит практика защиты информации на базе технологии RAID – без этого любая технически продвинутая СХД будет бесполезна, потому что жёсткие диски в этой системе являются самым ненадёжным компонентом. Организация дисков в RAID – это «нижнее звено», первый эшелон защиты информации и повышения скорости обработки.

Однако, кроме схем RAID, существует и более низкоуровневая защита данных, реализованная «поверх» технологий и решений, внедрённых в сам жёсткий диск его производителем. К примеру, у одного из ведущих производителей СХД – компании ЕМС – существует методика дополнительного анализа целостности данных на уровне секторов накопителя. Секторы на жёстких дисках, установленных в системы хранения данных ЕМС, имеют размер не 512 байт (стандарт), а 520 байт – лишние 8 байт на каждый сектор играют роль своеобразной базы данных, куда СХД записывает информацию о «здоровье» каждого сектора (данная методика, насколько известно, не применяется больше ни у одного производителя).

Как известно, у жёстких дисков с интерфейсом IDE существует технология SMART, призванная предсказывать возможные проблемы в работе диска, которая зачастую работает очень неточно, что сводит её ценность практически к нулю. У дисков же, использующихся в серьёзных СХД (диски SCSI и FibreChannel), изначально не было технологии SMART – поэтому оценка целостности и верификация данных каждого конкретного сектора – большой плюс, позволяющий дополнительно защитить данные и уведомить администратора системы о возможных проблемах задолго до момента их реального наступления.

Жёсткий диск может быть и исправен, но обладать так называемыми проблемами «мягких ошибок» («soft errors») – когда данные в секторе записаны корректно, но чтение их может давать различный результат. Такой вариант неприемлем, но «remap» (подмена) такого сектора средствами самого жёсткого диска не происходит – в этом случае и спасает технология анализа каждого сектора, применяемая у EMC.



Интерфейсы подключенияРазобравшись с RAID, перейдём к структуре самих СХД. Прежде всего, СХД разделяются по типу используемых интерфейсов подключения хостов (серверов).

Рассмотрим два «простых» внешних интерфейса подключения – самый ходовой интерфейс SCSI и самый распространённый на данный момент интерфейс сетей хранения данных FibreChannel.

SCSI чем-то похож на всем известный IDE – это параллельный интерфейс, допускающий до 16 устройств на одной шине (для IDE, как вы помните – 2 устройства на канал). На данный момент максимальная скорость протокола SCSI – 320 Мбайт/с (в разработке находится версия для 640 Мбайт/с), часто так и пишут – SCSI U320. Недостатки SCSI очевидны – толстые неудобные кабели, имеющие ограничение на максимальную длину (до 25 м), не обладающие помехозащищенностью. Также ограничения накладывает сам протокол SCSI – обычно это один инициатор на шине (SCSI-контроллер) + ведомые устройства (диски, стримеры и т.д.).




Когда внешняя дисковая стойка имеет интерфейс SCSI, нам достаточно поставить в хост-машину SCSI-адаптер или SCSI-RAID и с помощью многожильного SCSI-кабеля подключиться к разъему на внешней дисковой стойке.

FibreChannel очень популярен в среде IT-специалистов – они-то знают, какие преимущества несёт эта технология, почти неизвестная «домашним пользователям». Причина понятна – дороговизна оборудования и предназначение протокола FibreChannel (FCP) для развёртывания масштабных сетей хранения данных (SAN), что находит применение только в крупных компаниях. Однако такая практика является наилучшим решением для всех описанных выше проблем, в чем мы в дальнейшем убедимся.

Не стоит путать «Fiber» и «Fibre» – технология, как и протокол, специально названа FibreChannel, чтобы хоть чем-то отличаться от технологий, построенных на оптических средах передачи (fiber) – ведь FibreChannel может работать и по «меди». На практике современный FibreChannel имеет скорости 2 Гбит (FibreChannel 2 Gb) или 4 Гбит (FibreChannel 4 Gb) full- duplex, то есть такая скорость обеспечивается одновременно в обе стороны. В переводе на скорость канала получаем 200 или 400 Мбайт/с по




Расстояния практически не ограничены – от стандартных 300 метров на самом «обычном» оборудовании до 2000 км для мощных коммутаторов, так называемых «директоров». Главный плюс интерфейса FibreChannel – возможность объединения многих устройств хранения и хостов (серверов) в единую сеть хранения данных (SAN). Более приземлённые мелочи – большие расстояния (чем со SCSI), возможность агрегирования каналов, возможность резервирования путей доступа, «горячего подключения» оборудования, большая помехозащищенность.

Физически используются двухжильные многомодовые или одномодовые оптические кабели (с коннекторами типа LC или SC) и так называемые SFP – оптические трансмиттеры на основе светодиодных или лазерных излучателей – от этих двух компонент зависит скорость передачи и максимальное расстояние между устройствами.
Конструкция стоек

Далее мы будем использовать устоявшееся словосочетание «дисковая стойка». Им обозначают некую коробку с жёсткими дисками, к которой подключаются серверы и которая может содержать, кроме дисков, также кэш-память, процессоры, несколько блоков питания, внутреннее системное ПО и так далее.

Конструктивно дисковая стойка, то есть наша система хранения данных, рассчитана на установку в монтажный шкаф. Она включает в себя от 8 до 15 жёстких дисков «горячей замены» (на 1 дисковую полку) с интерфейсом SATA/PATA, SCSI или FibreChannel, имеет несколько внешних портов SCSI/FibreChannel для подключения хостов. Дисковая стойка может иметь несколько блоков питания «горячей замены», включать в свой состав кэш-память (и батарею резервирования кэш-памяти), контроллеры или процессорные модули, работающие на базе специализированного ПО, обеспечивающего полное управление системой и дополнительную уникальную функциональность.

Самый простой вариант внешней дисковой стойки – это SCSI+ SCSI стойка с 14 дисками, в которой установлены два блока питания и которая может подключаться одновременно к 2 серверам (каждый из них может иметь доступ к своим 7 дискам или работать в кластерном режиме со вторым сервером). Никакого кэша или процессоров в такой стойке нет – по сути, она просто расширяет внутреннюю дисковую ёмкость сервера и добавляет некоторую уникальность – позволяет создавать кластер.

При использовании таких простых стоек необходим RAID-контроллер, установленный на сервере – сама стойка в этом случае создать RAID своими силами не способна. Типичный пример – DELL PowerVault 220 S.




Более продвинутый вариант – стойка со своими процессорами, кэшем и ПО, которая уже способна сама создавать RAID-массив и управляться пользователем. Обычно он имеет интерфейсы SCSI+SATA, типичный пример – Axus DemonRAID.




Отличие в том, что уже нет надобности ставить в сервер RAID-контроллер с внешним интерфейсом – достаточно простого адаптера SCSI. В теории такие стойки обеспечивают большую производительность и функциональность, чем аналогичные неуправляемые беспроцессорные системы. Но делать управляемые стойки SCSI+SCSI особого смысла нет, а SCSI+SATA в большинстве случаев проигрывает по скорости дисковой подсистемы (SATA медленнее SCSI), хотя выигрывает по ёмкости и цене. В принципе, зная о большом числе накопителей в системах хранения данных, кэш-памяти и специализированных процессорах, можно сразу предположить, что скорости, обеспечиваемые стойкой, несоизмеримы со скоростями в любой внутренней дисковой подсистеме. Этот момент является одним из важных плюсов СХД и, естественно, позволяет работать с СХД многим хостам одновременно.

Следующий очень важный момент – обеспечение дисковой стойкой большей надёжности и уникальной функциональности, которая была недоступна (или просто практически нереализуема) при использовании в сервере внутренних дисков как основном хранилище данных. Кратко рассмотрим основные плюсы, получаемые при внедрении полноценного решения на базе СХД, а их практическую реализацию мы опишем в следующей статье, при рассмотрении конкретных моделей систем хранения:

Высокая надёжность и отказоустойчивость – реализуется полным или частичным резервированием всех компонент системы (блоков питания, путей доступа, процессорных модулей, дисков, кэша и т.д.), а также мощной системой мониторинга и оповещения о возможных и существующих проблемах;

Высокая доступность данных – обеспечивается продуманными функциями сохранения целостности данных (использование 520 байт в секторе, использование технологии RAID, создание полных и мгновенных копий данных внутри дисковой стойки, реплицирование данных на удаленную СХД и т.д.) и возможностью добавления (обновления) аппаратуры и программного обеспечения в беспрерывно работающую систему хранения данных без остановки комплекса;

Мощные средства управления и контроля – управление системой через web-интерфейс или командную строку, выбор нескольких вариантов оповещения администратора о неполадках, полный мониторинг системы, работающая на уровне «железа» технология диагностики производительности;

Высокая производительность – определяется числом жёстких дисков, объёмом кэш-памяти, вычислительной мощностью процессорной подсистемы, числом внутренних (для жёстких дисков) и внешних (для подключения хостов) интерфейсов, а также возможностью гибкой настройки и конфигурирования системы для работы с максимальной производительностью;

Беспроблемная масштабируемость – обычно существует возможность наращивания числа жёстких дисков, объёма кэш-памяти, аппаратной модернизации существующей системы хранения данных, наращивания функционала с помощью специального ПО, работающего на стойке, без значительного переконфигурирования или потерь какой-то функциональности СХД. Этот момент позволяет значительно экономить и более гибко проектировать свою сеть хранения данных.

Момент, которого мы до сей поры не коснулись вообще – это протоколы и программные интерфейсы взаимодействия СХД и хостов, а также всей сети хранения данных в целом. Этому вопросу, а также практической реализации всей уникальной функциональности систем хранения данных и будет посвящена следующая статья. Дополнительно мы рассмотрим различные модели систем хранения от ведущих производителей, представленных на рынке, методы построения сетей SAN и типы подключения систем хранения в существующую серверную инфраструктуру предприятия.