Вы находитесь на странице: 1из 26

Технический документ

Виртуальная СХД HPE MSA Gen5


Техническое справочное руководство
Технический документ

Содержание
Краткий обзор .........................................................................................................................................3
Целевая аудитория ................................................................................................................................3
Основные компоненты системы ............................................................................................................3
Архитектура контроллера ......................................................................................................................5
Кеш контроллера ................................................................................................................................6
SAS ......................................................................................................................................................6
Виртуальная система хранения данных ................................................................................................7
Контроллеры и пулы ...........................................................................................................................8
Автоматическое распределение по уровням ...................................................................................11
Привязка уровней .............................................................................................................................15
Кеш чтения твердотельного накопителя ..........................................................................................16
Группы виртуальных дисков и широкомасштабное чередование данных ...................................... 17
Оптимизация процесса последовательной записи..........................................................................20
Увеличение емкости .........................................................................................................................22
Срок службы твердотельных накопителей ......................................................................................23
Динамическое предоставление ресурсов ........................................................................................24
Динамическое перестроение ...............................................................................................................24
Лицензирование ...................................................................................................................................24
Защита данных .....................................................................................................................................25
Моментальные снимки ......................................................................................................................25
Заключение ..........................................................................................................................................25
Технический документ Стр. 3

Краткий обзор
В этом информационном документе рассматривается виртуальная СХД, реализованная на базе СХД HPE MSA пятого
поколения. Здесь также рассматривается система автоматического распределения по уровням СХД и вспомогательные
технологии массивов HPE MSA пятого поколения. Этот информационный документ может помочь при создании и
внедрении идеальных конфигураций, которые превосходят ожидания и сокращают нежелательные результаты. Линейка
систем HPE MSA пятого поколения, эксклюзивно использующих виртуальные хранилища, включает массивы хранения
данных HPE MSA 1050, 2050 и 2052 SAN и SAS.

Примечание
В массивах HPE MSA третьего поколения использовалась линейная СХД; в массивах четвертого поколения использовались
линейные и виртуальные СХД. В массивах HPE MSA пятого поколения впервые стали использоваться только технологии
виртуальной СХД.

Этот документ не является руководством пользователя, в нем не перечислены все функции и не приведена полная
информация по их настройке. Для получения подробной информации о функциях массива HPE MSA пятого поколения
используйте ссылки на последней странице этого документа, чтобы перейти к основной документации.

Целевая аудитория
Этот информационный документ предназначен для всех, кто участвует в разработке и внедрении решений хранения
данных, включающих массивы HPE MSA пятого поколения. Техническим специалистам по продажам, занимающимся
разработкой эффективного решения, будет полезно разобраться в архитектуре HPE MSA, равно как и заказчику, который
будет устанавливать и настраивать этот продукт. HPE рекомендует предварительно изучить базовые концепции СХД,
такие как RAID, технологии механических и твердотельных накопителей, динамическое выделение емкости и сети
хранения данных.

Основные компоненты системы


Для массива HPE MSA используется конфигурация «активный-активный», которая обеспечивает как гибкость, так и
устойчивость к сбоям. Этот массив поставляется в виде компонента форм-фактора 2U, предназначенного для установки
в стойку.
1 1
• Отсеки для дисков (либо 24 малого форм-фактора , либо 12 большого форм-фактора )
• Два блока питания с возможностью горячей замены, каждый оснащен встроенным вентилятором охлаждения
• Два модуля контроллера с возможностью горячей замены
• Пассивная соединительная плата, к которой подключаются все компоненты
• Дополнительная панель
Массивы HPE MSA представляют собой корпусы массивов, содержащие модули контроллеров SAN или SAS, а также
дисковые полки расширения, на которых установлены дополнительные диски. Дисковые полки расширения включают
модули ввода-вывода вместо модулей контроллера и обеспечивают соединение SAS между дисковыми накопителями
и модулями контроллеров.

Рис. 1. Корпусы HPE MSA

1
Малый форм-фактор 2,5”/боль шой форм-фактор 3,5”
Технический документ Стр. 4

Массивы HPE MSA 1050 содержат всего четыре порта для подключения хоста по сравнению с восемью портами в массивах
HPE MSA 2050 и 2052. Однако модели HPE MSA 1050 SAS поддерживают дополнительный разветвленный кабель,
который позволяет вдвое увеличить число портов путем сокращения числа каналов SAS на каждый порт с четырех до двух.
Тем не менее разветвленный кабель обеспечивает повышенную масштабируемость без ущерба производительности массива.
HPE рекомендует использовать разветвленные кабели, даже если изначально они не требовались, для предотвращения
прерываний при подключении дополнительных хостов.

Рис. 2. Корпус массива HPE MSA 1050 — вид сзади

Рис. 3. Корпус массив HPE MSA 2050/2052 — вид сзади

Массив HPE MSA 1050 поддерживает до трех дисковых полок расширения, насчитывающих до 48 накопителей большого
форм-фактора или 96 накопителей малого форм-фактора. Массивы HPE MSA 2050 и 2052 поддерживают до семи дисковых
полок расширения и до 96 накопителей большого форм-фактора или 192 накопителя малого форм-фактора. Оба массива
поддерживают корпус HPE MSA 2040 большого форм-фактора и корпус D2700 малого форм-фактора в сценариях
обновления. Дополнительную информацию можно найти в информационном документе Переход на HPE MSA 1050/2050/2052.

Рис. 4. Названия корпусов массива HPE MSA


Технический документ Стр. 5

Архитектура контроллера
Массивы HPE MSA обеспечивают полное резервирование на случай сбоя компонента. Как показано на рис. 5, для
поддержки доступности и производительности, каждый контроллер массивов HPE MSA содержит собственный набор
оборудования, включая:

• порты для подключения хоста (Fibre Channel, iSCSI или 12 Гбит/с SAS);
• интерфейсы управления (Ethernet, последовательный через USB);
• контроллер системы хранения;
• контроллер управления;
• память/кеш;
• внутренний резервный источник питания (суперконденсатор);
• съемная энергонезависимая карта памяти (CompactFlash [CF] Express).

Рис. 5. Упрощенная схема контроллера HPE MSA

Управление каждым контроллером HPE MSA выполняют два логических компонента: контроллер СХД и контроллер
управления. Контроллеры состоят из множества подсистем, обеспечивающих вспомогательные подключения и функции,
которые не зависят друг от друга.

Контроллер СХД выполняет основную функцию и отвечает за физическое перемещение данных, а также за обеспечение их
целостности. Контроллер СХД состоит из контроллеров SAS и других аналогичных систем низкого уровня, а также содержит
специальную микросхему приложения (ASIC) для выполнения функций RAID. RAID ASIC поддерживает HPE MSA — сохраняет
высокие уровни производительности, даже при обработке сложных алгоритмов, подобных тем, что используются в RAID 6.

Контроллер управления выполняет утилиту управления СХД (SMU), доступ к которой осуществляется с помощью браузера
по протоколам HTTP/HTTPS или с помощью интерфейса командной строки, желательно по протоколу SSH. Утилита SMU
выполняется по сети Ethernet с управлением трафиком системы хранения вне диапазона. Кроме того, контроллер управления
отвечает за SNMP, SMI-S и другие виды обмена данными между системами. Чтобы обеспечить отказоустойчивость, каждый
контроллер выполняет один экземпляр SMU, а обмен данных внутри контроллера происходит через соединительную
плату массива, чтобы обеспечить актуальность данных конфигурации для обоих контроллеров.

Примечание
HPE MSA использует автономные IP-адреса управления для каждого контроллера и не предлагает один высокодоступный
IP-адрес.
Технический документ Стр. 6

Кеш контроллера
Каждый контроллер является объединенной, но в то же время замкнутой системой; каждый из них имеет встроенный кеш.
Кеш — это энергозависимая память с высокой пропускной способностью, она используется при выполнении нескольких
различных функций системы. Как показано в таблице 1, массив HPE MSA 1050 содержит 12 Гбайт, а HPE MSA 2050/2052
содержит 16 Гбайт кеш-памяти, которая распределяется между различными задачами.
Таблица 1. Распределение кеша системы.

HPE MSA 1050 на каждый Общий объем HPE MSA 2050/2052 на каждый Общий объем
Назначение контроллер в системе контроллер в системе

Общая емкость кеша 6 Гбайт 12 Гбайт 8 Гбайт 16 Гбайт


Локальные операции чтения 1 Гбайт 2 Гбайт 1 Гбайт 2 Гбайт
Локальные операции записи 1 Гбайт 2 Гбайт 1 Гбайт 2 Гбайт
Операции чтения зеркала 1 Гбайт 2 Гбайт 1 Гбайт 2 Гбайт
контроллера партнеров
Зеркальные операции записи 1 Гбайт 2 Гбайт 1 Гбайт 2 Гбайт
контроллера партнеров
Используется ОС 2 Гбайт 4 Гбайт 4 Гбайт 8 Гбайт

Важно
Существует расхожее убеждение, что объем кеш-памяти контроллера напрямую связан с общей производительностью
системы. Это может быть верно для некоторых архитектур, но неверно для массива HPE MSA, который содержит
отдельную микросхему ASIC RAID-массива для разгрузки ЦП общего назначения и освобождения его для других задач,
таких как отслеживание метаданных. Благодаря сокращению ресурсов, требуемых RAID-массиву, для уравновешивания
высокой нагрузки нужен меньший объем кеш-памяти. Чтобы точно определить производительность массива, при
тестировании HPE умышленно переполняется объем кеш-памяти контроллера для исключения вводящих в заблуждение
и краткосрочных преимуществ, связанных с кеш-памятью. Эти результаты соответствуют математическим моделям,
используемым для оценки производительности с помощью таких инструментов, как HPE Storage Sizing Tool, для точного
определения производительности массива в заданной конфигурации при выполнении рабочей задачи.

Из общего числа операций чтения/записи контроллера 50 % приходится на создание зеркальной копии содержимого
контроллера партнеров, которая гарантирует, что в случае сбоя контроллера операции ввода-вывода могут быть
продолжены с использованием оставшегося контроллера без потери данных.

Если отключить внешнее питание контроллера, внутренний суперконденсатор сможет обеспечить достаточно энергии для
записи содержимого кеш-памяти контроллера на съемную энергонезависимую карту памяти CF Express, обеспечивая
долгосрочное хранение данных, которые пока не были записаны на диск. После восстановления внешнего питания
происходит перенос незаписанного содержимого кеша на диск.

SAS
Массив HPE MSA обменивается данными со всеми накопителями и корпусами расширения через соединение SAS 6 Гбит/с.
Диски SATA не поддерживаются. Однако массив HPE MSA поддерживает соединения SAS с хостами со скоростью до
12 Гбит/с, и по состоянию на август 2019 г. HPE MSA являлся единственным массивом HPE, который предлагал общую
блочную систему хранения данных по протоколу SAS. Трафик внешнего хоста полностью изолирован от внутреннего
трафика SAS, и хотя они используют одинаковый протокол, в остальном они абсолютно никак не связаны.

Как показано на рис. 6, каждый контроллер HPE MSA содержит один канал 6 Гбит/с, предназначенный для каждого
внутреннего диска, и соединен с дисковой полкой расширения с помощью четырехканального мини-соединения SAS
6 Гбит/с. Эта архитектура обеспечивает как высокую пропускную способность, так и резервные подключения для дисков.
Технический документ Стр. 7

Рис. 6. Архитектура массива HPE MSA

Важно
Для достижения оптимальной производительности расположите твердотельные накопители в корпусе массива с выделенной
линией SAS для каждого накопителя в отличие от внешних корпусов, которые подключаются к контроллеру массива через
четырехканальный разъем SAS. Несмотря на то что появление дополнительных каналов не приводит к многократному
повышению производительности, они все равно уменьшают общую задержку канала и тем самым повышают общую
производительность системы.

Виртуальная система хранения данных


Виртуальная СХД является абстракцией базовых подсистем хранения данных и используется для расширения функциональных
возможностей, повышения производительности и упрощения развертывания массива. Виртуальная СХД также позволяет
использовать программно определяемые сервисы обработки данных, что повышает доступность и общую эффективность.
В массивах HPE MSA пятого поколения виртуализация происходит в двух разных точках. Первая точка — уровень диска
в виде RAID-массива с аппаратным ускорением, а вторая — программный уровень, который выступает в качестве «пула».
RAID-массив — это тип виртуализации, при котором несколько дисков объединяются в один объект. В массивах HPE MSA
использовалась эта линейная концепция вплоть до появления микропрограммного обеспечения GL200, которое позволило
создать виртуальную СХД для массивов четвертого поколения. По сути дела, RAID-массив увеличивает адресуемую
емкость, повышает производительность и доступность для всех томов внутри дисковой группы, при этом получаемые
преимущества отличаются в зависимости от уровня RAID-массива.
Несмотря на то что технология отлично справляется с этими специфическими задачами, она также приводит к изоляции
этих же атрибутов. В частности, тома не имеют доступа к емкости и производительности других дисков, не входящих в их
группу. Еще одним недостатком такой архитектуры является невозможность увеличения емкости или производительности
группы дисков без предварительного ее расширения с помощью дополнительных дисков. Для небольших групп дисков
малой емкости добавление новых дисков может и не вызывать проблем, однако чем больше дисков и чем больше их
емкость, тем выше риск одновременного сбоя дисков и, как следствие, потери данных. Кроме того, при расширении группы
дисков запускается процесс повторного распределения существующих данных по дискам, что отрицательно отражается на
производительности. Наконец, группа дисков может увеличиваться только до конечного размера, что ограничивает рост
числа приложений и объема тома до значений немного ниже тех, которые контроллер мог бы поддерживать в другой
конфигурации.
Технический документ Стр. 8

В виртуальной СХД используют те же принципы создания RAID-массивов, но с дополнительными усовершенствованиями.


В них происходит объединение не только дисков, но и целых групп дисков. Это обеспечивает возможность широкомасштабного
распределения данных между всеми группами дисков внутри уровня. Виртуальная СХД позволяет администратору
определить уровень избыточности, емкость и производительность, которые обеспечат подходящие классы обслуживания
для томов в пуле и при этом позволят избавиться от сложностей, связанных с традиционными RAID-массивами хранения
данных. Кроме того, виртуальная СХД предоставляет много удобных функций, например распределение по уровням ниже
логических устройств, увеличение кеша чтения, динамическое предоставление ресурсов и перестроение, а также
моментальные копии с переадресацией при записи для эффективного использования дискового пространства. Улучшения
виртуальной СХД также распространяются на интерфейс управления, где можно выполнять большее число операций
с меньшим количеством действий. Например, кроме более простого создания тома, также стало проще сопоставлять
несколько томов с несколькими хостами, а также более эффективно визуально представлять использование массива.

Контроллеры и пулы
Массив HPE MSA поставляется с двумя контроллерами (что является их минимальным и максимальный количеством),
каждый из которых поддерживает один пул. Пул становится доступным при назначении для него группы дисков.

Рис. 7. Контроллеры и пулы HPE MSA

Примечание
Массивы HPE MSA продаются только в конфигурациях с двумя контроллерами. Несмотря на то что массив HPE MSA
может работать с одним контроллером, в этом случае появляется единая точка отказа. Необходимо вернуть второй
контроллер как можно скорее.

Важно
Компания HPE не продает контроллеры пятого поколения кроме как в корпусах массивов, исключение составляют
резервные контроллеры, предлагаемые взамен вышедших из строя.

Как показано на рис. 8, пул представляет собой местоположение данных тома. Поскольку каждому контроллеру «принадлежит»
определенный пул, том не может распространяться или иным образом использовать емкость и производительность
другого контроллера. Поэтому каждый пул можно представлять как полностью независимые ресурсы, управляемые с
помощью одного интерфейса. Тем не менее доступ к каждому пулу осуществляется через порты для подключения хоста
контроллера партнера с использованием механизма ULP. В случае обновления микропрограммного обеспечения или сбоя
контроллера пул сохранит свою работоспобоность, а управление им временно перейдет к оставшемуся контроллеру.

Рис. 8. Связь томов и пулов


Технический документ Стр. 9

Это поддерживается и потенциально интересно только для развертывания одного пула, поскольку эта функция гарантирует
постоянную производительность во время обновления микропрограммного обеспечения или в случае сбоя контроллера2. Например,
если контроллер способен выполнять 100 000 операций ввода-вывода в секунду3, то два одновременно работающих контроллера
смогут выполнять 200 000 операций ввода-вывода в секунду, и это значение представляет собой суммарный потенциал массива.
Когда контроллер становится недоступным, потенциал массива падает до 100 000 операций ввода-вывода в секунду3, что
соответствует потенциалу одного контроллера. В примере на рис. 9 контроллер A имеет недостаточный запас, чтобы принять
на себя дополнительные рабочие задачи, временно перенесенные с контроллера B. В результате общая производительность
массива немного, но заметно уменьшается до тех пор, пока недоступный контроллер не восстановит свою работу.

Рис. 9. Превышение лимита контроллера A, когда контроллер B недоступен

В архитектуре «активный-активный» массив HPE MSA поддерживает три подхода в отношении запаса ресурсов при
проектировании решения.
1. Два пула без запаса ресурсов. Одновременное развертывание обоих пулов с достаточными ресурсами накопителей
позволяет при выполнении рабочих задач использовать весь потенциал массива с точки зрения производительности и емкости.
Этот вариант выбирают чаще всего, поскольку время простоя контроллера обычно очень небольшое, а плановые обновления
микропрограммного обеспечения контроллера в периоды простоя сводят любое влияние на производительность к нулю. Кроме
того, при соответствующей настройке массив HPE MSA пятого поколения работает настолько хорошо, что он редко в течение
длительного времени использует более 50 % потенциала массива. В результате практически всегда имеется запас ресурсов,
даже если в явном виде он не выделен.
2. Один пул со 100 % запасом. Развертывание одного пула и размещение в нем всех рабочих задач гарантирует постоянный
уровень производительности, даже если контроллер станет недоступным. Такой подход предполагает выбор емкости СХД в
соответствии с требованиями, что может быть затруднительно с использованием имеющихся инструментов, 4 поскольку они не
поддерживают моделирование производительности с асимметричной схемой распределения пула ресурсов. Тем не менее это
можно сделать в инструменте подбора размера СХД HPE путем простого математического деления при сравнении максимальных
значений производительности массива, указанных в кратких характеристиках, и общего числа групп дисков, хотя результат
будет неточным.
Если целевое значение фиксированной емкости меньше 128 ТиБ5, то один пул также позволяет обеспечить доступ хоста ко
всей емкости как к единому тому, если его поддерживает файловая система ОС. Подобный подход может быть особенно
важен для небольшой конфигурации, когда гипервизор может использовать только одно хранилище данных.
3. Два пула, со 100-процентным запасом. Как и во втором варианте, эта методология призвана обеспечить сохранение
предсказуемого уровня производительности в период, когда контроллер становится недоступным. Этот метод также может
быть предпочтительным, когда требуется емкость больше той, которую может обеспечить один пул.
Подобрать размер двух пулов для обеспечения необходимого уровня производительности проще, поскольку существуют
данные для симметричной схемы пула. Однако со временем этого запаса может оказаться недостаточно. Например, при
увеличении емкости пула рабочие задачи могут расширяться и использовать дополнительную производительность, при этом
администратор может не догадываться о проблеме. Когда это происходит, запас уменьшается.

Важно
При разработке решения для хранения данных важно иметь четкое понимание всех рабочих задач, а также возможностей
массива, чтобы избежать нежелательных результатов.

2
В информационном документе с рекомендациями, который был опубликован августе 2019 г., сказано, что пулы следует развертывать симметрично. Этот
информационный документ будет обновлен в соответствии с настоящим документом.
3
Только для примера. Реаль ная производительность может быть выше или ниже и меняется в зависимости от конфигурации накопителей и рабочих задач.
4
Инструмент HPE Storage Sizing Tool
5
Максимальный размер виртуаль ного тома по состоянию на август 2019 г. при использовании микропрограммного обеспечения VE270 (MSA 1050) или VL270
(MSA 2050/2052).
Технический документ Стр. 10

Пул представляет собой совокупность страниц по 4 Мбайт. Число страниц внутри пула зависит от общей емкости всех
групп виртуальных дисков, связанных с ним. Например, при наличии одной группы с полезной емкостью 1 Тбайт всего
будет 250 000 страниц по 4 Мбайт (1 024 000 000/4096 = 250 000). Несмотря на то что число страниц в пуле может
меняться, размер страницы остается неизменным и всегда равен 4 Мбайт.

В массиве HPE MSA том представляет собой совокупность страниц, которые в сумме дают заявленную емкость.
Местоположение выделенных страниц тома внутри пула со временем меняется и зависит от нескольких факторов, таких
как использование распределения по уровням, моментальные снимки и динамическое предоставление ресурсов. Как
показано на рис. 10, пул легко представить в виде таблицы, заполненной страницами, которые могут добавляться как
по порядку, так и не по порядку. Каждая страница имеет сплошной диапазон адресов логических блоков (LBA) для
назначенного для него тома. Страница связана только с одним томом.

Рис. 10. Схема назначения страниц внутри пула

Операционная система ничего не знает о местонахождении данных внутри массива. Как показано на рис. 11, операционная
система «видит» физический диск, содержащий некоторое число секторов по 512 байт каждый, на котором базируется
файловая система. Приложения обычно взаимодействуют с файловой системой для чтения и записи данных, и степень
разрешения данных на них часто ниже, чем у файловой системы. В данном примере HPE MSA выполняет чтение и запись
в одну страницу для всех секторов с 1 по 8192.

Рис. 11. Адресация и перевод единиц данных с использованием примера приложения и размеров блоков файловой системы
Технический документ Стр. 11

Автоматическое распределение по уровням


Уникальной функцией виртуальной СХД является автоматическое распределение ниже логических устройств, которое позволяет
увеличить общую производительность системы с меньшими затратами, чем это возможно при использовании дискового накопителя
только одного класса. При автоматическом распределении данных по уровням содержимое тома распределяется по нескольким
группам виртуальных дисков внутри уровня, а также по нескольким классам дисков, объединенных для образования пула. Этот
процесс использует преимущества по производительности определенного типа дисков, но только для части тома, где это необходимо.
Как показано в таблице 2, массив HPE MSA поддерживает три уровня СХД; каждый уровень связан с определенным классом дисков.
Таблица 2. Уровни и типы дисковых накопителей

Имя уровня HPE MSA Тип диска Отраслевой термин

Производительность Твердотельный накопитель Уровень 0


Стандартный Жесткие диски Enterprise SAS со скоростью 15000 и 10000 об/мин Уровень 1
Архив Жесткие диски MDL SAS 7200 об/мин Уровень 2

Важно
Дисковые накопители относятся к соответствующему уровню автоматически при назначении группе дисков, и это назначение
невозможно изменить. Например, диски со скоростью 15 об/мин невозможно отнести к уровню производительности.

Уровень, относящийся к пулу и включающий все группы дисков определенного типа, связанных с этим пулом. На рис. 12 показано,
как страницы всех томов внутри пула распределяются между всеми тремя уровнями, а также все шесть групп дисков, которые с
ним связаны.6

Рис. 12. Пример распределения томов между несколькими уровнями внутри одного пула

В таблице 3 показаны четыре способа настройки пула.


Таблица 3. Конфигурации пула

Конфигурация Схема Преимущество

Один уровень Один класс дисков, только широкомасштабное • Отлично подходит для конфигураций боль шой емкости с
чередование данных, отсутствие автоматического последовательными операциями ввода-вывода
распределения данных по уровням • Постоянный уровень производительности для всех томов
Распределение по Распределение на твердотельный накопитель; может • Гибридный массив, идеальный вариант для смешанных нагрузок
уровням использоваться одна из двух рекомендуемых схем. и практического подхода
производительности
• Два уровня: стандартный уровень и уровень • Увеличивает полезную емкость
7
производительности
• Все три уровня
Уровень архива Стандартный уровень и уровень архива Отлично подходит для решений боль шой емкости, где не
предъявляются требования к высокой производительности
Кеш чтения Твердотельные накопители используются в качестве Значительно ускоряет выполнение операций случайного считывания
твердотельного расширения кеша чтения в сочетании с одним с минимальными инвестициями, не требует наличия лицензии
накопителя уровнем или с распределением на уровень архива

6
Только для примера. Фактическое распределение страниц зависит от нескольких факторов.
7
В связи со значительной разницей в уровне производительности распределение между уровнями производительности и архива поддерживается, но не
считается лучшим вариантом.
Технический документ Стр. 12

Без автоматического распределения по уровням пул состоял бы только из дисковых накопителей одного типа и производительность
тома было бы невозможно увеличить без значительных затрат сверх характеристик технологии накопителей. Однако пул с одним
уровнем отлично походит для многих решений, особенно в тех случаях, когда требуется отличная производительность
последовательных операций и большие значения емкости. Массив HPE MSA, относящийся к системам начального уровня,
обычно развертывается как одно решение, состоящее из нескольких рабочих задач, требующих сочетания сложных операций
произвольного ввода-вывода и последовательных операций ввода-вывода одновременно.
Для смешанных рабочих задач флеш-хранилище подходит идеально, поскольку оно обеспечивает высокую производительностью,
несмотря на то, что флеш-накопители дороже традиционных жестких дисков. HPE поддерживает настройку HPE MSA как флеш-
массива, однако для сценариев, требующих высокого уровня гарантированной производительности при выполнении операций
произвольного ввода-вывода, в линейке HPE можно найти более подходящие продукты. Гибридные массивы хранения данных,
включающие как твердотельные накопители, так и жесткие диски, являются намного более эффективным решением для
достижения повышенной производительности операций произвольного и последовательного считывания без значительных
промахов при выборе емкости или выхода за рамки бюджета.
Таблица 4. Методы повышения производительности приложений

Метод Преимущества Недостатки

Добавление • Повышение производитель ности группы • Отрицательно влияет на доступность группы дисков и, как следствие, пула
дисковых дисков
накопителей в • Повышает производительность только для данной группы дисков и части уровня
группу дисков • Для обеспечения согласованного уровня производительности требуется
выполнение действия для каждой группы дисков внутри уровня. Однако
невозможно увеличить группу виртуаль ных дисков. Для этого необходимо
удалить группу дисков, изменить ее размер, а затем повторно добавить в пул.
Кроме того, требуется достаточная нераспределенная емкость внутри пула
для компенсации временной потери емкости.
• Дорогой вариант
• Прерывание работы
Добавление групп • Является идеаль ным решением для • Для достижения цели по производительности может потребоваться выделить
дисков на уровень повышения производительности боль шую емкость, особенно для операций случайного ввода-вывода.
последовательных операций ввода-вывода • Потенциально дорого
• Не влияет на доступность пула
• Поддерживает постепенное увеличение
емкости и производительности
• Является оптимальным подходом для
выполнения целей по емкости
Переход на • Гарантированное решение для повышения • Одновременное достижение целей по емкости и производительности может
технологии более производительности до точки насыщения оказаться очень дорогим
производительных контроллера или ограничения по числу
накопителей • Распределение по уровням используется временно, если только данные не
дисков переносятся из одного пула в другой или восстанавливаются из резервной копии;
• Подходит для самых жестких требований настройка технологий твердотельных накопителей и жесткого диска одновременно
приложений требует лицензии, если используется массив, отличный от HPE MSA 2052
• Требуется прерывание работы, особенно если используется подход с резервным
копированием и восстановлением данных
Автоматическое • Обеспечивает преимущества по • Требуется лицензия для HPE MSA 1050/2050
распределение по производительности для всех томов в пуле
уровням • Возможна перегрузка при выполнении продолжительных рабочих задач
• Более дорогие технологии накопителей в неправильно развернутых пулах
используются только для некоторой части
от общей емкости
• Простота развертывания
• Возможность настройки без прерывания
работы
Кеш чтения • Очень экономичный вариант • Требуется время для выхода на рабочий уровень производительности
твердотельного
накопителя • Для начала требуется только 1 • Напрямую не ускоряет операции записи
твердотельный накопитель в каждом пуле • Не ускоряет операции последовательного доступа
• Лицензия не требуется • Имеется ограничение для размера пула в 4 Тбайт при условии работы в
• Хорошо подходит для рабочих задач пределах рекомендуемых 10 % от емкости пула
с преобладающими операциями
произвольного чтения

Автоматическая система распределения по уровням HPE MSA обеспечивает оптимальный выбор места для размещения данных,
в том числе при первой записи в том. Некоторые решения распределения данных по уровням пытаются обеспечить производительность
на уровне флеш-накопителей путем записи всех входящих данных на накопители, относящиеся к самому производительному
классу в системе. Однако подобный подход является не таким эффективным, как тот, что используется в массивах HPE MSA,
и представляет несколько проблем.
1. Приводит к необходимости выполнения дополнительных операций ввода-вывода на сервере для освобождения пространства
для новых данных.
2. Оставляет меньше пространства для часто считываемых данных.
3. Не использует преимущества типов дисковых накопителей, которые лучше подходят для последовательных операций ввода-вывода.
Технический документ Стр. 13

Для решения этих проблем в массиве HPE MSA входящие операции записи перенаправляются на самый подходящий
уровень. Такой подход требует меньшего числа операций ввода-вывода на сервере для последующего перераспределения
страницы, а также освобождает емкость на более производительных уровнях для более подходящих данных. Как показано
на рис. 13, при распределении по уровням на основе производительности система распознает входящие данные,
записываемые в виде потока, и активно направляет их на самый производительный уровень, включающий традиционные
жесткие диски. Последовательно записываемые данные хорошо подходят для механических дисковых накопителей, а при
операциях произвольной записи могут возникать задержки, для них предпочтительнее использовать твердотельные накопители.
Таким образом, этот подход позволяет значительно повысить общую производительность и не требует никакого
административного вмешательства. В обоих сценариях в случае переполнения уровня назначения будет использоваться
следующий из самых производительных уровней, на котором имеется необходимое свободное пространство.

Рис. 13. Автоматическое перенаправление входящих операций записи при распределении по уровням на основе производительности

При распределении по уровням для архивирования все входящие операции записи направляются на стандартный уровень,
если только он не полностью заполнен или для тома выбран параметр привязки к уровню «Архив». Дополнительную
информацию можно найти в подразделе «Привязка к уровням» в этом информационном документе.

Рис. 14. Механизм записи на уровень архива

В отличие от некоторых механизмов распределения по уровням, массив HPE MSA не выполняет планирование переноса
страниц каждый день или каждый час. Он также не требует больших объемов дорогостоящих моделей памяти или кеша
для буферизации нескоординированных операций записи на сервере. Вместо этого система распределения по уровням
HPE MSA использует минимальное количество ресурсов, что позволяет перемещать страницы практически непрерывно,
если это потребуется.

Каждые пять секунд система распределения по уровням анализирует пул и переносит страницы на более или менее
производительный уровень в зависимости от того, насколько часто к ним происходит обращение. Этот процесс называется
оценкой страниц. Цель оценки страниц состоит в том, чтобы хранить наиболее часто используемые страницы на самом
высокопроизводительном уровне в пуле. Для этого ведется список страниц, к которым чаще всего происходит обращение.
В ходе того же процесса страницы, которые используются реже, можно перенести на менее дорогостоящий и менее
производительный уровень, чтобы освободить место для других страниц.
Технический документ Стр. 14

Таблица 5. Пример оценки страниц.

Оценка страницы Текущая страница Том Направление

Первая Страница 3 Том A Переносится на более производительный уровень


Вторая Страница 7 Том B Переносится на более производительный уровень
Третья Страница 5 Том A Переносится на более производительный уровень
Четвертая Страница 2 Том A Переносится на более производительный уровень
Пятая Страница 1 Том A Переносится на более производительный уровень
Шестая Страница 6 Том A Переносится на менее производительный уровень
Седьмая Страница 8 Том B Переносится на менее производительный уровень
Восьмая Страница 9 Том A Переносится на менее производительный уровень
Девятая Страница 4 Том B Переносится на менее производительный уровень

Оценку также можно производить с помощью тепловой карты, где самыми горячими являются страницы, к которым чаще
всего осуществляется доступ. Когда страница становится холоднее вследствие того, что в таблице оценки более активно
используемые страницы занимают более высокие места, она в итоге совсем исключается из таблицы оценки до тех пор,
пока к ней не будет выполнено обращение.

Рис. 15. Пример тепловой карты для таблицы 5

Важно
Распределение по уровням не является функцией, которую можно включать и выключать. Система распределения по
уровням всегда «включена», и оценка страниц производится даже в системе с одним уровнем. Настройка принадлежности
тома уровню влияет только на доступные пользователю параметры для манипулирования системой распределения по
уровням извне, чтобы указать диски, которые необходимо использовать.

Рис. 16. Распределение по уровням производительности


Технический документ Стр. 15

Для переноса страницу необходимо прочесть и перезаписать на один из виртуальных дисков другой группы, что сказывается на
производительности. В обычном режиме работает несколько механизмов, чтобы исключить негативное влияние перераспределения
данных на производительность. Эти правила не работают только в одном случае — во время удаления виртуального диска из
пула. Если в пуле останется достаточно емкости, то при удалении одной из групп дисков размещенные в ней страницы будут
перезаписаны на диски оставшихся групп.
Перечислим общие правила.
• Страница не должна перемещаться чаще, чем каждые 15 минут.
• Страницы могут перемещаться не чаще некого фиксированного количества раз в течение пяти секунд.
• Редко используемые страницы понижаются уровнем, только если необходимо освободить место для часто используемых
страниц.

Важно
В идеале уровень производительности должен охватывать не менее 80 % типичных операций ввода-вывода в течение 24 часов.
После настройки массива и постановки рабочих задач ежедневное использование емкости можно оценить по графику операций
ввода-вывода рабочих задач массива. Перед началом производства безопасный показатель до установки массива составляет
10–15 % от общей емкости пула. И хотя при выполнении некоторых рабочих задач этот процесс может дать положительные
результаты, специалисты HPE рекомендуют не настраивать для пула более низкий уровень производительности, чем 10 % от его
общей емкости. Если показатель меньше 10 % при заполнении пула данными, производительность, скорее всего, станет менее
предсказуемой. И наоборот, если установить для уровня производительности более высокое значение, чем рекомендуется,
результаты экономии затрат, которую обеспечивает система распределения по уровням, обесценятся.

Привязка уровней
Система автоматического распределения по уровням HPE MSA адаптируется к изменению рабочих задач всех томов пула,
эффективно помещая данные на нужный уровень в автоматическом режиме. Однако пользователям, привыкшим использовать
другие механизмы распределения по уровням или линейные СХД, может понадобиться закрепить тот или иной том за конкретным
уровнем, например за уровнем производительности, чтобы обеспечить для него постоянную 100-процентную производительность
твердотельных накопителей. Но, учитывая свойственную HPE MSA эффективность распределения по уровням, это необязательно.
При закреплении одного из томов за уровнем производительности снижается емкость твердотельного накопителя, доступная для
других томов, что может привести к износу ресурса и снижению производительности всего пула.
К примеру, часто администраторов баз данных беспокоит производительность тома TempDB, который, если его не привязать к
нужному месту, может нанести большой ущерб производительности системы. Однако тома этого типа используются постоянно и
естественным образом закрепляются за самым быстродействующим уровнем в пуле8. Способность СХД HPE MSA использовать
автоматизированное распределение по уровням для обеспечения высокой производительности в рабочих задачах баз данных и
Microsoft® Exchange™ стала предметом изучения для компании Demartek, в результате которого были выпущены перечисленные
ниже отчеты.
• Повышение производительности ПО Exchange Server путем использования СХД HPE MSA 2050 на базе встроенных флеш-
накопителей
• Повышение производительности рабочих задач баз данных путем использования СХД HPE MSA 2050 на базе встроенных
флеш-накопителей
Тем не менее в некоторых сценариях использования возможность размещения тома на конкретном уровне дает значительные
преимущества, и настройка привязки уровней обеспечивает для этого соответствующий механизм.
В SMU эту настройку можно включить в любой момент. Привязка уровней выполняется для каждого тома. Ее функция — изменить
стандартный алгоритм оценки страниц так, чтобы повысить вероятность удачного размещения страниц тома на уровне
производительности или архива. Как показано в следующей таблице, представлены три настройки.
Таблица 6. Настройки привязки уровней

Настройка Эффект

Производительность Повышается вероятность перевода на наивысший уровень пула.


Без привязки Значение по умолчанию. Стандартные для системы распределения по уровням правила таковы:
• Часто используемые страницы — уровень производительности, то есть наивысший уровень
• Редко используемые страницы — стандартный уровень, то есть уровень перед наивысшим
• Переполнение 9 — уровень архива
Архив На самый низкий уровень пула поступают новые записываемые данные. Кроме того, велика
вероятность понижения страниц уровнем, если ресурсы более высоких уровней потребуются
другим томам.

8
При условии, что соответствующая доля емкости пула обеспечивается твердотельными накопителями
9
Переполнение — это страницы, пониженные уровнем для освобождения места для часто используемых данных, или страницы, не подошедшие для более
высоких уровней при сборе данных.
Технический документ Стр. 16

Примечание
Изменение настроек привязки уровней заметно не сразу, поскольку не влияет на существующие страницы, пока у тех не повысится
оценка (привязка к производительности) или не потребуется освободить место на более высоком уровне (привязка к архиву).

Настройка «Без привязки» задана для системы по умолчанию. Для большинства томов это рекомендуемая настройка. При
использовании настройки «Без привязки» система пытается определять местоположение наиболее часто используемых страниц
на высшем уровне, а всех остальных — на уровне перед высшим, где имеется свободная емкость. После настройки трех уровней,
пока не исчерпана емкость на более высоких уровнях, уровень архива не используется, иначе будет иметь место ненужное
снижение производительности. Доступ к уровню архива открывается при переполнении, и здесь хранятся только самые редко
используемые страницы или новые записи, если записать данные больше некуда.
Настройка привязки уровней «Производительность» выгодна для любого тома, однако ее следует применять умеренно. Настройка
«Производительность» обычно применяется к данным приложений, для обработки которых часто требуется производительность
флеш-системы, но периоды между повышениями активности операций чтения слишком длительны. В хорошо сбалансированных
системах не должно быть возможности перенести все содержимое томов на уровень производительности с помощью настройки
«Производительность», поскольку в таком случае емкости откажется недостаточно, из-за чего система станет неэффективной.
Если необходимо, чтобы все тома были привязаны к уровню производительности, будет лучше выделить для них отдельный пул
на основе флеш-накопителей или использовать один из флеш-массивов из другого раздела линейки СХД HPE.
Очень часто полезнее всего использовать настройку привязки уровней «Архив», что позволяет открыть доступ к уровню архива
даже при наличии емкости на других уровнях. Уровень архива — самый низкопроизводительный уровень в пуле. Он отлично
подойдет, если данными не будут пользоваться после записи на диск или если не требуется высокой производительности.
Примерами данных, для которых подойдет эта настройка, являются образы дисков, данные тестирования или потоковых видео
внутренней системы наблюдения. Применение этой стратегии дает два ощутимых преимущества.
• Емкость высокопроизводительных уровней высвобождается для томов, для которых производительность имеет большее
значение.
• Сокращается число серверных операций ввода-вывода, необходимых для переноса страниц с одного уровня на другой.

Кеш чтения твердотельного накопителя


Как правило, лучшим способом повысить общую производительность системы является распределение данных по уровням
производительности. Однако в средах, где в основном выполняются рабочие задачи с интенсивным использованием операций
произвольного чтения, значительные преимущества дает кеш чтения твердотельного накопителя. Кеш чтения твердотельного
накопителя не является ресурсом емкости массива и потому не требует резервирования на уровне диска или приобретения
лицензии. Кроме того, хотя перенос данных чтения на твердотельный накопитель и предназначен для ускорения произвольных
операций чтения, при этом жесткие диски освобождаются от обработки операций ввода-вывода, что может способствовать
дополнительному увеличению производительности.
Кеш чтения твердотельного накопителя обеспечивает поддержку пулов с единственным уровнем или привязкой к уровню архива
и работает по указанным далее правилам.
• Наличие как минимум одного диска в каждом пуле (NRAID) 10.
• Наличие максимум двух дисков в каждом пуле (RAID 0) 11.
• Максимальная доступная емкость кеша чтения составляет 4 Тбайт на каждый пул.
• Не может использоваться, если для пула настроено распределение по уровням производительности.
• Поддерживаются один пул с настроенным кешем чтения твердотельного накопителя и другой пул, который используется как
группа дисков для больших объемов данных, и для них настраивается распределение по уровням производительности.

Важно
В идеале кеш чтения твердотельного накопителя должен охватывать не менее 80 % типичных операций ввода-вывода в течение
24 часов. После настройки массива и постановки рабочих задач ежедневное использование емкости можно оценить по графику
операций ввода-вывода рабочих задач массива. Перед началом производства показатель кеша чтения твердотельного накопителя
должен составлять 10–15 % от общей емкости пула. При этом специалисты HPE рекомендуют, чтобы кеш чтения твердотельного
накопителя составлял не менее 10 % от общей емкости пула. При показателе меньшем 10 % при заполнении пула данными
производительность, скорее всего, станет менее предсказуемой. И наоборот, если установить для кеша чтения твердотельного
накопителя более высокое значение, чем рекомендуется, результаты экономии затрат, которую он обеспечивает, обесценятся.

При максимально доступной емкости в 4 Тбайт на каждый пул, практичнее всего было бы использовать в современных системах
портфеля решений HPE MSA твердотельный накопитель для интенсивных нагрузок чтения емкостью 1,92 Тбайт. Два таких
накопителя обеспечат 3,84 Тбайт кеша чтения, то есть до 38,4 Тбайт емкости на каждый пул. При этом сохранится рекомендуемое
соотношение между твердотельными накопителями и жесткими дисками.

10
NRAID (без RAID) применяется только для групп дисков кеша чтения.
11
RAID 0 применяется только для групп дисков кеша чтения.
Технический документ Стр. 17

На рис. 17 показано, как в массиве осуществляется чтение данных при использовании кеша чтения твердотельного накопителя.
Однако за исключением этапа 4a процесс одинаков, независимо от конфигурации пула. Массив всегда будет пытаться выполнить
чтение данных с самого быстродействующего из носителей СХД, на которых хранятся копии этих данных. При чтении данных с
диска (как показано для этапа 4b), твердотельный накопитель остается возможным источником данных, если вместо кеша чтения
твердотельного накопителя используется распределение по уровням производительности.

Рис. 17. Механизм чтения данных

На рис. 17 представлены следующие этапы.

1. Приложение запрашивает данные из файловой системы.


2. Файловой системой выполняется чтение соответствующих секторов диска.
3. Виртуальная СХД HPE MSA сопоставляет полученные в результате LBA с имеющимися в пуле подходящими страницами.
4. Если для тома отключено кеширование данных, недавно считанные, записанные или предварительно загруженные данные
уже могут находиться в кеше контроллера. В этом случае операция ввода-ввода будет выполнена мгновенно. Иначе данные
необходимо будет считать с диска.
a. Страница может храниться в кеше чтения твердотельного накопителя, который является следующим по быстродействию
носителем данных, поскольку была скопирована на этапе 5. В таком случае для выполнения операции ввода-вывода
подходящие адреса LBA считываются со страницы и копируются в кеш контроллера.
b. Если в кеше чтения твердотельного накопителя страницы не окажется или если окажется, что этот кеш не настроен,
то адреса LBA будут считаны из виртуальной группы дисков, в которой хранится страница, в том числе с уровня
производительности, если он настроен.
5. Подсказки о необходимости копировать страницу в кеш чтения твердотельного накопителя дает виртуальной СХД кеш
контроллера. Например, страницы, считываемые произвольно, есть смысл копировать в кеш, а те, что считываются
последовательно, — нет.

Группы виртуальных дисков и широкомасштабное чередование данных


Группы виртуальных дисков являются основными структурными блоками пула и определяются как группы отдельных дисков, в
которых для обеспечения работы логических устройств определенной емкости и производительности используется технология
RAID. Пул может включать в себя от 1 до 16 групп дисков. Обязательных правил в отношении геометрии таких групп дисков не
существует, но имеется ряд рекомендаций по обеспечению стабильной производительности. Цель этого информационного
документа — надлежащим образом объяснить технологию HPE MSA, чтобы эти рекомендации стали понятнее. Специальные
сведения см. в информационном документе Рекомендации по использованию HPE MSA 1050/2050/2052.
Технический документ Стр. 18

В виртуальной СХД для отслеживания метаданных страниц, в том числе их местоположения на дисках группы, используется
ЦП общего назначения контроллера. При этом RAID — это функция уровня группы дисков, обеспечивающая распределение
страниц данных по отдельным дискам с использованием специальной микросхемы ASIC. Эти функции выполняются независимо
одна от другой и напрямую не связаны. Хотя массив HPE MSA может поддерживать схемы NRAID и RAID 0 для групп
дисков кеша чтения, ни одну из них нельзя использовать для групп дисков, предназначенных для больших объемов
данных, так как ни одна из них не обеспечивает защиты от отказа накопителей. В таблице 7 перечисляются уровни RAID,
использование которых поддерживается в группах виртуальных дисков при предоставлении ресурсов для пула.

Таблица 7. Уровни RAID, поддерживаемые для групп виртуаль ных дисков


12
Уровень RAID Защита Примечания Рекомендуемый уровень

RAID 1 Зеркалирование Отличная производительность произвольного Производительность


чтения/записи
RAID 10 Зеркалирование и чередование Те же преимущества производительности, что и при Производительность
данных применении схемы RAID 1, но максимальное число
накопителей на каждый пул составляет уже 16, как
в RAID 1, а 256.
RAID 5 Распределенная четность (D+P) Отличная производительность последовательных Производительность
операций Стандартный
RAID 6 Улучшенная защита данных Высокая доступность Стандартный
(D+P+Q) Рекомендуется использовать для накопителей Архив
емкостью свыше 2 Тбайт

На рис. 18 показаны взаимосвязи между физическими дисками, группами дисков, уровнями и пулом. Обратите внимание,
что группы дисков могут поддерживать разное количество накопителей и разные схемы защиты RAID, оптимально
подобранные для дисков того или иного типа с учетом емкости и показателей производительности.

Рис. 18. Схема многоуровневого пула

В виртуальной СХД страницы по очереди распределяются по всем группам дисков уровня. Этот процесс называется
широкомасштабным чередованием данных. Для уровней, состоящих из механических накопителей, широкомасштабное
чередование данных обеспечивает значительные преимущества в производительности, сокращая влияние задержки
и в несколько раз увеличивая скорость передачи данных.

12
С учетом емкости накопителя и вероятного времени перестроения.
Технический документ Стр. 19

Рис. 19. Широкомасштабное чередование страниц данных

Чтобы понять, как широкомасштабное чередование данных способствует повышению производительности, необходимо
знать, какие физические ограничения имеются в работе механических дисковых накопителей. Для доступа к данным на
механическом дисковом накопителе головка, закрепленная на приводном рычаге, может перемещаться между внутренней
и внешней границами диска. Одновременно происходит вращение магнитного диска и тем самым обеспечивается доступ
ко всей поверхности диска.

Однако чем больше времени требуется магнитному диску, чтобы повернуться нужным сектором, тем длительнее время
ожидания выполнения операций ввода-вывода. Время, необходимое для перемещения головки на нужную дорожку, а
также для поворота к ней диска нужным сектором, называется временем доступа. От времени доступа зависит задержка.
И чем длительней задержка, тем медленнее работает приложение. Произвольные операции ввода-вывода чувствительны
к длительной задержке, тогда как последовательные — не настолько. После получения доступа к нужному сектору данные
считываются или записываются потоком и, как правило, дальнейшие перемещения головки на них не влияют. Кроме того, если
не отключены алгоритмы предварительной загрузки данных в кеш контроллера, то производительность последовательного
чтения увеличивается, так как в кеш заранее поступает очередная порция данных со следующего диска.

На рис. 20 местоположение данных обозначено фиолетовой дугой. На рисунке показано, почему вращающиеся носители
хорошо подходят для выполнения последовательных операций ввода-вывода — для них не требуется резких
перемещений головки чтения/записи.

Рис. 20. Вид изнутри дискового накопителя, на котором выполняется операция последовательного чтения/записи

На рис. 20 представлены компоненты вращающегося дискового накопителя.

1. Магнитный диск
2. Направление вращения диска
3. Узел приводного рычага с головкой чтения/записи
4. Первый сектор для чтения или записи данных
5. Последний сектор для чтения или записи данных
Технический документ Стр. 20

Произвольный доступ к данным, напротив, требует значительного перемещения и головок чтения/записи, и дисков, что
ведет к увеличению времени доступа.

Рис. 21. Вид изнутри дискового накопителя, на котором выполняется серия операций произволь ного чтения/записи

На рис. 21 представлены следующие элементы.

1. Направление движения головок чтения/записи


2. Данные для доступа, расположенные произвольно

Оптимизация процесса последовательной записи


Чтобы производительность операций последовательной записи не снижалась в результате частичной записи страниц, при
настройке групп виртуальных дисков по схеме RAID с четностью настоятельно рекомендуется придерживаться правила
степени числа 2. Согласно этому правилу, количество дисковых накопителей в группе, где хранятся блоки данных, должно
быть, скорее, не четным, а соответствовать степени числа 2. А так как максимальное число поддерживаемых дисковых
накопителей в группе составляет 16 с учетом четности, накопителей данных должно быть 2, 4 или 8.

Таблица 9. Распределение блоков данных по правилу степени числа 2

Уровень RAID Кол-во накопителей Кол-во блоков данных Кол-во блоков четности
в группе дисков в блоке чередования в блоке чередования

RAID 5 3 2 1
RAID 5 5 4 1
RAID 5 9 8 1
RAID 6 4 2 2
RAID 6 6 4 2
RAID 6 10 8 2

При размещении данных по всем дисковым накопителям той или иной группы в массиве RAID применяется процесс под
названием чередование. Как показано на рис. 18, если используется схема RAID с четностью, например RAID 5, каждый
из блоков чередования содержит один блок четности и количество блоков данных, равное числу оставшихся дисковых
накопителей в группе. При соблюдении правила степени числа 2 для оптимальной производительности в массиве
автоматически выделяется место для блока данных объемом 512 Кбайт.

Примечание
Поскольку производительность твердотельных накопителей достаточно высока, при настройке уровня производительности
или пулов на основе флеш-накопителей придерживаться правила степени числа 2 необязательно.

Согласно примеру на рис. 22 в каждом блоке чередования для хранения 1 мегабайта данных используется по два блока
данных. Блок четности занимает сколько же места на диске, сколько блок данных, но не учитывается при расчете емкости.
В этом примере для записи страницы требуется четыре блока чередования. При этом количество необходимых блоков
чередования зависит от числа виртуальных дисков в группе. Например, для записи всей страницы на виртуальные диски
группы из девяти накопителей требуется один блок чередования.
Технический документ Стр. 21

Рис. 22. Пример распределения страницы данных по физическим дискам при соблюдении правила степени числа 2

Производительность групп дисков, для которых не соблюдается правило степени числа 2, при последовательной записи
данных снижается. Происходит это потому, что один и тот же блок четности используется двумя страницами. Как показано
в таблице 10, для каждой операции записи на диски той или иной группы требуются дополнительные операции ввода-
вывода для пересчета четности записи. Например, для записи только одного нового блока данных на один дисковый
накопитель при использовании схемы RAID 5 требуется четыре операции ввода-вывода.

1. Считывание исходного блока данных


2. Считывание исходного блока четности
3. Запись нового блока данных
4. Запись нового блока четности

Таблица 10. Снижение производительности записи RAID

Уровень RAID Операции ввода-вывода Число операций


для группы дисков при ввода-вывода
записи

RAID 1 1 2
RAID 5 1 4
RAID 6 1 6

Взаимное наложение страниц ведет к удвоению числа операций пересчета четности для общих блоков чередования.
Для RAID ASIC СХД HPE MSA пересчет четности не является проблемой, однако с учетом физических ограничений для
механических жестких дисков дополнительные операции ввода-вывода дают дополнительную нагрузку на дисковые
накопители.

При несоблюдении правила степени числа 2 предпринимается попытка снизить отрицательное влияние на производительность
массива, для чего размер блока данных уменьшается до 64 Кбайт. При этом не только увеличивается число блоков
чередования, необходимых для записи страницы, но и сокращается объем данных, которые необходимо считать и
записать при пересчете четности.
Технический документ Стр. 22

Рис. 23. Пример распределения страницы данных по физическим дискам при несоблюдении правила степени числа 2

Увеличение емкости
Емкость пула увеличивается во время работы за счет добавления в пул дополнительных групп дисков, а не за счет
расширения отдельных групп дисков. При этом важно учитывать, что при добавлении жестких дисков для стандартного
уровня и уровня архива необходимо также увеличить уровень производительности, чтобы сохранить оптимальное
соотношение твердотельных и механических компонентов СХД.

На рис. 24 и 25 представлено соотношение уровней до и после увеличения емкости пула.

Рис. 24. Пример схемы пула до увеличения емкости


Технический документ Стр. 23

Рис. 25. Пример схемы пула после увеличения емкости

Срок службы твердотельных накопителей


Еще одним из преимуществ виртуальной СХД, автоматического распределения по уровням и использования кеша чтения
твердотельных накопителей является возможность снижения износа таких накопителей. Со временем из-за физических ограничений,
связанных с особенностями текущих технологий памяти, ячейки твердотельного накопителя изнашиваются при записи данных. Для
предотвращения быстрого износа твердотельных накопителей используется целый ряд технологий. В некоторых массивах хранения
для дальнейшего снижения износа применяются нестандартные или сложные стратегии записи данных. Преодолеть эту проблему
позволяют использование в HPE MSA эффективного алгоритма оценки страниц и широкомасштабного чередования данных.
Благоприятным побочным эффектом снижения износа является возможность использовать в СХД HPE MSA недорогие
твердотельные накопители для интенсивных нагрузок чтения без ущерба для фактического срока службы массива. В компании
HPE провели оценку таких накопителей с учетом любых рабочих задач и конфигураций системы.
Таблица 11. Пример снижения износа твердотельного накопителя с учетом рабочих задач с завышенным количеством операций произвольной
записи

1 Тбайт данных в день в целом Уровень производительности Стандартный уровень


(90 % операций произвольной записи)

Общее число операций ввода-вывода 90 % 10 %


(чтение и запись) на уровне
Конфигурация уровня • Четыре твердотельных накопителя для • 18 жестких дисков Enterprise SAS
интенсивных нагрузок чтения по 1,92 Tбайт 10 000 об/мин по 1,8 Тбайт
• Две группы виртуальных дисков RAID 1 • 2 группы RAID 5 по 9 виртуальных дисков
Емкость уровня 3,84 Тбайт 28,8 Тбайт
Часть пула 13,3 % 86,7 %
Ежедневный объем записи на уровень 810 Гбайт
13
190 Гбайт
Ежедневный объем записи на накопители 405 Гбайт
14

Кол-во лет до износа накопителей 23.7
15

В таблице 11 показано, как автоматическое распределение по уровням и широкомасштабное чередование данных позволяют
разделять операции ввода-вывода системы предварительной обработки данных и сервера, сокращая число операций записи на
накопитель. В этом примере 90 % из 1 Тбайта данных, проходящий через пул за 24 часа, являются произвольными, притом 90 %
из них — записи, так что за это время на каждый из твердотельных накопителей должно записываться 405 Гбайт данных. И хотя
может показаться, что 405 Гбайт — это много, этот показатель составляет только 21 % от 1,92 Тбайт данных, которые можно
записывать ежедневно в течение пяти лет до окончательного износа накопителя. При такой скорости износа через пять лет
у каждого твердотельного накопителя останется 2,76 Пбайт невыработанного ресурса.

13
90 % из 90 %
14
21 % циклов записи на накопитель в день
15
20,7 года по истечении срока действия гарантии
Технический документ Стр. 24

Динамическое предоставление ресурсов


Динамическое предоставление ресурсов — это тщательно проработанная технология, призванная ограничить исходные денежные
инвестиции в физическую емкость СХД. Динамическое предоставление ресурсов достигается за счет отправки в операционную
систему запроса о нужном размере и необходимой геометрии томов без физического распределения страниц в пуле. В этом
случае страницы распределяются и физическая емкость используется только в момент записи данных в один из томов. Кроме
динамического предоставления ресурсов виртуальная СХД также обеспечивает работу двух механизмов возврата в пул выделенных,
но более не используемых ресурсов. Благодаря им емкость пула можно увеличивать и уменьшать по мере необходимости, что
способствует реализации консервативного подхода к предоставлению ресурсов хранения.

• Современные операционные системы могут дать команду SCSI UNMAP для освобождения LBA после удаления файлов из
файловой системы. Когда команда UNMAP применяется к группе последовательных секторов общим объемом 4 Мбайт,
страница высвобождается.
• В старых операционных системах, которые не поддерживают команду UNMAP, или в полностью форматированных файловых
системах в рамках задачи обслуживания по очистке дисков периодически происходит обнаружение нулей. При этом страницы,
содержащие только нули, возвращаются в пул для использования другим разделом того же тома или любым другим томом пула.
Чтобы физическая емкость не сокращалась, для динамического предоставления ресурсов необходимы мониторинг и правильное
планирование. По достижении определенных пользователем или заданных системой пороговых значений использования СХД
HPE MSA выдает оповещения для системных администраторов, для которых те настроены, а также для приложений мониторинга,
таких как Arxscan ArxView® и другие подобные решения на основе SNMP/SMI-S. Можно отключить избыточное выделение ресурсов
на уровне пула, что может помочь в управлении выделением емкости для основных томов. Однако его отключение также потребует
продуманного управления, поскольку необходимо будет выделять емкость и под снимки. Количество снимков продолжает расти
непредсказуемо, и потому отказ от избыточного выделения ресурсов может привести к неожиданному использованию емкости.

Динамическое перестроение
Для нераспределенных страниц пространство физических дисков не используется, поэтому восстановление после отказа в одной
из групп дисков происходит быстрее. Если откажет или по какой-то причине отключится один из дисков и при этом окажется
доступным запасной, перестройка этой группы дисков начнется в системе с распределенных страниц. Таким образом, время
возврата системы в отказоустойчивое состояние будет сведено к минимуму.

Лицензирование
Лицензионным комплектом для СХД HPE MSA пятого поколения является HPE Advanced Data Services (ADS). В него входят
следующие компоненты.

• Распределение по уровням производительности


• 512 моментальных снимков и копия тома
• Удаленная репликация снимков

Примечание
Пакет ADS является необязательным для массивов HPE MSA 1050 и 2050. Он входит в комплектацию систем HPE MSA 2052
вместе с двумя твердотельными накопителями по 800 Гбайт.

Важно
При настройке твердотельных накопителей в качестве носителей емкости вместе с жесткими дисками для одной и той же системы,
даже если они будут в разных пулах, а распределение по уровням производительности применяться не будет, потребуется лицензия.

В таблице 12 четко показано, когда требуется лицензия с учетом сочетания накопителей и модели массива HPE MSA.

Таблица 12. Необходимость лицензии

Массив Накопители одного типа Сочетание жестких дисков Одновременное существование уровня Кеш чтения
16 17
(жесткие диски или любого типа в одной системе производительности с любым другим твердотельного
твердотельные накопители) уровнем в одной системе накопителя

MSA 1050 Нет Нет Да Нет


MSA 2050 Нет Нет Да Нет
MSA 2052 Нет Нет Включено Нет

16
Жесткие диски со скоростью 15 000, 10 000 или 7200 об/мин
17
Термин система соответствует массиву HPE MSA и включает любой пул.
Технический документ Стр. 25

Защита данных
В массиве HPE MSA используются несколько технологий помимо RAID для обеспечения повышенной отказоустойчивости и
восстановления после сбое. Технология Remote Snap Replication (RSR) не описывается в данном информационном документе,
поскольку она применяется лишь в нескольких случаях и подходит не для всех ситуаций. Компания HPE рекомендует обратиться
к информационному документу, посвященному технологии Remote Snap Replication HPE, чтобы выяснить, насколько хорошо подойдет
технология RSR для конкретного сценария. Если она не подойдет, можно попробовать Zerto в рамках программы HPE Complete.

Моментальные снимки
Механизм создания моментальных снимков в HPE MSA улучшен при переходе с линейной СХД, в которой использовались
моментальные снимки CoW (копирование при записи), на более эффективный метод RoW (переадресация при записи).
Моментальные снимки CoW требуют потенциально расточительного резервирования полезной емкости для данных моментальных
снимков, однако в снимках RoW используются указатели для ссылки на общие страницы. В случае использования моментальных
снимков RoW также не наблюдается снижение производительности, связанное с копированием данных внутри системы для их
защиты.

При создании моментального снимка система незаметно создает копию тома, в которую затем будут выполняться все операции
записи. Однако вместо копирования данных используются таблицы поиска как базовым томом, так и моментальным снимком для
ссылки на общие страницы. Система отслеживает количество томов, ссылающихся на страницу, и соответственно находит новые
данные. Если моментальные копии отсутствуют для тома, то число ссылок равно 1 и данные будут записываться как обычно.
Однако с появлением одного или нескольких моментальных снимков этого тома число ссылок увеличится до двух или более,
что приведет к размещению новых страниц из пула и тем самым к сохранению исходных данных.

Рис. 26. Механизм создания моментальных снимков RoW

Заключение
Четвертое поколение массивов HPE MSA отличается улучшенными возможностями и18 эффективностью. Эти конструктивные
улучшения относятся исключительно к программному обеспечению контроллера, они позволяют значительно повысить
производительность19 и использовать новую современную архитектуру виртуальной СХД20, не тратя средства на приобретение
нового оборудования. Одновременная поддержка старой и более современной архитектуры на одной платформе дает компаниям
возможность внедрять массив MSA и адаптировать его к будущим потребностям с минимальным прерыванием работы.

Виртуальная СХД обеспечивает основу для многих важных функций и для решения проблем, с которыми сталкиваются заказчики
из компаний малого и среднего бизнеса. Массивы MSA пятого поколения с виртуальной СХД обеспечивают более простое
управление и содержат современные технологии для уменьшения как первоначальных, так и текущих расходов.

18
Массивы HPE MSA четвертого поколения включают HPE MSA 1040, 2040 и 2042 SAN с контроллерами SAN или SAS.
19
Микропрограммное обеспечение массива GL210
20
Микропрограммное обеспечение массива GL200
Технический документ

Ресурсы
Краткие характеристики СХД HPE MSA 1050
hpe.com/support/MSA1050QuickSpecs

Краткие характеристики СХД HPE MSA 2050


hpe.com/support/MSA2050QuickSpecs

Краткие характеристики СХД HPE MSA 2052


hpe.com/support/MSA2052QuickSpecs

Справочное руководство по HPE MSA 1050/2050 SMU


https://support.hpe.com/hpsc/doc/public/display?docId=a00017707en_us

Рекомендации по HPE MSA 1050/2050/2052


https://h20195.www2.hpe.com/v2/getdocument.aspx?docname=a00015961enw

Подпишитесь и будьте в курсе последних новостей HPE


h41360.www4.hpe.com/alerts-signup.php

Дополнительная информация приведена на сайте HPE MSA Storage


hpe.com/ru/ru/storage/msa-shared-storage

Поделиться

Подписаться

© Hewlett Packard Enterprise Development LP., 2020. Информация в настоящем документе может быть
изменена без предварительного уведомления. Гарантийные обязательства для продуктов и услуг
Hewlett Packard Enterprise приведены только в условиях явной гарантии, прилагаемой к каждому
продукту и услуге. Никакие сведения в этом документе не могут рассматриваться как дополнительные
гарантийные обязательства. Hewlett Packard Enterprise не несет ответственности за технические,
редакторские и другие ошибки в данном документе.

Microsoft является товарным знаком или зарегистрированным товарным знаком корпорации Microsoft
в США и/или других странах. ArxView является зарегистрированным товарным знаком Arxscan, Inc.
Все остальные сторонние товарные знаки являются собственностью соответствующих владельцев.

a00087404RUE, февраль 2020 г., ред. 1