Вы находитесь на странице: 1из 13

1

Виртуализация серверов.
Лабораторная работа №9.
Настройка миграции виртуальных машин на базе Hyper-V.

Цель работы: изучить особенности настройки миграции виртуальных машин в гипервизоре


Hyer-V.

Методические указания.
Миграция виртуальных машин (ВМ) – это перемещение ВМ с одного физического сервера
на другой без остановки работы ВМ и незаметно для пользователя. Миграция ВМ используется в
следующих случаях.
1. При проведении профилактических работ на сервере в том числе, когда сервер требуется
выключить.
2. При балансировке нагрузки, когда некоторые ВМ надо переместить с высоконагруженного
сервера на другие менее нагруженные сервера.
3. При консолидации нагрузки. При низкой нагрузке на ВМ некоторые сервера освобождают-
ся от ВМ и выключаются. Это делается для экономии энергии.

Настройка автоматической миграции требует подключения серверов к домену. Создание и


настройка домен-контроллера выходит за рамки данного курса, поэтому в настоящей работе рас-
сматривается настройка ручной миграции ВМ. В этом случае миграция выполняется по команде
администратора.
По результатам выполнения лабораторной работы должен быть сделан отчёт со скриншо-
тами, которые иллюстрируют основные этапы выполнения. Отчёт требуется загрузить на сайт
курса.

Требования к используемому оборудованию и программному обеспечению


Лабораторная работа может быть выполнена на одном физическом устройстве, обладаю-
щими следующими минимальными техническими характеристиками:

 Процессор x64, поддерживающий технологию SLAT (Second Layer Address Translation)


 Не менее 8 Гб оперативной памяти.
 Не менее 41,3 гигабайт свободного места на диске.
 Установленная операционная система Windows 10 Pro или Enterprise версии, либо Windows
Server 2016 Datacenter Edition (возможно использование Windows Server 2016 Standard Edi-
tion, но с изменениями в ходе выполнения лабораторной работы).
 Наличие хотя бы одного сетевого интерфейса.
В качестве используемой операционной системы рекомендуется использовать Windows 10
Pro или Enterprise edition, т.к. в ходе лабораторной работы необходимо пользоваться гипервизором
Hyper-V, который недоступен в Home версии системы. Если данное условие не выполняется, то
можно исполь
Также возможно использовать Windows Server 2016. В ходе лабораторной работы понадо-
бится работа с 3-мя виртуальными машинами, вследствие чего необходима Datacenter Edition (т.к.
версия Standard поддерживает только 2 ВМ на хост). Тем не менее, возможно использовать
2

Standard Edition для выполнения работы, однако тогда все функции ВМ «iscsi» необходимо реали-
зовывать на серверной части.
Если перечисленные выше требования к ОС не выполняются, то можно использовать для
создания ВМ гипервизор VMware Workstation. В этом случае алгоритм настройки гипервизора бу-
дет несколько отличаться от нижеизложенного.

Указания по выполнению лабораторной работы.

1. Развёртывание виртуальной инфраструктуры следует начать с установки роли Hyper-V в ОС


Windows.
2. Для выполнения работы необходимо создать два внутренних виртуальных коммутатора. Дан-
ные коммутаторы будет обслуживать виртуальные машины и передавать трафик iSCSI между
ними. Для создания коммутатора необходимо выполнить следующее.
2.1. Запустить «Диспетчер Hyper-V» путем выполнения следующих операций. Пуск – Па-
нель управления. Выбрать режим просмотра «Мелкие значки». В появившемся списке
выбрать «Администрирование». В открывшемся окне выбрать «Диспетчер Hyper-V».
Запустится консоль диспетчера Hyper-V.
2.2. На правой панели консоли управления выбрать «Диспетчер виртуальных коммутато-
ров» («Virtual Swich Manager...»). В открывшемся окне выбрать строку «Создать вирту-
альный сетевой коммутатор» («New virtual switch»), выбрать тип «Частная» («Private»)
и нажать кнопку «Создать виртуальный коммутатор» («Create Virtual Switch»).
2.3. В открывшемся окне указать имя коммутатора «iSCSI» и нажать кнопку «ОК»
2.4. Аналогичным образом создайте еще один виртуальный коммутатор с именем «Cluster
network».

3. Создадим три виртуальные машины с названиями «serv1», «serv2», «iscsi». Виртуальная ма-
шина «iscsi» будет являться сервером хранения данных, а другие две виртуальные машины –
хостами виртуализации. ВМ надо создать со следующими настройками.
3.1. Поколение ВМ – Поколение 1.
3.2. Так как на виртуальных машинах serv1 и serv2 будет использоваться вложенная виртуали-
зация, то для этих машин нельзя использовать динамическую память. Поэтому динамиче-
ская память используется только на сервере iscsi, а на серверах serv1 и serv2 – статическая.
Память настраивается таким образом:
3.2.1. ВМ “iscsi” ОЗУ: 1024 мб, использовать динамическую память.
3.2.2. ВМ “serv1”: ОЗУ: 2048 мегабайт, динамическую память использовать нельзя.
3.2.3. ВМ “serv1”: ОЗУ: 2048 мегабайт, динамическую память использовать нельзя.
3.3. При настройке сети надо выбрать сетевой коммутатор iSCSI для всех ВМ.
3.4. Размер диска для каждой ВМ указать не менее 50 ГБ. Диск является динамическим и будет
расти по мере потребления места.
3.5. В пункте «Параметры установки» выберите «Установить операционную систему позд-
нее».
3.6. Для ускорения работы ВМ целесообразно отключить создание контрольных точек. Для
этого войдите в настройки ВМ и в левой части открывшегося окна выберите в разделе
Управление пункт меню Контрольные точки. В правой части окна надо убрать галочку
напротив пункта Включить контрольные точки.
3

3.7. На ВМ serv1 и serv2 установите второй сетевой адаптер и подключите его к виртуальному
коммутатору с именем «Cluster network».

4. После создания виртуальных машин необходимо разрешить использовать вложенную виртуа-


лизацию на виртуальных машинах serv1 и serv2. Для этого откройте на физическом компьюте-
ре командную строку Powershell от имени администратора и выполните следующие команды:

Set-VMProcessor -VMName serv1 -ExposeVirtualizationExtensions $true

Set-VMProcessor -VMName serv2 -ExposeVirtualizationExtensions $true

Обратите внимание, что serv1 и serv2 – имена серверов.

5. На все созданные машины необходимо установить ОС Windows Server 2016 Standard или
Datacenter Edition.
6. Настроим ВМ iscsi. Данная виртуальная машина предназначена для выполнения роли файл-
сервера, на котором будут лежать файлы виртуальных машин. Для этого на данной машине
необходимо развернуть таргет-сервер протокола iSCSI и разрешить остальным ВМ к нему под-
ключаться, а также создать хранилище для ВМ.
6.1. Настроим сетевой интерфейс сервера iscsi.
6.1.1. На ВМ iscsi для единственного сетевого адаптера надо задать статический IP адрес
10.0.0.3 маску подсети 255.255.255.0. Сетевой шлюз по умолчанию и DNS сервер указывать не
нужно. Должно получиться как на рис. 1.

Рис. 1. Сетевые настройки сервера iscsi.

7. Для проверки связи с сервером системными администраторами часто используется команда


ping, тем не менее, по умолчанию в ОС Windows Server 2016 ответ на команду ping отключен
по причинам безопасности. Для более легкой проверки сетевой связности виртуальных машин
4

надо включить отклик на команду. Для этого надо в консоли Powershell задать следующую ко-
манду:
New-NetFirewallRule –DisplayName “Allow Ping” –Direction Inbound –Action Allow –Protocol
icmpv4 –Enabled True
8. Установим на сервер iscsi следующие роли:
1) Службы хранения (Storage Services) – службы, необходимые для работы файлового храни-
лища.
2) Файловый сервер (File Server) – предоставление доступа к файлам на сервере по сети.
3) Сервер цели для iSCSI (iSCSI Target Server) – службы для доступа к данным файлового сер-
вера по протоколу iSCSI.

Для этого надо открыть оснастку «Диспетчер серверов» (Server Manager). В оснастке вы-
брите «Локальный сервер» (Manage). Найдите окно «Роли и компоненты» (Roles and features).
Используя кнопку «Задачи» добавьте требуемые роли (рис.2).

Рис. 2. Добавление ролей.

9. Создадим iSCSI диск и предоставим к нему доступ.


9.1. В оснастке «Диспетчер серверов» (Server Manager) на левой панели выберите «Файло-
вые службы и службы хранилища» (File and Storage Services) – iSCSI. В появившемся
окне «Виртуальные диски iSCSI» (Virtual Disks iSCSI) нажмите кнопку «Задачи» и вы-
берите «Создать виртуальный диск iSCSI» (New iSCSI Virtual Disk Wizard). Запустится
«Мастер создания дисков».
9.2. Используя «Мастер создания дисков», создайте виртуальный диск под именем «Vdisk1» и
размером 30 Гб.
9.3. Далее надо указать имя и описание iSCSI цели (iSCSI target). По сути, это имя дискового
хранилища iSCSI. Под этим именем хранилище будут видеть другие сервера. Задайте имя
«Storage1».
9.4. В качестве метода идентификации инициатора выберите IP адрес. По сути, в этом пункте
назначается, какие признаки сервера будут использованы для определения возможности
доступа к дисковому хранилищу. Мы выбираем в качестве признака IP адрес. То есть, до-
ступ к хранилищу получают сервера, имеющие определённый IP адрес. Необходимо раз-
решить доступ с адресов 10.0.0.1 и 10.0.0.2 (рис. 3).
9.5. На следующем шаге предлагают включить протокол проверки подлинности серверов и
хранилища. В нашем случае проверка подлинности не нужна, поэтому галочки не ставим.
9.6. На последнем этапе надо проверить настройки и закончить работу «Мастера». На этом
этапе настройка виртуальной машины “iscsi” закончена. Так как данная виртуальная ма-
шина осуществляет хранение дисков других виртуальных машин и необходима для работы
кластера, она всегда должна быть запущена при работе серверов serv1 и serv2.
5

Рис. 3. Определение IP адресов для серверов, которые получают доступ к дисковому хранилищу.

10. Теперь осуществим настройку сервера serv2. Данная виртуальная машина является одним из
хостов виртуализации в кластере Hyper-V и исполняет роль вычислительного сервера. В
первую очередь необходимо обеспечить сетевую связность виртуальных машин, то есть
настроить сетевые адаптеры. На serv2, как и на serv1, должны быть установлены два виртуаль-
ных сетевых адаптера. Один сетевой адаптер должен быть подключён к сети iSCSI, а другой к
сети Cluster network.
10.1. Задайте сетевому адаптеру, подключённому к сети iSCSI статический IP адрес
10.0.0.2 и маску сети 255.255.255.0. Проверьте наличие связи с сервером iscsi (адрес
10.0.0.3) командой ping. Обратите внимание, что на сервере iscsi должен быть разрешён
ответ на запрос ping, то есть, включена настройка Allow Ping. Отсутствие ответа на ping
также возможно, если IP адрес присвоен не тому сетевому адаптеру, то есть адаптеру, под-
ключённому не к сети iSCSI, а к сети Cluster network. В этом случае удалите настройки
сетевого адреса с этого адаптера и назначьте адрес 10.0.0.2 другому сетевому адаптеру и
снова проверьте связь с 10.0.0.3.
10.2. Для сервера serv2 также надо внести в конфигурацию Firewall разрешение отклика
на запрос ping. Для этого надо в консоли Powershell задать следующую команду:
New-NetFirewallRule –DisplayName “Allow Ping” –Direction Inbound –Action Allow
–Protocol icmpv4 –Enabled True
10.3. Настроим имя сервера и DNS суффикс имени. Эти настройки нужны, чтобы сервер
корректно определялся DNS сервером и корректно в нём зарегистрировался. После уста-
новки ОС сервер имеет какое-то случайное имя и принадлежит к рабочей группе
WORKGROUP. Задайте имя «server2», имя рабочей группы «TESTGROUP» и DNS суф-
фикс «test.local» (рис. 4). Для задания DNS суффикса надо в окне «Изменение имени
компьютера или домена» (Computer Name/Domain Change) нажать кнопку «Дополни-
тельно» (More). Для завершения настроек надо перегрузить сервер.
10.4. Установим требуемые роли на сервер serv2. Этот сервер должен работать в одном
кластере с сервером serv1, поэтому оба эти сервера должны удовлетворять трём следую-
щим условиям.
6

1) Оба сервера должны являться хостами Hyper-V, то есть серверами, содержащими вир-
туальные машины.
2) Оба сервера должны быть объединены в специальную структуру под названием Failover
Cluster – это режим совместной работы нескольких серверов, обеспечивающий отказо-
устойчивость какой-либо службы на них.
3) Виртуальные машины, доступные для миграции, должны располагаться на сетевом дис-
ковом хранилище, к которому имеют одновременный доступ на запись и чтение оба хо-
ста. Примером такого диска может являться хранилище iSCSI, которое было настроено
нами на прошлом шаге.

Рис.4. Настройка имени сервера и DNS суффикса.

В соответствии с требованиями, используя «Диспетчер серверов» (Server Manager), уста-


новите на сервер роль Hyper-V и компонент «Отказоустойчивая кластеризация»
(Failover Clustering). Во время установки роли Hyper-V вам потребуется указать, какой из
сетевых интерфейсов использовать для виртуализации – выберите интерфейс, сетевой ад-
рес которого вы не назначали (НЕ тот, которому присвоен адрес 10.0.0.2). Остальные
настройки оставьте по умолчанию. После установки роли надо перегрузить сервер.
10.5. Настроим сетевой интерфейс для Cluster network.
10.5.1. Сетевому адаптеру «Microsoft Hyper-V Network Adapter…» присвойте статический
адрес 172.16.0.2 и маску сети 255.255.255.0.
10.5.2. В список DNS адресов добавьте адрес 172.16.0.1. Это будущий адрес сервера serv1,
на котором будет располагаться DNS служба для определения IP адреса сервера по его
имени. Для добавления DNS адреса надо в окне «Свойства: IP версии 4 (TCP/IP v4)»
7

нажать кнопку «Дополнительно» (Advanced) и в открывшемся окне выбрать закладку


DNS. Окно с настройками представлено на рис. 5.

Рис.5. Настройка сетевого интерфейса для отказоустойчивого кластера.

11. Настроим ВМ serv1. Данная виртуальная машина также будет хостом виртуализации в класте-
ре Hyper-V, что подразумевает схожие настройки с ВМ serv2. Однако данная ВМ также будет
исполнять роль DNS сервера, что потребует дополнительной настройки сервера.
11.1. Настройте на serv1 сеть iSCSI: IP адрес 10.0.0.1, маска сети 255.255.255.0.
11.2. Внести в конфигурацию Firewall разрешение отклика на запрос ping.
11.3. Проверьте наличие пинга на адреса 10.0.0.2 и 10.0.0.3.
11.4. Задайте имя сервера server1, рабочей группы TESTGROUP и основной DNS суф-
фикс test.local.
11.5. Установите на сервер роль Hyper-V и компонент «Отказоустойчивая кластериза-
ция» (Failover Clustering). Во время установки роли Hyper-V вам потребуется указать, ка-
кой из сетевых интерфейсов использовать для виртуализации – выберите интерфейс, сете-
вой адрес которого вы не назначали (НЕ тот, которому присвоен адрес 10.0.0.1). Осталь-
ные настройки оставьте по умолчанию. После установки роли надо перегрузить сервер.
11.6. Сетевому адаптеру «Microsoft Hyper-V Network Adapter…» присвойте статический
адрес 172.16.0.1 и маску сети 255.255.255.0. Адрес DNS сервера 172.16.0.1. Укажите также
DNS суффикс test.local.
12. Настроим DNS на сервере serv1. DNS нужна для определения IP адреса по имени хоста. Данная
служба необходима, в частности, при развертывании Failover Cluster Hyper-V.
12.1. На сервер serv1 установите роль DNS и перегрузите сервер.
12.2. Откройте оснастку DNS: Пуск – Средства администрирования Windows – DNS.
8

12.3. Откроется окно «Диспетчер DNS». В данном окне нас интересует «Зона прямого
просмотра» (Forward Lookup Zone) – зона прямого поиска. Данная зона ответственна за
непосредственное преобразование имени в IP адрес устройства. В этой же зоне будет хра-
ниться информация о IP адресе кластера. Создадим Forward Lookup зону, соответствую-
щую нашему локальному домену test.local. Для этого выполним следующие действия.
12.3.1. Нажмите правой кнопкой на «Зоны прямого просмотра» (Forward Lookup Zone) и
выберите «Создать новую зону»(New Zone...). Откроется мастер создания новой зо-
ны.
12.3.2. В окне выбора типа зоны укажите «Основная зона» (Primary Zone). Если зона,
хранящаяся на DNS-сервере, является основной, то DNS-сервер становится основным
источником сведений об этой зоне. Он хранит главную копию данных зоны в локаль-
ном файле или в доменных службах Active Directory. Данные хранящиеся в основной
зоне можно изменять с данного сервера. Если зона хранится в файле, файл основной
зоны называется имя_зоны.dns и размещается в папке сервера
%windir%\System32\Dns.
Данные хранящиеся в дополнительной зоне – это копии данных с других серверов.
12.3.3. В качестве «Имени зоны» (zone name) укажите test.local.
12.3.4. Оставьте по умолчанию настройки создания файла для зоны и нажмите далее.
12.3.5. В окне выбора динамических обновлений зоны (Dynamic Update) выберите режим
«Разрешить любые динамические обновления» (Allow both nonsecure and secure
dynamic updates) – это позволит любому компьютеру регистрироваться в данной DNS
службе.
12.3.6. Проверьте настройки и нажмите кнопку Finish. Итогом данных действий станет со-
здание DNS Forward Lookup зоны с именем test.local, в которую уже будет добавлен
данный DNS сервер, т.е. server1 (рис. 6).

Рис.6. Результаты настройки DNS.

12.4. Добавим в зону информацию о сервере server2.


12.4.1. Нажмите правой кнопкой мыши на пустое место в правой части окна под списком
DNS имен в зоне test.local
12.4.2. В контекстном меню выберите «Создать узел (A or AAAA)…» (New Host (A or
AAAA)…).
12.4.3. В окне добавления нового хоста укажите имя server2 и IP адрес 172.16.0.2.
Убедитесь, что (Fully Qualified Domain Name) выглядит как server2.test.local и
нажмите кнопку «Добавить узел» (Add Host).
9

12.5. Проверим работоспособность DNS, то есть определим, будут ли найдены сервера


serv1 и serv2, если обратиться к ним по имени. Для этого используем команду ping. На сер-
вере serv1 надо набрать следующие команды:
ping server2.test.local
ping server2
. На сервере serv2 надо набрать аналогичные команды:
ping server1.test.local
ping server1

Во всех случаях должен быть получен ответ на запросы.

13. Перед созданием отказоустойчивого кластера надо убедиться, что все подготовительные рабо-
ты выполнены правильно. Необходимо проверить следующее.
13.1. Корректно настроены адреса всех сетевых интерфейсов всех трёх виртуальных ма-
шин.
13.1.1. На ВМ iscsi должен быть один сетевой адаптер с статическим адресом
10.0.0.3 и должна корректно работать программа ping до адресов 10.0.0.1 и 10.0.0.2.
13.1.2. На ВМ serv1 и serv2 должны быть по два сетевых адаптера:
13.1.2.1. Адаптеры со статическими адресами 10.0.0.1 и 10.0.0.2 соответственно, поз-
воляющие пинговать друг друга и адрес 10.0.0.3.
13.1.2.2. Адаптеры со статическими адресами 172.16.0.1 и 172.16.0.2 соответственно,
имеющие коннект друг до друга.
13.1.3. На каждом из серверов server1 и server2 корректно отрабатывают все 4 ко-
манды: “ping server1”, “ping server1.test.local”, “ping server2”, “ping server2.test.local” и
выдают верные IP адреса данных хостов. При тестировании локального имени server1
на ВМ serv1 может выдавать другой адрес – из сети IPv6. В таком случае необходимо
проверить связность командами

ping server1 -S 172.16.0.1

ping server1.test.local -S 172.16.0.1

13.2. На серверах server1 и server2 должны быть одинаковые пароли администраторов.


13.3. Должен быть корректно настроен iSCSI сервер цели (target сервер).
13.4. Должны быть установлены роли Hyper-V и Failover Clustering на сервера server1 и
server2.
13.5. При несоблюдении вышеуказанных условий необходимо вернуться к соответствую-
щей части лабораторной работы и убедиться в правильности настроек вашей виртуальной
инфраструктуры.
14. Настроим отказоустойчивый кластер (Failover Cluster). Режим отказоустойчивого кластера для
нескольких хостов может настраиваться как из командной строки, так и из оснастки Failover
Clustering. Однако режим работа кластера через DNS и без использования домена является
расширенным режимом настройки, введенным только с Windows Server 2016 и пока доступен
для реализации только с помощью командной строки Powershell. Таким образом, для создания
отказоустойчивого кластера надо от имени администратора выполнить нижеперечисленные
команды.
10

14.1. На сервере server1 необходимо ослабить режим доверия. В результате можно будет
при совпадении локальных пользователей и паролей вносить изменения на не доверенные
компьютеры. Сервера server1 и server2 не являются доверенными, так как не входят в до-
мен. Режим доверия ослабляется следующей командой

new-itemproperty -path HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System


-Name LocalAccountTokenFilterPolicy -Value 1

Данная команда вносит изменение в реестр. Указывается путь, имя параметра и значение.

14.2. Эту же команду надо выполнить на сервере server2.


14.3. Для создания отказоустойчивого кластера надо на сервере server1 выполнить следу-
ющую команду.

New-Cluster –Name TestCluster -Node server1,server2 -AdministrativeAccessPoint DNS -Force

-IgnoreNetwork “10.0.0.0/24” -StaticAddress “172.16.0.10”

В результате выполнения команды могут появиться предупреждающие сообщения, связанные с


тем, что сервера server1 и server2 не полностью настроены для работы в кластере.

15. После выполнения вышеуказанных инструкций вы создадите отказоустойчивый кластер вир-


туальных машин. Однако, созданный кластер ещё не готов к развертыванию на нем ВМ. Для
того чтобы закончить настройку кластера, необходимо добавить к нему хранилище данных,
доступное всем хостам (нодам). Для хранения информации, которая должна быть доступна
всем нодам кластера, используется специальный тип хранилища данных – Cluster Shared
Volume. Данное хранилище представляет собой систему хранения данных, которая должна
быть подключена и доступна каждому серверу в составе кластера. Обычно это система хране-
ния данных, подключенная по протоколам iSCSI, Fiber Channel или SMB v3. В данной лабора-
торной работе будем использовать хранилище iSCSI, которое было настроено в начале.
15.1. Перед настройкой необходимо убедиться, что ВМ iscsi включена и корректно рабо-
тает, а также имеет сетевой доступ к адресам 10.0.0.2 и 10.0.0.1. Сетевой доступ проверя-
ется командой ping.
15.2. На сервере server2 зайдите в панель управления. Выберите режим просмотра: «Мел-
кие значки». Среди появившихся разделов панели управления выберите и запустите
«Инициатор iSCSI» (iSCSI Initiator). Инициатор iSCSI позволяет подключиться к систе-
ме хранения данных с использованием протокола iSCSI и настроить параметры подключе-
ния.
15.3. Если программа при запуске спросит вас о том, запустить ли ей службу – ответьте
положительно.
15.4. Переключитесь на вкладку «Обнаружение» (Discovery) и нажмите кнопку «Обна-
ружить портал» (Discover portal...). В открывшемся окне введите IP адрес 10.0.0.3,
оставьте порт по умолчанию и нажмите ОК.
15.5. Переключитесь во вкладку «Конечные объекты» (Targets). В окне выбора конечно-
го объекта (target) должна появиться строка с идентификатором ВМ iscsi (рис. 7).
15.6. Выберите единственный доступный конечный объект и нажмите кнопку «Подклю-
чить» (Connect), после чего подтвердите подключение, оставив настройки по умолчанию.
11

Статус конечного объекта должен поменяться на «Подключено» (Connected). Закройте


окно инициатора iSCSI.

Рис. 7. Обнаруженный конечный объект storage1.

15.7. Проверим наличия диска системы хранения данных. Для этого надо открыть консоль
управления дисками diskmgmt.msc. Запустить эту консоль можно двумя способами:
1) Используя команду «Выполнить».
2) Используя следующую последовательность действий: Пуск – Средства администри-
рования Windows – Управление компьютером – Управление дисками.
15.8. Используя консоль управления дисками надо проверить наличие диска размером
около 30ГБ. Этот диск должен иметь статус «Вне сети» (Offline). Таким образом, диск,
размещенный на ВМ iscsi, стал доступен по сети для использования сервером server2.
15.9. Аналогичные действия выполните на сервере server1. Проведите инициализацию
диска, используя оснастку «Инициатор iSCSI» (iSCSI Initiator).
15.10. Подключенный диск на server1 переведите в состояние «В сети» (Online), используя
консоль управления дисками. Далее необходимо инициализировать диск.
15.11. Отформатируйте весь раздел диска для файловой системы NTFS. Создаваемому то-
му не надо назначать букву диска или пути диска (Do not assign a drive letter or drive path).
16. В результате выполнения предыдущего пункта было создано дисковое хранилище, доступное
обоим серверам server1 и server2 и, таким образом, выполняющее условие для создания общего
тома кластера (Cluster Shared Volume). Теперь введём дисковое хранилище в кластер.
16.1. На сервере server1 откройте «Диспетчер отказоустойчивости кластеров» (Failover
Cluster Manager). Для этого используйте следующую последовательность действий: Пуск
– Средства администрирования Windows –Диспетчер отказоустойчивости класте-
ров.
16.2. Сначала надо подключить диспетчер отказоустойчивости кластеров к существую-
щему кластеру. Для этого в правой части окна надо выбрать пункты меню «Подключить-
ся к кластеру – Кластер на этом сервере…» (Connect to cluster – Cluster on this server).
Откроется консоль управления кластером.
16.3. В левом меню выберите «Хранилище – Диски» (Storage – Disks). В правом меню
выберите «Добавить диск» (Add disk). Добавьте диск в кластер. Результат представлен на
рис.8.
12

Рис. 8. Дисковое хранилище, добавленное в кластер.

16.4. Проверьте, что диск находится в состоянии «Оперативный» (Online). Щелкните


правой кнопкой на диске и выберите команду «Добавить в общие тома кластера» (Add
to Cluster Shared Volumes).
16.5. После выполнения описанной процедуры общедоступный диск станет кластерным
хранилищем, доступным одновременно на запись для нескольких серверов и, таким обра-
зом, позволяющим размещать на себе виртуальные машины нескольких серверов. Такие
хранилища – это стандартный способ организации единой системы хранения данных всех
виртуальных машин кластера Hyper-V. Проверить наличие диска можно, зайдя на любом
из серверов на диск C: в папку ClusterStorage. В этой папке должна находиться ссылка на
общий диск (рис. 9).

Рис. 9. Общий том кластера.

17. В результате выполнения предыдущих пунктов был создан отказоустойчивый кластер с общим
хранилищем данных. Теперь развернём на нем виртуальную машину способную мигрировать с
одного сервера на другой.
17.1. На любом сервере, например, на server1 при помощи диспетчера Hyper-V (Hyper-V
Manager) создайте новую виртуальную машину. Все диски ВМ надо разместить на общем
томе кластера C:\ClusterStorage\Volume1. Так как количество оперативной памяти на
server1 невелико, то для создаваемой ВМ достаточно выделить 256 МБ. Этого количества
памяти должно хватить для проверки и тестирования. Устанавливать операционную си-
стему не надо.
17.2. После создания виртуальной машины откройте «Диспетчер отказоустойчивости
кластеров» (Failover Cluster Manager) и подключитесь к кластеру на данном сервере.
17.2.1. В левой части окна выберите созданный кластер TestClaster.test.local. В средней ча-
сти окна выберите пункт «Настроить роль» (Configure Role).
17.2.2. Откроется мастер настройки роли. Выберите роль «Виртуальная машина» (Virtual
Machine). В следующем окне выберите созданную виртуальную машину. Нажимайте
«Далее» до закрытия окна.
17.3. Запустите виртуальную машину, если она еще не запущена. Для этого надо в левой
части окна диспетчера отказоустойчивости кластеров надо выбрать пункт «Роли» (Roles),
в средней части окна надо выбрать ВМ, а в правой части окна нажать кнопки «Запустить»
и «Подключить». Так как операционная система не установлена, то ВМ будет пытаться
установить ОС с загрузочного диска.
13

17.4. Таким образом, запущенная виртуальная машина находиться в режиме высокой до-
ступности (High Available). Данный режим предполагает, что в случае выхода из строя
сервера, на котором располагается данная ВМ, виртуальная машина будет перезапущена
на другом доступном сервере, входящем в кластер и обладающим доступом к Cluster
Shared Volume. Также возможна ручная миграция виртуальной машины с одного хоста
виртуализации на другой для оптимизации использования ресурсов или по иным причи-
нам.
18. Полноценное управление виртуальными машинами, которые находятся в режиме высокой до-
ступности, возможно только из консоли диспетчер отказоустойчивости кластеров, и сильно
ограничено в консоли диспетчера Hyper-V. Осуществим миграции ВМ с одного хоста на дру-
гой.
18.1. Откройте Failover «Диспетчер отказоустойчивости кластеров» (Failover Cluster
Manager) и подключитесь к кластеру.
18.2. В левой части окна выберите пункт «Роли» (Roles).
18.3. Откройте контекстное меню ВМ, щелкнув по ней правой кнопкой мыши. Далее вы-
берите следующее «Переместить – Быстрая миграция – Выбрать узел» (Move – Quick
Migration – Select Node) или «Лучший из возможных узлов» (Best Possible Node). Ре-
жим Best Possible Node автоматически переместит ВМ на наименее загруженный хост, а
кнопка Select Node позволит вам самим выбрать хост для перемещения.
18.4. После выполнения команды убедитесь, что ВМ появилась на другом сервере.
18.5. Режим «Быстрая миграция» (Quick Migration) предполагает временную остановку
ВМ и перемещение её памяти на другой хост. На этом хосте продолжается выполнение
ВМ. Пункт меню «Динамическая миграция» (Live Migration) (рис. 10) позволяет пере-
мещать ВМ без остановки её работы, но данная возможность доступна лишь в доменной
среде и невозможна в рабочей группе.

Рис. 10. Виды миграций виртуальных машин.

19. Рекомендуется изучить интерфейс и возможности по управлению виртуальными машинами из


консоли Failover Cluster Manager, а также ознакомиться с остальными вкладками данной
оснастки.
20. Результат выполнения лабораторной работы покажите преподавателю.

Вам также может понравиться