Академический Документы
Профессиональный Документы
Культура Документы
Indisponibilité CVM
Un nœud Nutanix est un hôte physique avec un contrôleur VM (CVM). L'un ou l'autre des
composants peut échouer sans affecter le reste du cluster.
Le cluster Nutanix surveille l'état des CVM dans le cluster. Si un processus Stargate ne
répond pas deux fois ou plus dans une période de 30 secondes, un autre CVM redirige les E /
S de l'hyperviseur sur l'hôte associé vers un autre CVM. Les opérations de lecture et d'écriture
se produisent sur le réseau 10 GbE jusqu'à ce que le Stargate défaillant revienne en ligne.
Pour éviter une commutation constante entre les Stargates, le chemin des données n'est pas
restauré tant que le Stargate d'origine n'a pas été stable pendant 30 secondes
Indisponibilité du disque
Les lecteurs d'un nœud Nutanix stockent quatre types principaux de données:
Données persistantes (niveau chaud et niveau froid)
Métadonnées de stockage
Oplog
Fichiers de démarrage CVM
Les données persistantes de niveau froid sont stockées sur les lecteurs de disque dur
(HDD) du nœud. Les métadonnées de stockage, le journal d'opération, les données
persistantes de niveau chaud et les fichiers de démarrage CVM sont conservés dans le
lecteur à état solide de connexion AT série (SATA-SSD) dans la baie de lecteur
un. Les disques SSD dans un système à double SSD sont utilisés pour les métadonnées
de stockage, le journal d'opération, les données persistantes de niveau chaud en
fonction du facteur de réplication du système. Les fichiers de démarrage CVM et du
système d'exploitation sont stockés sur les deux premiers périphériques SSD dans une
configuration RAID-1 (mise en miroir). Dans les nœuds 100% Flash, les données de
tous types sont stockées dans les SSD SATA.
Sur les plates-formes matérielles qui contiennent des disques SSD (PCIe-SSD) express
d'interconnexion de composants périphériques, le SATA-SSD contient uniquement les fichiers de
démarrage CVM. Les métadonnées de stockage, le journal d'opérations et les données persistantes
de niveau chaud résident sur le PCIe-SSD.
Indisponibilité du disque de démarrage (DOM)
Lorsqu'un DOM de démarrage (DOM SATA pour matériel NX) échoue, le nœud continuera à
fonctionner normalement tant que l'hyperviseur ou le CVM ne redémarrera pas. Après une
panne du DOM, l'hyperviseur ou CVM sur ce nœud ne pourra plus démarrer car leurs fichiers
de démarrage résident sur le DOM.
Le CVM redémarre si un lecteur de démarrage échoue ou si vous supprimez un lecteur de démarrage sans
marquer le lecteur pour la suppression et les données n'ont pas réussi à migrer.
Si Cassandra reste dans un état d'échec pendant plus de trente minutes, les nœuds Cassandra
survivants détachent le nœud défaillant de la base de données Cassandra afin que les
métadonnées non disponibles puissent être répliquées sur les nœuds de cluster restants. Le
processus de restauration de la base de données prend environ 30 à 40 minutes.
Si le processus Cassandra redémarre et reste en cours d'exécution pendant cinq minutes, la
procédure de détachement du nœud est annulée. Si le processus reprend et est stable une fois
la procédure de guérison terminée, le nœud sera automatiquement ajouté à l'anneau. Un nœud
peut être ajouté manuellement à la base de données à l'aide de la commande nCLI:
ncli > host enable-metadata-store id = cvm_id
Panne du lecteur de données
Chaque nœud ajoute ses périphériques de stockage locaux au pool de stockage du cluster. Les
données de niveau froid sont stockées sur des disques durs, tandis que les données de niveau
chaud sont stockées sur des disques SSD pour des performances plus rapides. Les données
sont répliquées à travers le cluster, de sorte qu'une panne de lecteur de données unique
n'entraîne pas de perte de données. Les nœuds contenant uniquement des disques SSD ont
uniquement un niveau chaud.
Lorsqu'un lecteur de données (HDD / SSD) tombe en panne, le cluster reçoit une alerte de
l'hôte et commence immédiatement à créer une deuxième réplique de toutes les données de
machine virtuelle invitée stockées sur le lecteur.
Les adaptateurs réseau physiques de chaque hôte sont regroupés sur le réseau
externe. L'indisponibilité d'une liaison réseau est tolérée sans impact pour les utilisateurs si
plusieurs ports sont connectés au réseau.
La plate-forme Nutanix n'utilise aucun fond de panier pour la communication entre nœuds. Il
s'appuie sur un réseau 10 GbE standard.
Toutes les E / S de stockage des VM s'exécutant sur un nœud Nutanix sont gérées par
l'hyperviseur sur un réseau privé dédié. La demande d' E / S est gérée par l'hyperviseur, qui
transmet ensuite la demande à l'adresse IP privée sur la CVM locale. Le CVM effectue
ensuite la réplication à distance avec d'autres nœuds Nutanix en utilisant son adresse IP
externe sur le réseau public 10 GbE.
Dans la plupart des cas, les demandes de lecture sont traitées par le nœud local et ne sont pas
acheminées vers le réseau 10 GbE. Cela signifie que le seul trafic acheminé vers le réseau
public 10 GbE est le trafic de réplication de données et les E / S du réseau VM. Les tâches à
l'échelle du cluster, l'équilibrage de disque par exemple, génèrent des E / S sur le réseau 10
GbE.
Que remarqueront les utilisateurs?
Chaque nœud Nutanix est configuré en usine pour utiliser un port 10 GbE comme chemin
principal pour vSwitch0. Les autres ports 10 GbE sont configurés en mode veille. Les
performances de la VM invitée ne diminuent pas dans cette configuration. Si un port 10 GbE
n'est pas configuré comme chemin de basculement, le trafic bascule vers un port 1 GbE. Ce
basculement réduit le débit du trafic de stockage et diminue les performances d'écriture des
machines virtuelles invitées sur l'hôte avec la liaison défaillante. D'autres hôtes peuvent
également subir une légère diminution, mais uniquement sur les écritures dans des étendues
stockées sur l'hôte avec l'échec de la liaison. Les meilleures pratiques de mise en réseau
Nutanix recommandent de supprimer les ports 1 GbE de la configuration réseau de chaque
hôte.
Que se passe-t-il si un autre échoue?
Si les deux liaisons 10 GbE sont interrompues, l'hôte basculera vers un port 1 GbE s'il est
configuré en tant qu'interface de veille. Ce basculement réduit le débit du trafic de stockage et
diminue les performances d'écriture des machines virtuelles invitées sur l'hôte avec la liaison
défaillante. D'autres hôtes peuvent également subir une légère diminution, mais uniquement
sur les écritures dans des étendues stockées sur l'hôte avec l'échec de la liaison.
Facteur de redondance 3
Par défaut, les clusters Nutanix ont un RF de 2, ce qui tolère la défaillance d'un seul
nœud ou lecteur. Plus le cluster est grand, plus il est probable qu'il subisse des échecs
simultanés. Plusieurs échecs peuvent entraîner l'indisponibilité du cluster jusqu'à ce
que les échecs soient réparés.
Le facteur de redondance 3 (RF3) est une option configurable qui permet à un cluster
Nutanix de résister à la défaillance de deux nœuds ou disques dans différents blocs.
Si un cluster est défini sur RF2, il peut être converti en RF3 si suffisamment de nœuds sont
présents. L'augmentation du niveau RF du cluster consomme 66% du stockage du cluster contre
50% pour RF2.
Fonctionnalités RF3
Au moins une copie de toutes les données de la VM invitée plus le
journal d'opération est disponible si deux nœuds échouent.
Les données de machine virtuelle sous-répliquées sont copiées sur
d'autres nœuds.
Le cluster conserve cinq copies de métadonnées et cinq copies de
données de configuration.
o Si deux nœuds échouent, au moins trois copies sont disponibles.
Exigences RF3
Un cluster doit avoir au moins cinq nœuds pour que RF3 soit activé.
Pour que les machines virtuelles invitées tolèrent la défaillance
simultanée de deux nœuds ou disques dans des blocs différents, les données
doivent être stockées sur des conteneurs de stockage avec RF3.
Le CVM doit être configuré avec suffisamment de mémoire pour
prendre en charge RF3.
* Codage d'effacement avec prise en compte du rack - Le codage d'effacement est pris en charge sur un
cluster compatible rack. Vous pouvez activer le codage d'effacement sur les nouveaux conteneurs dans les
clusters prenant en charge les racks à condition que certains minimums soient respectés, comme indiqué
dans le tableau ci-dessus.
Le tableau indique le niveau de résilience des données (échec simultané) fourni pour les
combinaisons suivantes de facteur de réplication, nombre minimum de nœuds, nombre
minimum de blocs et nombre minimum de racks.
La tolérance aux pannes de rack est uniquement prise en charge pour AHV et ESXi.
Haute disponibilité VM
Dans les clusters gérés Acropolis, vous pouvez activer la haute disponibilité (HA) pour
le cluster afin de garantir que les machines virtuelles peuvent être migrées et
redémarrées sur un autre hôte en cas de panne.
HA peut garantir que des ressources de cluster suffisantes sont disponibles pour
prendre en charge la migration des machines virtuelles en cas de défaillance du nœud.
Acropolis Master suit la santé des nœuds en surveillant les connexions sur tous les
nœuds du cluster. Lorsqu'un nœud devient indisponible, Acropolis Master redémarre
toutes les machines virtuelles qui s'exécutaient sur ce nœud sur un autre nœud du
même cluster.
L'Acropolis Master détecte les pannes dues à l'isolation du réseau VM, qui est signalée
par une incapacité à répondre aux pulsations.
Options de configuration HA
Il existe trois options de configuration HA du cluster AHV. Cliquez sur chaque onglet pour en
savoir plus.
Segments réservés
Sur chaque nœud, une partie de la mémoire est réservée dans le cluster pour le basculement
des machines virtuelles à partir d'un nœud défaillant. Le service Acropolis du cluster calcule
la mémoire à réserver dans le cluster en fonction de la configuration de la mémoire de la
machine virtuelle. AHV marque tous les nœuds comme programmables et les ressources
disponibles pour exécuter des machines virtuelles.
Meilleur effort
Non recommandé. Aucune réservation de nœud ou de mémoire sur le nœud n'est effectuée
dans le cluster et en cas de panne, les machines virtuelles sont déplacées vers d'autres nœuds
en fonction des ressources et de la mémoire disponibles sur le nœud. Ce n'est pas une
méthode préférée. S'il n'y a pas de ressources disponibles sur le cluster ou le nœud, certaines
des machines virtuelles peuvent ne pas être sous tension.
Hôte réservé
Uniquement disponible via aCLI et non recommandé. Un nœud complet est réservé à la haute
disponibilité de la machine virtuelle en cas de défaillance d'un nœud dans le cluster et ne
permet pas aux machines virtuelles d'être exécutées et mises sous tension ou migrées vers le
nœud pendant le fonctionnement normal du cluster. Ce mode ne fonctionne que si tous les
nœuds du cluster ont la même quantité de mémoire.
Mode flash
Le mode Flash pour les VM et les groupes de volumes (VG) est une fonctionnalité qui permet à un
administrateur de définir la préférence de niveau de stockage pour une VM ou VG qui peut exécuter
des applications critiques sensibles à la latence.
Par exemple, un cluster exécutant des applications critiques (telles que la base de données
SQL) avec un ensemble de travail volumineux aux côtés d'autres charges de travail peut être
trop volumineux pour s'adapter au niveau SSD et pourrait potentiellement migrer vers le
niveau HDD. Pour les charges de travail extrêmement sensibles à la latence, la migration vers
le niveau HDD peut sérieusement affecter les performances de lecture et d'écriture de la
charge de travail.
Le mode Flash est disponible pour toutes les machines virtuelles et VG exécutant AHV, ESXi
et Hyper-V. Vous devez gérer les hôtes ESXi à l'aide de vCenter Server. Hyper-V prend en
charge le mode Flash pour les VG. Vous activez la fonctionnalité sur un niveau par VM ou
par VG, et tous les disques virtuels correspondant à la VM ou VG activée sont également
activés pour le mode Flash. Vous pouvez désactiver un disque virtuel individuel lorsque vous
activez la VM ou VG à laquelle il correspond pour le mode Flash.
Vous pouvez configurer le mode Flash pour les machines virtuelles nouvelles ou existantes,
les VG et leurs disques virtuels associés. Lorsque vous ajoutez un nouveau disque virtuel à
une VM ou VG activée en mode Flash, vous épinglez également ce disque virtuel au SSD.
L'activation du mode Flash sur une VM ou VG ne migre pas automatiquement ses données du
niveau froid vers le niveau chaud. Le mécanisme de gestion du cycle de vie des informations
(ILM) gère la migration des données à chaud. Cependant, une fois que le mode Flash est
activé pour une machine virtuelle dans un système hybride, les données des données
d'application critiques pour l'entreprise et sensibles à la latence ne migrent pas du SSD vers le
disque dur.
Le mode Flash offre des performances 100% Flash pour des charges de travail spécifiques sur
votre infrastructure hybride existante sans que vous ayez à acheter un système 100% Flash.
Par défaut, vous pouvez utiliser 25% du niveau SSD de l'ensemble du cluster comme mode
Flash pour les VM ou VG.
Si la quantité de données de VM épinglées sur SSD dépasse 25% de la capacité SSD du
cluster, le système peut migrer les données des vDisks épinglés vers le disque dur, en fonction
de l'utilisation du niveau chaud. Prism alerte lorsque ce seuil est dépassé. Lorsque cela se
produit, vous devez évaluer l'utilisation du niveau actif du cluster. Réduisez la quantité de
données épinglées au SSD ou ajoutez une capacité supplémentaire de niveau chaud au cluster.
Si cette fonctionnalité est activée pour une machine virtuelle, tous les disques virtuels qui sont
attachés à la machine virtuelle sont automatiquement épinglés au niveau SSD. En outre, tous
les disques virtuels ajoutés à cette machine virtuelle après la configuration du mode Flash sont
automatiquement épinglés. Cependant, la configuration d'une VM peut être modifiée pour
supprimer le mode Flash de tous les disques virtuels. «L'épinglage de VM» est une
fonctionnalité disponible pour les machines virtuelles et les groupes de volumes.
Avant d'utiliser le mode Flash, utilisez au maximum les fonctionnalités d'optimisation de la capacité telles que la
déduplication, la compression et le codage d'effacement (EC-X).
Le mode Flash est configuré lorsque vous mettez à jour la configuration de la VM. En
plus de modifier la configuration, vous pouvez attacher un groupe de volumes à la VM
et activer le mode flash sur la VM. Si vous attachez un groupe de volumes à une
machine virtuelle qui fait partie d'un domaine de protection, la machine virtuelle n'est
pas protégée automatiquement. Ajoutez manuellement la machine virtuelle au même
groupe de cohérence.
Pour activer le mode flash sur la VM, cochez la case Activer le mode Flash .
Une fois que vous avez activé cette fonctionnalité sur la machine virtuelle, l'état est
mis à jour dans la vue de la table de la machine virtuelle. Pour afficher l'état des
disques virtuels individuels (disques qui sont flashés sur le SSD), accédez à
l' onglet Disques virtuels dans la vue de table VM .
Vous pouvez désactiver la fonction de mode flash pour des disques virtuels
individuels. Pour mettre à jour le mode flash pour des disques virtuels individuels,
cliquez sur l'icône de mise à jour du disque dans le volet Disques et décochez la case
Activer le mode Flash .
Politiques d'affinité pour AHV
Vous pouvez spécifier des politiques de planification pour les machines virtuelles sur un
cluster AHV. En définissant ces stratégies, vous pouvez contrôler le placement des machines
virtuelles sur les hôtes au sein d'un cluster.
Stratégie anti-affinité de VM
Cette stratégie empêche les machines virtuelles de s'exécuter sur le même nœud. La stratégie
force les machines virtuelles à s'exécuter sur des nœuds distincts afin que la disponibilité des
applications ne soit pas affectée par une défaillance de nœud. Cette politique ne limite pas la
fonction de planification dynamique d'Acropolis (ADS) à prendre les mesures nécessaires en
cas de contraintes de ressources.
Actuellement, vous ne pouvez définir la stratégie anti-affinité VM-VM qu'en utilisant aCLI. Pour plus
d'informations, consultez Configuration de la stratégie d'anti-affinité VM-VM .
La stratégie Anti-Affinity est appliquée lors du placement initial des VM (lorsqu'une VM est sous tension). La
stratégie anti-affinité peut être annulée en migrant manuellement une machine virtuelle vers le même hôte que sa
machine virtuelle opposée, lorsqu'un hôte est mis en mode de maintenance ou pendant un événement HA. ADS
tentera de résoudre toutes les violations d'anti-affinité lorsqu'elles seront détectées.
La stratégie d'affinité VM-VM n'est pas prise en charge.
Politique d'affinité VM-hôte
La stratégie d'affinité VM-hôte contrôle le placement des VM. Utilisez cette stratégie pour
spécifier qu'une machine virtuelle sélectionnée ne peut s'exécuter que sur les membres de la
liste d'hôtes d'affinité. Cette stratégie vérifie et applique où une machine virtuelle peut être
hébergée lorsque vous mettez sous tension ou migrez la machine virtuelle.
Si vous choisissez d'appliquer une politique d'affinité VM-hôte, cela limite Acropolis HA et Acropolis Dynamic
Scheduling (ADS) de telle sorte qu'une machine virtuelle ne peut pas être mise sous tension ou migrée vers un
hôte qui n'est pas conforme aux exigences de la politique d'affinité car cette politique est obligatoirement
appliquée.
La stratégie d'anti-affinité de l'hôte VM n'est pas prise en charge.
Sélectionnez au moins deux hôtes lors de la création d' une liste d'affinité d'hôte pour vous protéger contre les
temps d'arrêt en cas de défaillance d'un nœud. Cette configuration est toujours appliquée; Les VM ne seront pas
déplacées des hôtes spécifiés ici, même dans le cas d'un événement HA.
Regardez la vidéo suivante pour en savoir plus sur les règles d'affinité
Nutanix: https://youtu.be/ rfHR93RFuuU .
Limitations des règles d'affinité
Même si un hôte est supprimé d'un cluster, l'UUID de l'hôte n'est pas
supprimé de la liste d'affinité d'hôte pour une machine virtuelle. Vérifiez et
mettez à jour les règles d'affinité d'hôte chaque fois qu'un nœud est
supprimé d' un cluster.
L'affinité VM-hôte ne peut pas être configurée sur un cluster dont la
haute disponibilité est configurée à l'aide de la méthode d'hôte réservé.
Vous ne pouvez pas supprimer l'affinité VM-hôte pour une VM sous
tension de Prism. Vous pouvez utiliser la commande vm.affinity_unset
vm_list aCLI pour effectuer cette opération.