Академический Документы
Профессиональный Документы
Культура Документы
and other Huawei trademarks are trademarks of Huawei Technologies Co., Ltd.
et d'autres marques Huawei sont des marques de Huawei Technologies Co., Ltd.
All other trademarks and trade names mentioned in this document are the property of their respective
holders.
Toutes les autres marques et noms commerciaux mentionnés dans le présent document sont la propriétéde
leurs détenteurs respectifs.
Notice
Avis
The purchased products, services and features are stipulated by the contract made between Huawei and
the customer. All or part of the products, services and features described in this document may not be
within the purchase scope or the usage scope. Unless otherwise specified in the contract, all statements,
information, and recommendations in this document are provided "AS IS" without warranties, guarantees or
representations of any kind, either express or implied.
Les produits, services et fonctionnalités achetés sont stipulés dans le contrat passéentre Huawei et le
client. Tout ou partie des produits, services et fonctionnalités décrits dans ce document peuvent ne pas être
dans le champ d'application de l'achat ou de l' utilisation. Sauf indication contraire dans le contrat, toutes
les déclarations, informations, et les recommandations contenues dans le présent document sont fournies «
EN L'ÉTAT »sans garantie, garantie ou représentation de quelque nature que ce soit, expresse ou
implicite.
The information in this document is subject to change without notice. Every effort has been made in the
preparation of this document to ensure accuracy of the contents, but all statements, information, and
recommendations in this document do not constitute a warranty of any kind, express or implied.
Les informations contenues dans ce document peuvent être modifiées sans préavis. Tout a été mis en œ
uvre pour assurer l'exactitude du contenu de ce document, mais toutes les déclarations, informations et
recommandations contenues dans ce document ne constituent pas une garantie de quelque nature que ce
soit, expresse ou implicite.
Website: https://www.huawei.comhttps://www.huawei.com
Site Web:
Email: support@huawei.comSupport@huawei.com
Adresse
électronique:
Contents
Table des matières
1 ToC DC Design
Conception CC ToC ......................................................................................................................... 6
1.1 ToC DC Topology
Topologie DC ToC .............................................................................................................................................................. 6
1.2 ToC DC Design
Conception CC ToC ............................................................................................................................................................ 7
1.3 Hardware
Matériel............................................................................................................................................................................... 8
1.4 VNF Design
Conception VNF ............................................................................................................................................................... 10
2 Naming Design
Conception du nom ....................................................................................................................... 12
2.1 Site Naming
Nom du site ....................................................................................................................................................................... 12
2.2 Physical Device Naming
Nommage de périphérique physique ................................................................................................................................ 13
2.2.1 Storage Device Naming
Nommage des périphériques de stockage ......................................................................................................................... 13
2.2.2 Network Device Naming
Nommage de périphérique réseau ..................................................................................................................................... 14
2.3 Logical Resource Naming
Nommage logique des ressources ..................................................................................................................................... 15
2.3.1 DC and AZ Naming
Nommage DC et AZ ......................................................................................................................................................... 15
2.3.2 Host Group Naming
Nommage du groupe hôte ................................................................................................................................................. 16
2.3.3 Host Aggregate Naming
Nom d'agrégation d 'hôtes ................................................................................................................................................. 17
2.3.4 VDC Naming
Nommage VDC ................................................................................................................................................................ 18
2.3.5 VPC Naming
Nommage VPC ................................................................................................................................................................. 19
2.3.6 VNF Naming
Nommage VNF ................................................................................................................................................................. 20
6 Reliability Design
Conception de fiabilité................................................................................................................. 78
6.1 DC Redundancy Solution
Solution de redondance CC .............................................................................................................................................. 78
6.2 Storage Redundancy Solution
Solution de redondance du stockage ................................................................................................................................. 82
6.3 Network Redundancy Solution
Solution de redondance réseau ......................................................................................................................................... 82
6.3.1 CSLB Redundancy Solution
Solution de redondance CSLB .......................................................................................................................................... 82
6.4 VM Redundancy Solution
Solution de redondance VM ............................................................................................................................................. 84
6.5 Cloud Management Redundancy Solution
Solution de redondance de gestion du cloud ..................................................................................................................... 90
1 ToC DC Design
Conception CC ToC
NFV aims to move telecommunication services from dedicated hardware onto the COTS
hardware. A virtualization layer is added to abstract COTS hardware resources, including
compute, storage, and network resources, and provide them to upper-layer applications.
Generally, the virtualization layer is called virtual machine monitor (VMM) or hypervisor.
NFV decouples software from hardware, modularizes software and hardware, and automates
system deployment.
NFV vise àtransférer les services de télécommunication du matériel dédiévers le matériel
COTS. Une couche de virtualisation est ajoutée aux ressources matérielles COTS abstraites, y
compris les ressources de calcul, de stockage et de réseau, et de les fournir aux applications de
couche supérieure. Généralement, la couche de virtualisation est appelée moniteur de machine
virtuelle (VMM) ou hyperviseur. NFV découple le logiciel du matériel, module le logiciel et
le matériel et automatise le déploiement du système.
The NFV architecture at the CloudCore side in the layered cloud scenario consists of:
L'architecture NFV du côtéCloudCore dans le scénario de nuage en couches comprend:
VNF (Virtual Network Function): Each physical NE maps to a VNF. VNF includes
Huawei core network NEs and Huawei EMS NEs. VNF-required resources are classified
into virtual compute, storage, and network resources, which are provided by the NFVI.
VNF (Virtual Network Function): chaque NE physique correspond àune VNF. VNF
comprend les NE du réseau central de Huawei et les NE EMS de Huawei. Les ressources
requises par la VNF sont classées en ressources virtuelles de calcul, de stockage et de réseau,
qui sont fournis par le NFVI.
EMS (Element Management System): The EMS manages VNFs. In a FusionSphere
OpenStack-based ToC DC, Huawei U2000/U2020 is used as the EMS.
EMS (Element Management System): l'EMS gère les VNs. Dans un ToC DC basésur
FusionSphere OpenStack, Huawei U2000/U2020 est utilisécomme EMS.
VNFM (VNF Manager): A VNFM can manage the lifecycle of one or multiple VNFs,
deployment, scaling, termination, KPI reporting, and alarm reporting. In a
FusionSphere OpenStack-based ToC DC, Huawei CloudOpera CSM is used as the
VNFM.
VNFM (VNF Manager): un VNFM peut gérer le cycle de vie d'un ou de plusieurs VNF, le
déploiement, la mise àl'échelle, la terminaison, le rapport KPI et le rapport d'alarme. Dans un
ToC DC basésur FusionSphere OpenStack, Le CloudOpera CSM de Huawei est utilisé
comme VNFM.
NFVO (Network Functions Virtualization Orchestrator): Huawei's CloudOpera
Orchestrator NFV product is positioned as the NFV Orchestrator in the MANO and
used for service orchestration on the NFV network.
NFVO (Network Functions Virtualization Orchestrator): le produit NFV CloudOpera
Orchestrator de Huawei est positionnéen tant qu'orchestre NFV dans le MANO et utilisépour
l'orchestration de services sur le réseau NFV.
1.3 Hardware
Matériel
Table 1-1
Device Specifications
Périphérique Spécifications
2288H V5 Computing Node 2*Intel Xeon Gold 5120T-14core,8*32G
(CloudCore) Memory,2*600GB(2.5") SAS Harddisk,LSI3408
Nœud de calcul 2288H V5 Raid Card,With 2*GE and 2*10GE SFP+,6*10GE
(CloudCore) SFP+,TPM2.0 Card(SPI)-Overseas,2*1200WDC)
2 * Intel Xeon Gold 5120T-14core, 8 * 32G
Memory, 2 * 600 GB (2,5 ") SAS Harddisk,
LSI3408 Raid Card, avec 2 * GE et 2 * 10GE SFP
+, 6 * 10GE SFP +, carte TPM2.0 (SPI) -Outre-mer,
2 * 1200WDC)
2288H V5 Control Node 2*Intel Xeon Gold 5120T-14Core,8*32G
Nœud de contrôle V5 2288H Memory,2*800GB(2.5") SAS SSD
Harddisk,LSI3508 Raid Card(2G),With 2*GE and
Device Specifications
Périphérique Spécifications
2*10GE SFP+,6*10GE SFP+,TPM2.0
Card(SPI)-Overseas,2*1200WDC)
2 * Intel Xeon Gold 5120T-14Core, 8 * 32G
Memory, 2 * 800 Go (2,5 ") SAS SSD Harddisk,
LSI3508 Raid Card (2G), avec 2 * GE et 2 * 10 GE
SFP +, 6 * 10GE SFP +, carte TPM2.0 (SPI)
-Outre-mer, 2 * 1200WDC)
2288H V5 Computing Node 2*Intel Xeon Gold 5120T-14core,8*32G
(CloudEdge) Memory,2*600GB(2.5") SAS Harddisk,LSI3408
Nœud de calcul 2288H V5 Raid Card,With 2*GE and 2*10GE,2*10GE and
(CloudEdge) 4*25GE,TPM2.0 Card(SPI)-Overseas,2*1200WDC
2 * Intel Xeon Gold 5120T-14core, 8 * 32G
Memory, 2 * 600 GB (2,5 ") SAS Harddisk,
LSI3408 Raid Card, avec 2 * GE et 2 * 10GE, 2 *
10GE et 4 * 25GE, carte TPM2.0 (SPI) -Outre-mer,
2 * 1200WDC
OceanStor 5500 V5 2U,Dual Ctrl,48V DC,64GB,SmartIO,8*10Gb
OceanStor 5500 V5 ETH,25*2.5",SPE34C0225
2U, double ctrl, 48 V DC, 64 Go, SmartIO, 8 *
10 Gbit ETH, 25 * 2,5", SPE34C0225
CE5855-48T4S2Q-EI Switch 48-Port GE RJ45,4-Port 10G SFP+,2-Port 40G
(I-Layer Switch) QSFP+
Commutateur CE5855-48T4S2Q-EI 48-Port GE RJ45,4-Port 10G SFP +, 2-Port 40G
(Commutateur I-Layer) QSFP +
CE6865-48S8CQ-EI Switch (User 48-Port 25GE SFP28,8*100GE QSFP28
Plane TOR) 48-Port 25GE SFP28,8 * 100GE QSFP28
Commutateur CE6865-48S8CQ-EI
(User Plane TOR)
CE6881-48S6CQ switch 48*10G SFP+, 6*100G QSFP28
(Management and Storage TOR, 48 * 10G SFP +, 6 * 100G QSFP28
Control Plane TOR)
Commutateur CE6881-48S6CQ
(TOR de gestion et de stockage,
TOR de plan de contrôle)
CE12804S (EOR Switch) 2*[CE-L36LQ-FD 36*40G]+2*[CE-L48XS-FD
CE12804S (commutateur EOR) 48*10G]
2 * [CE-L36LQ-FD 36 * 40G] + 2 *
[CE-L48XS-FD 48 * 10G]
Eudemon1000E-G3 DC Host 12*GE RJ45+12*10GE SFP+ + 2*40GE
Hôte CC Eudemon1000E-G3 QSFP+,2 DC power
12 * GE RJ45 + 12 * 10GE SFP + + 2 * 40GE
QSFP +, 2 alimentation CC
In the layered cloud scenario, the hardware, including hosts, switches, and routers, is planned and
delivered by the IT department.
Dans le scénario de nuage en couches, le matériel, y compris les hôtes, les commutateurs et les routeurs,
est planifiéet livrépar le service informatique.
2 Naming Design
Conception du nom
Host groups are configured on FusionSphere OpenStack and used to uniformly reserve resources and
configure networks and disks for certain hosts. Host aggregates are configured on FusionSphere
OpenStack OM and used to physically isolate resources between hosts.
Les groupes d'hôtes sont configurés sur FusionSphere OpenStack et utilisés pour réserver uniformément
les ressources et configurer les réseaux et les disques pour certains hôtes. Les agrégats d'hôtes sont
configurés sur FusionSphere OpenStack OM et utilisés pour isoler physiquement les ressources entre les
hôtes.
An HA is a cluster of hosts which serve as the compute nodes in OpenStack instances. A host is
composed of one or multiple physical servers. Virtualization software runs on hosts so that VMs can
be deployed to provide services.
Un HA est un cluster d'hôtes qui servent de nœuds de calcul dans des instances OpenStack. Un hôte
est composéd'un ou de plusieurs serveurs physiques. Le logiciel de virtualisation s'exécute sur des
hôtes de sorte que les machines virtuelles puissent être déployées pour fournir des services.
Host aggregates are configured on FusionSphere OpenStack OM.
Les agrégats hôtes sont configurés sur FusionSphere OpenStack OM.
A VDC is a unit of virtual resources configured on FusionSphere OpenStack OM. Each VDC has an
administrator who can query and manage the resources of the VDC. VDCs logically isolate NFVI
resources between vendors, simplifying management.
Un VDC est une unitéde ressources virtuelles configurée sur FusionSphere OpenStack OM. Chaque
VDC a un administrateur qui peut interroger et gérer les ressources du VDC. Les VDC isolent
logiquement les ressources NFVI entre les fournisseurs, simplifiant la gestion.
A VPC is a virtual private cloud a user applies for in a DC. With the VPC as a private cloud management
unit, users can plan the services, make a disparate network design, and define a private service network
for a VPC independently based on service requirements. Isolation between VPCs ensures service
security.
Un VPC est un nuage privévirtuel pour lequel un utilisateur fait une demande dans un DC. Avec le VPC
en tant qu'unitéde gestion de nuage privé, les utilisateurs peuvent planifier les services, faire une
conception de réseau disparate, et définir un réseau de service privépour un VPC indépendamment sur
la base des exigences de service. L'isolement entre VPC assure la sécuritédu service.
3
Storage Resource Design
Conception des ressources de stockage
When a backend storage name is mapped to multiple storage pools, these storage pools must reside
on the same disk array.
Lorsqu'un nom de stockage principal est mappéàplusieurs pools de stockage, ces pools de stockage
doivent résider sur le même tableau de disques.
If a disk array has a controller enclosure cascaded with disk enclosures, a volume type maps to a
backend storage name, and a backend storage name maps to multiple storage pools. If a disk array
has a controller enclosure only, a volume type maps to a backend storage name, and a backend
storage name maps to one storage pool.
Si une baie de disques comporte un boî tier de contrôleur en cascade avec des boîtiers de disques, un
type de volume mappe vers un nom de stockage principal et un nom de stockage principal mappe
vers plusieurs pools de stockage. Si une baie de disques ne comporte qu'un boîtier de contrôleur, un
type de volume correspond àun nom de stockage principal, et un nom de stockage principal
correspond àun pool de stockage.
Figure 3-1 Storage mapping between FusionSphere OpenStack and disk arrays
Mappage du stockage entre les unités OpenStack de FusionSphere et les unités multidisques
If MongoDB roles are deployed on the disk array, the number of disks for MongoDB
roles is calculated based on the number of nodes or VMs deployed in a DC and the
RAID policy.
Si les rôles MongoDB sont déployés sur la baie de disques, le nombre de disques pour
les rôles MongoDB est calculé sur la base du nombre de nœuds ou de VM déployés dans
un DC et de la politique RAID.
An OceanStor 5500 V3 or OceanStor 5500 V5 disk array can connect to a maximum of
128 blades.
Une baie de disques OceanStor 5500 V3 ou OceanStor 5500 V5 peut se connecter àun
maximum de 128 lames.
Reserve 10% storage capacity for system redundancy and short-term capacity expansion.
Réserver une capacitéde stockage de 10 % pour la redondance du système et l'expansion
de la capacitéàcourt terme.
Configure RAID10 in all disk domains because RAID10 has higher reliability and
performance than other RAID levels, such as RAID5. Do not use disks with different
rotational speeds, capacities, or performance in a RAID. Otherwise, overall RAID
performance may not be ensured. A disk domain must have an even number of disks and
the disk quantity cannot exceed 50.
Configurez RAID10 dans tous les domaines de disque car RAID10 a une fiabilitéet des
performances supérieures àcelles des autres niveaux RAID, comme RAID5. N'utilisez
pas de disques avec des vitesses de rotation, des capacités ou des performances
différentes dans un RAID. Sinon, Les performances RAID globales ne sont pas garanties.
Un domaine de disque doit avoir un nombre pair de disques et la quantitéde disques ne
peut pas dépasser 50.
Use dual disk arrays, and deploy the active and standby service VMs (except for the
U2000/U2020, ES, and vOSMU VMs) on different disk arrays, ensuring service
continuity if a disk array fails. To achieve this, use the VNFD file to define different
volume types for service VMs. FusionSphere OpenStack maps these volume types to
backend storage names and then to storage resource pools.
Utilisez des baies de disques doubles et déployez les machines virtuelles de service
actives et de secours (àl'exception des machines virtuelles U2000/U2020, ES et vOSMU)
sur différentes baies de disques, assurant ainsi la continuitédu service en cas de
défaillance d'une baie de disques. Utilisez le fichier VNFD pour définir différents types
de volume pour les machines virtuelles de service. FusionSphere OpenStack mappe ces
types de volume vers les noms de stockage principal, puis vers les pools de ressources de
stockage.
The CSM and U2000/U2020 share a disk domain. If the U2000/U2020 manages 1200 or
more equivalent NEs, or value-added service VMs are deployed, plan a dedicated disk
array (128 GB cache) for the U2000/U2020.
Le CSM et U2000/U2020 partagent un domaine de disque. Si l'U2000/U2020 gère 1200
NE ou plus équivalents, ou si des VM de service àvaleur ajoutée sont déployées,
planifiez une baie de disques dédiée (128 Go de cache) pour l'U2000/U2020.
The vOSMU stores CSM and U2000/U2020 backup data, and is deployed in another
disk array that is configured with RAID10. If the U2000/U2020 or CSM is deployed, the
vOSMU can share a disk domain with the CSM and the ES. If the U2000/U2020 and
CSM are not deployed, the vOSMU uses a dedicated disk domain.
Le vOSMU stocke les données de sauvegarde CSM et U2000/U2020, et est déployédans
une autre baie de disques configurée avec RAID10. Si l'U2000/U2020 ou CSM est
déployé, le vOSMU peut partager un domaine de disque avec le CSM et l'ES. Si
l'U2000/U2020 et le CSM ne sont pas déployés, le vOSMU utilise un domaine de disque
dédié.
The ES/vOSMU and U2000/U2020 cannot use the same disk array. For example, if the
ES and vOSMU use disk array 1, the U2000/U2020 (U2000/U2020 and CCE VMs) must
use disk array 2. If disk array 2 is faulty and the U2000/U2020 becomes unavailable, the
ES that uses disk array 1 takes over services from the U2000/U2020. The backup data on
the vOSMU on disk array 1 is then used to restore the U2000/U2020 disk array. (If the
geographical redundancy solution is not used, the ES must be used to ensure system
reliability.)
Les systèmes ES/vOSMU et U2000/U2020 ne peuvent pas utiliser la même baie de
disques. Par exemple, si les systèmes ES et vOSMU utilisent la baie de disques 1,
l'U2000/U2020 (U2000/U2020 et CCE VMs) doit utiliser la baie de disques 2. Si la baie
de disques 2 est défectueuse et que l'U2000/U2020 devient indisponible, l'ES qui utilise
la baie de disques 1 prend en charge les services àpartir de l'U2000/U2020. Les données
de sauvegarde sur la baie de disques 1 de vOSMU sont ensuite utilisées pour restaurer la
baie de disques U2000/U2020. (Si la solution de redondance géographique n'est pas
utilisée, l'ES doit être utilisépour assurer la fiabilitédu système.)
The U2000/U2020 can share disk arrays with the service domain. Note that the
U2000/U2020 requires 48 GB-cache disk arrays.
L'U2000/U2020 peut partager des baies de disques avec le domaine de service. Notez
que l'U2000/U2020 nécessite 48 baies de disques GB-cache.
The WAS_Small and DAS_Small VM data of the Lightweight SessionInsight is stored in
the same disk array that uses RAID 5. The management disk domain, management
storage pool, management backend storage, and management disk type must be
separately planned, and five hard disks are required. The storage pool capacity is 2522
GB.
Les données WAS_Small et DAS_Small de la machine virtuelle Lightweight
SessionInsight sont stockées dans la même baie de disques que celle qui utilise RAID 5.
Le domaine de disque de gestion, le pool de stockage de gestion, le stockage principal de
gestion, et le type de disque de gestion doivent être planifiés séparément, et cinq disques
durs sont nécessaires. La capacitédu pool de stockage est de 2522 Go.
1.Before deploying WAS_Small and DAS_Small VMs of the lightweight SessionInsight, evaluate
whether the blades in the management HA are sufficient.
1.Avant de déployer WAS_Small et DAS_Small VMs du SessionInsight léger, évaluez si les lames de
l'HA de gestion sont suffisantes.
2.The WAS_Small and DAS_Small VMs of the lightweight SessionInsight can be configured only with
900-GB hard disks.
2.Les VMs WAS_Small et DAS_Small du SessionInsight léger ne peuvent être configurées qu'avec des
disques durs de 900 Go.
The USCDB(UPCC) has a strong IOPS resource preemption capability. To ensure that
other services can access disk arrays normally and for storage reliability, plan disk
domains for the USCDB(UPCC) as follows:
L'USCDB (UPCC) possède une forte capacitéde préemption des ressources IOPS. Pour
s'assurer que d'autres services peuvent accéder aux unités multidisques normalement et
pour assurer la fiabilitédu stockage, planifiez les domaines de disque pour l'USCDB
(UPCC) comme suit:
− If the USCDB(UPCC) requires at most 12 disks, configure it to share disk domain
with other NEs.
Si l'USCDB (UPCC) nécessite au plus 12 disques, configurez-le pour partager le
domaine disque avec d'autres NE.
− If the USCDB(UPCC) requires more than 12 disks, plan dedicated disks for it.
When USCDB(UPCC) physical databases require 12 hard disks, 12 hard disk
domain is separately planned for the USCDB-USPID3L(UPCC) VMs in the trusted
domain.When USCDB(UPCC) physical databases require at least 12 hard disks, 24
or 50 hard disk domain is separately planned for the USCDB-USPID3L(UPCC)
VMs in the trusted domain.
Si l'USCDB (UPCC) nécessite plus de 12 disques, planifiez des disques dédiés pour
lui. Lorsque les bases de données physiques de l'USCDB (UPCC) nécessitent 12
disques durs, 12 domaines de disque dur sont planifiés séparément pour les
machines virtuelles USCDB-USPID3L (UPCC) dans le domaine de confiance.
Lorsque les bases de données physiques USCDB (UPCC) nécessitent au moins 12
disques durs, 24 ou 50 domaines de disque dur sont planifiés séparément pour les
machines virtuelles USCDB-USPID3L (UPCC) dans le domaine de confiance.
− The USCDB(UPCC) has a strong resource preemption capability. To ensure other
services can access disk arrays normally and for storage reliability, plan disk
domains for the USCDB(UPCC) as follows:
L'USCDB (UPCC) dispose d'une forte capacitéde préemption des ressources. Pour
s'assurer que d'autres services peuvent accéder aux unités multidisques
normalement et pour assurer la fiabilitédu stockage, planifiez les domaines de
disque pour l'USCDB (UPCC) comme suit:
− If the report function is not enabled in the POP, the POP shares a disk domain with
the UPCC. If the report function is enabled in the POP, an independent hard disk
domain is required to avoid intrerruping the UPCC service and to improve the
storage reliability due to a high IOPS.Therefore, when the report function is enabled
in the POP (that is, the number of POPDAS VMs > 0), an independent hard disk
domain with 40 disks is deployed for the POP. The independent hard disk domain of
the POP is only deployed on a single disk array.
Si la fonction de rapport n'est pas activée dans le POP, le POP partage un domaine
disque avec l'UPCC. Si la fonction de rapport est activée dans le POP, un domaine
de disque dur indépendant est nécessaire pour éviter l'interruption du service UPCC
et améliorer la fiabilitédu stockage en raison d'un IOPS.Par conséquent, lorsque la
fonction de rapport est activée dans le POP (c 'est-à-dire le nombre de VMs
POPDAS > 0), un domaine de disque dur indépendant avec 40 disques est déployé
pour le POP. Le domaine de disque dur indépendant du POP n'est déployéque sur
une seule baie de disques.
− Ensure all links on storage paths have their redundant ones. Enable storage
multipathing on the FusionSphere OpenStack.
Assurez-vous que tous les liens sur les chemins de stockage sont redondants.
Activez le multiacheminement du stockage sur l'OpenStack FusionSphere.
− SANEX is used for signaling analysis and requires large storage space to store data.
Therefore, plan a dedicated disk array for the data disks of SANEX DAS VMs.
Other SANEX VMs and the system disk of DAS VMs share a disk array with other
VNFs. The specifications of the disk array dedicated for DAS VMs are as follows:
SANEX est utilisépour l'analyse de signalisation et nécessite un grand espace de
stockage pour stocker des données. Par conséquent, planifiez une baie de disques
dédiée pour les disques de données des machines virtuelles SANEX DAS. D'autres
machines virtuelles SANEX et le disque système des machines virtuelles DAS
partagent une baie de disques avec d'autres VNF. Les spécifications de la baie de
disques dédiée aux machines virtuelles DAS sont les suivantes:
Model: OceanStor 5500 V3 (48 GB Cache)/V5 (128 GB Cache)
Modèle: OceanStor 5500 V3 (48 Go de cache)/V5 (128 Go de cache)
Controller enclosure: 12 x 3.5 4T NL SAS disks
Boîtier de contrôleur: 12 x 3,5 4T disques SAS NL
Disk enclosure: 4U, 24 x 3.5 4T NL SAS disks
Boîtier de disque: disques SAS 4U, 24 x 3,5 4T NL
− The disk array dedicated for SANEX supports at most one controller enclosure and
three disk enclosures. Each disk domain contains a maximum of 50 disks. Each
enclosure to be delivered is fully configured with hard disks. If the disk array
Table 3-1 Storage capacity and IOPS required by service VMs for CloudCore
Capacitéde stockage et IOPS requises par les machines virtuelles de service pour CloudCore
The storage resource values in the preceding table are examples. The actually required VM storage
specifications, storage IOPS (loading), storage IOPS (running), and VM quantity are subject to the
results calculated by the configurator.
Les valeurs de ressources de stockage dans le tableau précédent sont des exemples. Les spécifications de
stockage de VM réellement requises, les IOPS de stockage (chargement), les IOPS de stockage
(exécution) et la quantitéde VM sont soumises aux résultats calculés par le configurateur.
When calculating the storage requirements of the management domain, the required number
of disks needs to be calculated based on the storage space. When calculating the storage
requirements of the service domain, the required number of disks needs to be calculated based
on the storage space and IOPS separately. The larger number is the total required disk quantity.
Lors du calcul des besoins de stockage du domaine de gestion, le nombre requis de disques
doit être calculésur la base de l'espace de stockage. le nombre requis de disques doit être
calculésur la base de l'espace de stockage et de l'IOPS séparément. Le plus grand nombre est
la quantitétotale de disques requise.
Calculate the number of hard disks required by the NFVO. The required number of disks
needs to be calculated based on the storage space and IOPS separately, The larger
number is the total required disk quantity. Plan hard disks required by the NFVO to the
same management disk domain as other OSS VNFs, such as the VNFM, eSight,
U2000/U2020, and PRS.
Calculez le nombre de disques durs requis par l'OVNF. Le nombre requis de disques doit
être calculéen fonction de l'espace de stockage et de l'IPS séparément, Le plus grand
nombre est la quantitétotale de disque requise. Planifiez les disques durs requis par la
NFVO sur le même domaine de gestion de disque que les autres VNF OSS, tels que le
VNFM, eSight, U2000/U2020, et PRS.
The storage capacity required can be calculated using the following formula:
La capacitéde stockage requise peut être calculée àl'aide de la formule suivante:
Required storage capacity = (Free space on a single disk x Disk quantity – Single coffer
disk capacity x Coffer disk quantity – Free space on a single disk x Hot spare disk
quantity) x RAID usage
Capacitéde stockage requise = (Espace libre sur un seul disque x Quantitéde disque –
Capacitéde disque sur un seul coffre x Quantitéde disque de mise en vente – Espace
libre sur un seul disque x Quantitéde disque de rechange àchaud) x Utilisation RAID
In a service disk array, each disk has 600 GB or 900 GB physical storage, but provides
526 GB or 790 GB free space in addition to its reserved and writehole capacity.
Dans une baie de disques de service, chaque disque dispose d'un stockage physique de
600 Go ou 900 Go, mais offre 526 Go ou 790 Go d'espace libre en plus de sa capacité
réservée et de trou d'écriture.
In a controller enclosure, coffer disks occupy 5 GB space on each of the first four disks,
20 GB in total.
Dans un boî tier de contrôleur, les disques de coffre occupent 5 Go d'espace sur chacun
des quatre premiers disques, soit 20 Go au total.
The RAID10 usage is 0.5.
L'utilisation de RAID10 est de 0,5.
Take hot spare disks into consideration only when you calculate the required disk
quantity based on the storage space. Initially one hot spare disk is arranged in every 12
disks. As more and more disks are added, the hot spare storage increases nonlinearly.
Ne prenez en considération les disques de rechange chauds que lorsque vous calculez la
quantitéde disque requise en fonction de l'espace de stockage. Initialement, un disque de
rechange chaud est disposésur 12 disques. Comme de plus en plus de disques sont
ajoutés, le stockage de rechange chaud augmente de façon non linéaire.
Table 3-2 Hot spare storage when the high hot spare policy is used
Stockage de secours àchaud lorsque la politique de secours àchaud est utilisée
Calculate the SAS disk quantity based on the running IOPS and loading IOPS separately.
The larger number is the required SAS disk quantity.
Calculez la quantitéde disque SAS en fonction de l'IOPS en cours d'exécution et du
chargement de l'IOPS séparément. Le plus grand nombre est la quantitéde disque SAS
requise.
For the management domain, calculate the disk quantity based on the storage space. For
the service domain, compare the disk quantities calculated using the storage space and
IOPS and the larger value prevails.
Pour le domaine de gestion, calculez la quantitéde disque sur la base de l'espace de
stockage. Pour le domaine de service, comparez les quantités de disque calculées àl'aide
de l'espace de stockage et de l'IOPS et la valeur la plus élevée prévaut.
In a disk and controller separated disk array (for which disks can be installed in the controller
enclosure), the first four disks in the first disk enclosure are used as coffer disks. In a disk and
controller integrated enclosure (for which disks can only be installed in the disk enclosure), the first
four disks are used as coffer disks. A part of coffer disk capacity is used to store important system
data, including subscriber and system configuration data and system logs. Each coffer disk has 5 GB
of capacity for system data and four coffer disks have 20 GB of capacity for system data. The rest
capacity is used to store service data. It's recommended that you plan the coffer disks to the
management disk domain.
Dans une matrice de disques séparée par un disque et un contrôleur (pour laquelle des disques
peuvent être installés dans le boîtier du contrôleur), les quatre premiers disques du premier boîtier de
disque sont utilisés comme disques de coffre. une partie de la capacitédu disque du coffre est
utilisée pour stocker des données système importantes, y compris les données de configuration
d'abonnéet de système et les journaux de système. Chaque disque de coffre a 5 Go de capacitépour
les données de système et quatre disques de coffre ont 20 Go de capacitépour les données de
système. La capacitéde repos est utilisée pour stocker des données de service. Il est recommandé
que vous planifiez les disques de coffre àle domaine du disque de gestion.
In the calculation of vOSMU VM storage resource requirements, because the vOSMU no longer
supports third-party server backup, you need to provide additional storage space to store fault
recovery data. Calculate the storage requirements for backup servers based on actual situation and
the principles:
Dans le calcul des besoins en ressources de stockage des machines virtuelles vOSMU, étant donné
que le vOSMU ne prend plus en charge la sauvegarde des serveurs tiers, vous devez fournir un
espace de stockage supplémentaire pour stocker les données de récupération des pannes. Calculez
les besoins de stockage des serveurs de sauvegarde en fonction de la situation réelle et des principes:
Total backup space: the sum of single product backup space
Espace total de sauvegarde: somme de l'espace de sauvegarde produit unique
Single product backup space = Dynamic data backup space + Static data backup space + Operating
system backup space
Espace de sauvegarde produit unique = Espace de sauvegarde dynamique des données + Espace de
sauvegarde statique des données + Espace de sauvegarde du système d'exploitation
Dynamic data backup space = Dynamic data backup packet size * Number of dynamic data backup
packages saved (The default value is 1. The value ranges from 1 to 7, and can be manually
configured)"
Espace de sauvegarde dynamique des données = Taille du paquet de sauvegarde dynamique
des données * Nombre de paquets de sauvegarde dynamique des données sauvegardés (La
valeur par défaut est 1. La valeur varie de 1 à7, et peut être configurée manuellement) "
Static data backup space = Static data backup packet size * Number of static data backup packages
saved (The value is 5 by default, and cannot be manually configured.)
Espace de sauvegarde statique des données = Taille du paquet de sauvegarde statique des
données * Nombre de paquets de sauvegarde statique des données enregistrés (La valeur par
défaut est 5 et ne peut pas être configurée manuellement).
"Operating system backup space" = "Operating system backup package size * Number of operating
system backup packages saved (The value is 3 by default, and cannot be manually configured.)
"Espace de sauvegarde du système d 'exploitation" = " Taille du package de sauvegarde du
système d'exploitation * Nombre de packages de sauvegarde du système d'exploitation
enregistrés (La valeur est 3 par défaut, et ne peut pas être configurée manuellement.)
Table 3-3
Table 3-3 Requirements for backup server space for each product
Exigences relatives àl'espace du serveur de sauvegarde pour chaque produit
Create a new physical network named physnet2. This physical network uses OVS to exchange
the OSS service traffic in the management domain with the physical network ports.
Créez un nouveau réseau physique appeléphysnet2. Ce réseau physique utilise OVS pour
échanger le trafic de service OSS dans le domaine de gestion avec les ports du réseau
physique.
Table 4-1
Table 4-2
As illustrated in the figure above, each VM in a service domain connects to virtual switches
through vNICs. For details about the number of vNICs required by a VM and the service
flows configured for each vNIC, see the NE port allocation specification table of the
corresponding solution.
Comme illustrédans la figure ci-dessus, chaque VM dans un domaine de service se connecte
àdes commutateurs virtuels par l'intermédiaire de vNIC. Pour plus de détails sur le nombre de
vNIC requis par une VM et les flux de service configurés pour chaque vNIC, voir la table de
spécification d'allocation de port NE de la solution correspondante.
The OVS/EVS simulates the layer-2 switching function to connect VMs and physical network
ports. On the OVS/EVS, you can create different logical networks to logically isolate different
service flows. Each logical network is allocated a different VLAN. When uplink traffic from a
VM is transmitted through a logical network, the logical network marks a VLAN tag for the
traffic packets and sends the packets to the physical network of the host. When downlink
traffic is transmitted through a logical network, the logical network removes the VLAN tag
and sends the traffic packets to the VM.
L'OVS/EVS simule la fonction de commutation de couche 2 pour connecter les machines
virtuelles et les ports réseau physiques. vous pouvez créer différents réseaux logiques pour
isoler logiquement différents flux de services. Chaque réseau logique se voit attribuer un
VLAN différent. Lorsque le trafic de liaison montante provenant d'une machine virtuelle est
transmis par l'intermédiaire d'un réseau logique, le réseau logique marque une étiquette
VLAN pour les paquets de trafic et envoie les paquets au réseau physique de l 'hôte. Lorsque
le trafic de liaison descendante est transmis par l'intermédiaire d'un réseau logique, le réseau
logique supprime l'étiquette VLAN et envoie les paquets de trafic àla machine virtuelle.
On the same logical network, VMs of a host communicate with each other through virtual
switches, and VMs of different hosts communicate with each other through layer-2 physical
switches. On different logical networks, all VMs communicate with each other through
layer-3 interconnection using external routers.
Sur le même réseau logique, les machines virtuelles d'un hôte communiquent entre elles par
l'intermédiaire de commutateurs virtuels, et les machines virtuelles de différents hôtes
communiquent entre elles par l'intermédiaire de commutateurs physiques de couche 2. Sur
différents réseaux logiques, toutes les machines virtuelles communiquent entre elles par
l'intermédiaire d'une interconnexion de couche 3 àl'aide de routeurs externes.
Logical networks must be bound to physical networks to implement external communication.
Physical networks (for example, physnet1 and physnet2) are provided through the network
adapters of hosts. To prevent single points of failure, multiple network ports work as a bond to
provide connection to one physical network.
Les réseaux logiques doivent être liés aux réseaux physiques pour mettre en œuvre une
communication externe. Les réseaux physiques (par exemple, physnet1 et physnet2) sont
fournis via les adaptateurs réseau des hôtes. Pour éviter des points de défaillance uniques,
plusieurs ports réseau fonctionnent comme une liaison pour fournir une connexion àun réseau
physique.
Table 4-3
On FusionSphere OpenStack in the layered cloud scenario, the logical network design
requires that logical networks be planned based on the application-layer service flow design
results. REF _table41953321 \r \h Table 6-5 describes an example of logical network
planning.
Error! Reference source not found.
CSC and ATS use vNIC6 and vNIC7 for signaling exchange. The SPS uses vNIC6 and
vNIC7 for signaling exchange, vNIC6-sub1 and vNIC7-sub1 for interworking with the
EMS, and vNIC6-sub2 and vNIC7-sub2 for data exchange.
Le réseau externe est utilisépar les VM de l'UIP pour s'interconnecter avec les routeurs
physiques. Actuellement, vNIC6 et vNIC7 sont utilisés pour la communication sur le
réseau externe. Le CSC et l'ATS utilisent vNIC6 et vNIC7 pour l'échange de
signalisation. Le SPS utilise vNIC6 et vNIC7 pour l'échange de signalisation,
vNIC6-sub1 et vNIC7-sub1 pour l'interfonctionnement avec l'EMS, et vNIC6-sub2 et
vNIC7-sub2 pour l'échange de données.
A pair of IPU VMs has four load-sharing vNICs to provide four load-balancing paths to the
CSC, ATS, and SPS service addresses. Load balancing is achieved by the dynamic routing
protocol OSPF or EBGP. Another two load-sharing vNICs of a pair of IPU VMs interwork
with background interface VMs through the layer-2, rather than layer-3 routing protocol.
Une paire de machines virtuelles de l'UIP dispose de quatre vNIC de partage de charge pour
fournir quatre chemins d'équilibrage de charge aux adresses de service CSC, ATS et SPS.
L'équilibrage de charge est réalisépar le protocole de routage dynamique OSPF ou EBGP.
Deux autres vNIC de partage de charge Les CI d'une paire de VM UIP interagissent avec des
VM d'interface d'arrière-plan par le biais du protocole de routage de couche 2, plutôt que de
couche 3.
In this topology:
Dans cette topologie:
Descriptions about interworking between EOR switches and CE routers are as follows:
Les descriptions de l'interfonctionnement entre les commutateurs EOR et les routeurs CE sont
les suivantes:
Aggregation switches, also known as EOR switches, are stacked and enabled with the
preferential local traffic forwarding function. A dedicated physical link needs to be
configured between two stacked EOR switches to perform dual-active detection (DAD).
Les commutateurs d'agrégation, également appelés commutateurs EOR, sont empilés et
activés avec la fonction de transfert de trafic local préférentiel. Une liaison physique
dédiée doit être configurée entre deux commutateurs EOR empilés pour effectuer une
détection double active (DAD).
Square-shaped connections are used between EOR switches and the routers on the IP
bearer network. Each EOR switch uses an Eth-trunk link to interconnect with a router.
On the EOR switch, an uplink VLAN is assigned to a service that must be transmitted
over the IP bearer network. Additionally, the Eth-trunk link connected to the IP bearer
network must be set to the Trunk type with the static Link Aggregation Control Protocol
(LACP) function, and allow all uplink VLANs. Each uplink VLAN corresponds to a
VLANIF and an IP address configured on the EOR switch for interworking with the
router over layer 3.
Des connexions en forme de carrésont utilisées entre les commutateurs EOR et les
routeurs sur le réseau de support IP. Chaque commutateur EOR utilise une liaison
Eth-trunk pour interconnecter avec un routeur. Sur le commutateur EOR, un VLAN de
liaison montante est attribuéàun service qui doit être transmis sur le réseau support IP.
De plus, la liaison Eth-trunk connectée au réseau support IP doit être réglée sur le type de
jonction avec la fonction LACP (static Link Aggregation Control Protocol), et permettent
tous les VLAN de liaison montante. Chaque VLAN de liaison montante correspond àun
VLANIF et àune adresse IP configurés sur le commutateur EOR pour interagir avec le
routeur sur la couche 3.
On each router, an Eth-trunk link is configured to interwork with an EOR switch. The
Eth-trunk link allows VLANs for services that need to be transmitted to the IP bearer
network, and enables the static LACP mode. Each VLAN corresponds to a VLANIF and
IP address configured on the router for interworking with the EOR switch.
Sur chaque routeur, une liaison Eth-trunk est configurée pour interagir avec un
commutateur EOR. La liaison Eth-trunk permet aux VLAN de fournir des services qui
doivent être transmis au réseau support IP, et active le mode LACP statique. Chaque
VLAN correspond àun VLANIF et une adresse IP configurés sur le routeur pour
interagir avec le commutateur EOR.
Multiple VPN instances are created on an EOR switch. Each VNF instance is used for
one or multiple services. On the EOR switch, the downlink gateway VLANIF for a
service and the uplink VLANIF connected to a router are bound to the corresponding
service VPN instance. Therefore service flows are logically isolated.
Plusieurs instances VPN sont créées sur un commutateur EOR. Chaque instance VNF est
utilisée pour un ou plusieurs services. Sur le commutateur EOR, la passerelle de liaison
descendante VLANIF pour un service et la passerelle de liaison montante VLANIF
connectée àun routeur sont liées àl'instance VPN de service correspondante.
The BFD function is enabled to accelerate route convergence between EOR switches and
routers.
La fonction BFD est activée pour accélérer la convergence de routage entre les
commutateurs EOR et les routeurs.
An EOR switch and a CE router can interwork with each other using the EBGP+BFD,
OSPF+BFD, or VRRP+BFD mode.
Un commutateur EOR et un routeur CE peuvent interagir les uns avec les autres en
utilisant le mode EBGP + BFD, OSPF + BFD, ou VRRP + BFD.
− When EBGP+BFD is used, an independent AS must be configured on the EOR
switch, and direct routes to VNFs must be imported to the BGP. In addition, service
packets between EOR switches and CE routers are forwarded in load-sharing mode.
Lorsque EBGP+BFD est utilisé, un AS indépendant doit être configurésur le
commutateur EOR, et les routes directes vers les VNs doivent être importées vers le
BGP. De plus, les paquets de service entre les commutateurs EOR et les routeurs
CE sont transmis en mode de partage de charge.
− When OSPF+BFD is used, each local VRF instance is bound to an independent
OSPF process, and the direct routes associated with the VRF are imported to the
OSPF. In addition, service packets between EOR switches and CE routers are
forwarded in load-sharing mode.
Lorsque OSPF+BFD est utilisé, chaque instance VRF locale est liée àun processus
OSPF indépendant, et les routes directes associées au VRF sont importées dans
l'OSPF. En outre, des paquets de service entre des commutateurs EOR et des
routeurs CE sont transmis en mode de partage de charge.
− When VRRP+BFD is used, the static IP address of the next hop and the priority of
the peer device need to be configured on the EOR switch.
Lorsque VRRP+BFD est utilisé, l'adresse IP statique du prochain saut et la priorité
du dispositif homologue doivent être configurées sur le commutateur EOR.
The descriptions about interworking between EOR switches and TOR switches are as follows:
Les descriptions concernant l'interfonctionnement entre les commutateurs EOR et les
commutateurs TOR sont les suivantes:
Access switches, also known as TOR switches, are stacked and enabled with the
preferential local traffic forwarding function. An independent physical link must be
configured between two stacked TOR switches to perform DAD. The two stacked TOR
switches are cross-connected to the stacked EOR switches and a cross-switch Eth-trunk
link is configured.
Les commutateurs d 'accès, également connus sous le nom de commutateurs TOR, sont
empilés et activés avec la fonction de transfert de trafic local préférentiel. Une liaison
physique indépendante doit être configurée entre deux commutateurs TOR empilés pour
effectuer un DAD. Les deux commutateurs TOR empilés sont interconnectés aux
commutateurs EOR empilés et un croisement La liaison Eth-trunk du commutateur est
configurée.
On EOR switches, the Eth-trunk link connecting to the TOR switches must allow all
VLANs to pass so that their traffic can be transmitted over the IP bearer network. Static
LACP must be enabled for the Eth-trunk. A VLANIF and an IP address are configured
for each allowed VLAN on the EOR switches. This IP address is used as the default
gateway IP address.
Sur les commutateurs EOR, la liaison Eth-trunk se connectant aux commutateurs TOR
doit permettre àtous les VLAN de passer afin que leur trafic puisse être transmis sur le
réseau IP support. Le LACP statique doit être activépour la liaison Eth-trunk. Un
VLANIF et une adresse IP sont configurés pour chaque VLAN autorisésur les
commutateurs EOR. Cette adresse IP est utilisée comme adresse IP de passerelle par
défaut.
When CSLB is used in CloudCore, service EOR switches require the following
additional configurations when interworking with TOR switches:
Lorsque CSLB est utilisédans CloudCore, les commutateurs EOR de service nécessitent
les configurations supplémentaires suivantes lors de l'interfonctionnement avec les
commutateurs TOR:
− Besides that VLANIFs are configured for interworking between IPU VMs and the
external networks, service EOR switches must establish OSPF/EBGP neighboring
relationships in the Ethernet trunk type with the IPU VMs. Each pair of IPU VMs
provides four equal-cost routes between a service address and a service EOR switch.
In this case, the service EOR switch can forward packets to be sent to the service
address in load-balancing mode over the two IPU VMs.
En plus du fait que les VLANFI sont configurés pour l'interfonctionnement entre les
machines virtuelles de l'UIP et les réseaux externes, les commutateurs EOR de
service doivent établir des relations de voisinage OSPF/EBGP dans le type de
jonction Ethernet avec les machines virtuelles de l'UIP. Chaque paire de machines
virtuelles de l'UIP fournit quatre des routes àcoût égal entre une adresse de service
et un commutateur EOR de service. Dans ce cas, le commutateur EOR de service
peut transférer des paquets àenvoyer àl'adresse de service en mode d'équilibrage
de charge sur les deux machines virtuelles de l'UIP.
− OSPF/EBGP neighboring relationships in the Ethernet trunk type are established
between the service EOR switch and IPU VMs. Therefore, DR election must be
performed between the service EOR switch and IPU VMs. To prevent network
flapping, the service EOR switch with the higher reliability in a stack is configured
as the DR router.
Les relations de voisinage OSPF/EBGP dans le type de jonction Ethernet sont
établies entre le commutateur EOR de service et les machines virtuelles IPU. Par
conséquent, l'option DR doit être exécutée entre le commutateur EOR de service et
les machines virtuelles IPU. Pour empêcher le battement du réseau, le commutateur
EOR de service présentant la plus grande fiabilitédans une pile est configuréen
tant que routeur DR.
− IPU VMs of the CSC and ATS process only signaling flows. The VLANIFs of the
CSC and ATS are bound to the signaling VRF instance. IPU VMs of the SPS
process signaling, network management, and data flows. The VLANIFs of the SPS
are bound to the corresponding signaling, network management, and data VRF
instances.
Les VMs IPU du CSC et ATS traitent uniquement les flux de signalisation. Les
VLANFI du CSC et ATS sont liés àl'instance VRF de signalisation. Les VMs IPU
du SPS traitent la signalisation, la gestion du réseau, Les VLANFI du SPS sont liés
aux instances VRF de signalisation, de gestion de réseau et de données
correspondantes.
− OSPF+BFD or VRRP+BFD is used for interworking between EOR switches and
CE routers.
OSPF+BFD ou VRRP+BFD est utilisépour l'interfonctionnement entre les
commutateurs EOR et les routeurs CE.
VRF Planning for EOR switches
Planification VRF pour les commutateurs EOR
EOR switches need a series of local VRF instances to isolate service flows at layer 3.
Les commutateurs EOR ont besoin d'une série d'instances VRF locales pour isoler les flux de
service au niveau de la couche 3.
Table 4-5
Table 4-5 VRF planning for EOR switches when no inter-zone firewall is deployed
Planification VRF pour les commutateurs EOR lorsqu'aucun pare-feu inter-zone n'est déployé
When inter-zone firewalls are deployed, you can use either the security solution or
recommended solution to plan VRFs. The differences between these two solutions are as
follows:
Lorsque des pare-feu inter-zones sont déployés, vous pouvez utiliser la solution de sécuritéou
la solution recommandée pour planifier les VFR. Les différences entre ces deux solutions sont
les suivantes:
VRF division in the security solution is stricter. Separate VRFs need to be planned for
the NFVI logical networks. In the recommended solution, however, the VRFs for the
trusted-zone OSS are also used for the NFVI logical networks.
La division VRF dans la solution de sécuritéest plus stricte. Des VFR séparés doivent
être planifiés pour les réseaux logiques NFVI. Dans la solution recommandée, cependant,
les VFR pour les OSS de zone de confiance sont également utilisés pour les réseaux
logiques NFVI.
In the security solution, signaling and data VRFs are separately planned. In the
recommended solution, however, signaling and data flows use the same VRFs.
Dans la solution de sécurité, les VFR de signalisation et de données sont planifiés
séparément. Dans la solution recommandée, cependant, la signalisation et les flux de
données utilisent les mêmes VFR.
Table 4-6
Table 4-7
IP addresses of the OSS_Service and OSS_VIM_API planes need to be applied for from carriers. The IP
addresses of the VNFM_Network_Internal and OSS_Self_Maintenance planes are internal addresses.
Therefore, application is not required.
Les adresses IP des plans OSS_Service et OSS_VIM_API doivent être demandées aux opérateurs. Les
adresses IP des plans VNFM_Network_Internal et OSS_Self_Maintenance doivent être demandées aux
opérateurs. sont des adresses internes. Par conséquent, l'application n'est pas requise.
When the messages are sent through OSS_Service and OSS_VIM_API interfaces to the external devices,
the source IP address may be a floating IP address or local IP address. In this situation, routes to both the
floating and local IP addresses must be configured on the external routers and peer device. If the routes
pass through firewalls, the firewalls must allow the flows of the floating and local IP addresses.
Lorsque les messages sont envoyés par les interfaces OSS_Service et OSS_VIM_API vers les
périphériques externes, l'adresse IP source peut être une adresse IP flottante ou une adresse IP locale. les
routes vers les adresses IP flottantes et locales doivent être configurées sur les routeurs externes et le
périphérique homologue. Si les routes passent àtravers les pare-feu, les pare-feu doivent permettre les
flux des adresses IP flottantes et locales.
Table 4-9 Interface IP address, VLAN, and VPN plan of the vOSMU
Adresse IP d'interface, VLAN et plan VPN du vOSMU
You need to plan a floating IP address for the NFVO VMs on the OSS_Self_Maintenance logical
network only for NFVO 19.1.
Vous devez planifier une adresse IP flottante pour les machines virtuelles NFVO sur le réseau logique
OSS_Self_Maintenance uniquement pour NFVO 19.1.
The CSM cannot interwork with the U2000/U2020 on which southbound and northbound interfaces
are separated.
Le CSM ne peut pas interagir avec l'U2000/U2020 sur lequel les interfaces vers le sud et vers le
nord sont séparées.
OSS_ExtNet1 and OSS_ExtNet2 planes are optional. Plan these two planes when the carrier requires
that southbound and northbound interfaces are separated. Configure a gateway IP address for each
external plane except for the OSS_Self_Maintenance plane.
Les plans OSS_ExtNet1 et OSS_ExtNet2 sont optionnels. Planifiez ces deux plans lorsque la
porteuse requiert que les interfaces vers le sud et vers le nord soient séparées. Configurez une
adresse IP de passerelle pour chaque plan externe, sauf pour OSS _. Plan d'auto-maintenance
OSS_ExtNet1 and OSS_ExtNet2 planes are optional. Plan these two planes when the carrier requires
that southbound and northbound interfaces are separated. Configure a gateway IP address for each
external plane except for the OSS_Self_Maintenance plane.
Les plans OSS_ExtNet1 et OSS_ExtNet2 sont optionnels. Planifiez ces deux plans lorsque la porteuse
requiert que les interfaces vers le sud et vers le nord soient séparées. Configurez une adresse IP de
passerelle pour chaque plan externe, sauf pour OSS _. Plan d'auto-maintenance
The following table shows the total IP address requirement of Site S1.
Le tableau suivant montre l'adresse IP totale requise pour le site S1.
5.1.2 Alarms
Alarmes
Figure 5-3
Figure 5-3 Alarm interfaces of U2000/U2020 in independent deployment mode when CloudCore
is independently deployed
Interfaces d'alarme d'U2000/U2020 en mode de déploiement indépendant lorsque CloudCore est
déployéindépendamment
Figure 5-4 Alarm interfaces of U2020 in integrated deployment mode when CloudCore is
independently deployed
Interfaces d'alarme d'U2020 en mode de déploiement intégrélorsque CloudCore est déployé
indépendamment
In this topology:
Dans cette topologie:
The VNFM VM and EMS VM are deployed in the management domain.
La VM VNFM et la VM EMS sont déployées dans le domaine de gestion.
The REST protocol is used between the VNFM and the EMS. The VNFM forwards the
NFVI alarm information received from the VIM to the EMS.
Le protocole REST est utiliséentre le VNFM et l'EMS. Le VNFM transmet les
informations d'alarme NFVI reçues du VIM àl'EMS.
The CloudOpera CSM can use either of the following two modes to interconnect to the
U2000/U2020-MBB:
Le CSM CloudOpera peut utiliser l'un des deux modes suivants pour s'interconnecter à
l'U2000/U2020-MBB:
− Integrated mode
Mode intégré
In this mode, one CloudOpera CSM is interconnected with one U2000/U2020-MBB
by running commands in the CloudOpera CSM background. The
U2000/U2020-MBB centrally authenticates VNFs on the U2000/U2020-MBB. If
the U2000/U2020-MBB is faulty, the CloudOpera CSM's authentication
information will be lost, and the CloudOpera CSM will be unavailable.
Dans ce mode, un CSM CloudOpera est interconnectéavec un U2000/U2020-MBB
en exécutant des commandes dans l'arrière-plan CSM CloudOpera.
L'U2000/U2020-MBB authentifie centralement les VNF sur U2000/U2020-MBB.
Si l'U2000/U2020-MBB est défectueux, les informations d'authentification du CSM
CloudOpera seront perdues et le CSM CloudOpera ne sera pas disponible.
Interconnected mode
Mode interconnecté
In this mode, one CloudOpera CSM can be interconnected with multiple
U2000/U2020-MBBs on the CloudOpera CSM Web portal, and vice versa. The
CloudOpera CSM and U2000/U2020-MBB authenticate VNFs independently, which
means that services of the peer will not be affected if either of them is faulty. Note that
the interconnected mode supports a maximum of eight U2000/U2020-MBBs and ten
CloudOpera CSMs.
Dans ce mode, un CSM CloudOpera peut être interconnectéavec plusieurs MBB
U2000/U2020-MBB sur le portail Web CloudOpera CSM, et vice versa. Le CloudOpera
CSM et U2000/U2020-MBB authentifient les VNFs indépendamment, ce qui signifie
que les services de l'homologue ne seront pas affectés si l'un d'eux est défectueux. Notez
que le mode interconnectéprend en charge un maximum de huit U2000/U2020-MBB et
dix CloudOpera CSM.
6 Reliability Design
Conception de fiabilité
Table 6-1 Geographical redundancy solution for the VNFs in the VoBB/VoLTE solution
Solution de redondance géographique pour les VNF dans la solution VoBB/VoLTE
The SingleSDB solution uses 1+1 load-sharing solution. Once the VNFs at the active site or
DC become faulty, services are switched over to the VNFs at the load-sharing site or DC.
La solution SingleSDB utilise la solution de partage de charge 1 + 1. Une fois que les VNF
sur le site actif ou le DC deviennent défectueux, les services sont commutés vers les VNF sur
le site de partage de charge ou le DC.
Table 6-2
Table 6-2 Geographical redundancy solution for the VNFs in the SingleSDB solution
Solution de redondance géographique pour les VNF dans la solution SingleSDB
The SPS solution uses 1+1 load-sharing solution. Once the VNFs at the active site or DC
become faulty, services are switched over to the VNFs at the load-sharing site or DC.
La solution SPS utilise la solution de partage de charge 1 + 1. Une fois que les VNF sur le site
actif ou le DC deviennent défectueux, les services sont commutés vers les VNF sur le site de
partage de charge ou le DC.
Table 6-3
Table 6-3 Geographical redundancy solution for the VNFs in the SPS solution
Solution de redondance géographique pour les VNs dans la solution SPS
Table 6-4
Table 6-4 Geographical redundancy solution for the VNFs in the UPCC solution
Solution de redondance géographique pour les VNF dans la solution UPCC
Solution VNF Supported Redundancy Recommended Redundancy
Solution VNF Solution Solution
Solution de redondance Solution de redondance
prise en charge recommandée
UPCC PCRF 1+1 load-sharing 1+1 active/standby
UPCC PCRF Partage de charge 1+1 1 + 1 actif/veille
1+1 active/standby
1+1 actif/veille
N+1 active/standby
N + 1 actif/veille
USCDB USCDB 1+1 active/standby 1+1 active/standby
USCDB USCDB 1 + 1 actif/veille 1 + 1 actif/veille
The multi-DC multi-disk-array solution is recommended. Two disk arrays are configured for a DC, by
default. When two disk arrays are configured for a DC and multiple redundancy sites are deployed, if the
active disk array becomes faulty, services are switched over to the standby disk array at the same site. If
both disk arrays become faulty, services are switched over to other redundancy sites. The VMs working
in active/standby or load-sharing mode are separately deployed on two disk arrays.
La solution multi-disques DC est recommandée. Deux disques sont configurés pour un DC, par défaut.
Lorsque deux disques sont configurés pour un DC et que plusieurs sites de redondance sont déployés, si
le disque actif devient défectueux, Les services sont commutés sur la baie de disques de secours sur le
même site. Si les deux baies de disques deviennent défectueuses, les services sont commutés sur d'autres
sites de redondance. Les machines virtuelles fonctionnant en mode actif/veille ou partage de charge sont
déployées séparément sur deux baies de disques.
and service nodes. Take the signaling distribution on the CSC/ATS VMs as an example. An
interface VM uses the service distribution parameter (dpt) to select a service node. If the
service distribution parameter is unavailable, the interface VM queries the HASH settings on
the protocol application layer and distributes service flows to different nodes.
Lorsque le CloudCore CSC, ATS et SPS utilise la solution CSLB, les charges sur les nœuds à
tous les niveaux sont équilibrées. Si un nœud devient défectueux, le noeud de niveau
supérieur utilise l'algorithme HASH pour sélectionner un autre noeud disponible pour prendre
en charge les services. Les routeurs physiques sont empilés pour améliorer la fiabilité. Quatre
routes dynamiques OSPF àcoût égal sont établies entre les routeurs physiques et les machines
virtuelles de l'UIP pour former quatre voies de chargement chemins d'équilibrage. Le hachage
basésur Quintuple est utiliséentre les VM d'interface d 'arrière-plan et les VM d'UIP. Les flux
de service avec le même quintuple sont transmis àla même VM d'interface. Le hachage basé
sur Septum est utilisé entre les VM d'interface et les nœuds de service. Activez la distribution
de signalisation. les VM CSC/ATS àtitre d'exemple. Une VM d'interface utilise le paramètre
de distribution de service (dpt) pour sélectionner un nœud de service. Si le paramètre de
distribution de service n'est pas disponible, la machine virtuelle d'interface interroge les
paramètres HASH sur la couche d'application de protocole et distribue des flux de services à
différents noeuds.
Figure 6-1
Figure 6-1 Service flow distribution when the CSLB is running properly
Distribution du flux de service lorsque le CSLB fonctionne correctement
Figure 6-2
Figure 6-3
Figure 6-3 Service flow distribution when a background interface VM becomes faulty
Distribution du flux de service lorsqu'une VM d'interface d'arrière-plan devient défectueuse
System data backup and restoration policy for the VNFM and U2000/U2020-MBB:
Politique de sauvegarde et de restauration des données système pour le VNFM et
U2000/U2020-MBB:
System data can be categorized into three application levels: OS data, static data, and dynamic
data. The data hierarchy is shown in Figure 8-5.
Error! Reference source not found.
The backup and restoration relationship between the three types of data is as follows:
La relation de sauvegarde et de restauration entre les trois types de données est la suivante:
You can back up each type of data independently.
Vous pouvez sauvegarder chaque type de données indépendamment.
Restore the three types of data in the following order: OS data > static data > dynamic
data. Ensure that the lower-layer data is successfully restored before you restore
upper-layer data.
Restaurez les trois types de données dans l'ordre suivant: Données du système
d'exploitation > données statiques > données dynamiques. Assurez-vous que les données
de la couche inférieure sont correctement restaurées avant de restaurer les données de la
couche supérieure.
Table 6-6 Data backup and restoration methods for the VNFMand U2000/U2020-MBB
Méthodes de sauvegarde et de restauration des données pour le VNFMet U2000/U2020-MBB
provide automatic synchronization of data backed up from active sites, automatic restoration,
and service takeover functions. With the geographical redundancy system deployed, if an
active site becomes faulty and cannot provide services due to floods, earthquakes, long-time
power failures, or other disasters, its standby site takes over services and manages the VNFs,
reducing the impact on O&M due to the fault at the active site.
Scénario d'application: Dans les scénarios de virtualisation, les sites dotés de systèmes de
gestion de l'environnement et de systèmes de gestion de la liaison descendante déployés sont
classés en sites actifs et en sites de secours. Les sites actifs fournissent des services et les sites
de secours assurent la synchronisation automatique des données sauvegardées àpartir de sites
actifs, la restauration automatique, Avec le système de redondance géographique déployé, si
un site actif devient défectueux et ne peut pas fournir de services en raison d'inondations, de
tremblements de terre, de pannes de courant de longue durée ou d'autres catastrophes, son site
de secours prend en charge les services et gère les VNs, réduire l'impact sur le fonctionnement
et l'entretien en raison de la défaillance sur le site actif.
Figure 6-6
The backup server (the vOSMU system or remote server) of the standby site
periodically checks whether the backup package in the backup server of the active
site is updated based on the specified synchronization time. If the backup package
has been updated, the standby site starts data synchronization.
Le serveur de sauvegarde (le système vOSMU ou le serveur distant) du site de
secours vérifie périodiquement si le paquet de sauvegarde dans le serveur de
sauvegarde du site actif est mis àjour sur la base du temps de synchronisation
spécifié. Si le paquet de sauvegarde a étémis àjour, le site de secours démarre la
synchronisation des données.
− Restoration
Restauration
After the backup server of the standby site synchronizes dynamic data from the
backup server of the active site, it sends the dynamic data to the VNFM and the
U2000/U2020-MBB of the standby site. The dynamic data is immediately restored
on the VNFM and the U2000/U2020-MBB of the standby site. If the active site is
faulty, the redundancy system manually takes over services of the active site,
ensuring quick service restoration.
Une fois que le serveur de sauvegarde du site de secours synchronise les données
dynamiques du serveur de sauvegarde du site actif, il envoie les données
dynamiques au VNFM et au U2000/U2020-MBB du site de secours. Les données
dynamiques sont immédiatement restaurées sur le VNFM FM et
U2000/U2020-MBB du site de secours. Si le site actif est défectueux, le système de
redondance prend en charge manuellement les services du site actif, assurant ainsi
une restauration rapide du service.
The redundancy system does not have the backup and restoration functions because
the redundancy system is a temporary system only used in emergency. If the
redundancy system becomes faulty, deploy it again.
Le système de redondance n'a pas les fonctions de sauvegarde et de restauration car
le système de redondance est un système temporaire utiliséuniquement en cas
d'urgence. Si le système de redondance devient défectueux, déployez-le ànouveau.
Takeover mechanism: The redundancy system supports only manual takeover. If the
active site becomes faulty, manually stop data synchronization at the standby site and
start the VNFM and U2000/U2020-MBB services at the standby site to enable the
standby site to take over services.
Mécanisme de reprise: le système de redondance ne prend en charge que la reprise
manuelle. Si le site actif devient défectueux, interrompre manuellement la
synchronisation des données sur le site de secours et démarrer les services VNFM et
U2000/U2020-MBB sur le site de secours pour permettre au site de secours de prendre
en charge les services.
NFVO local redundancy networking solution
Solution réseau de redondance locale NFVO
The local NFVO is installed on two VMs to achieve active/standby redundancy.
Le NFVO local est installésur deux machines virtuelles pour obtenir une redondance
active/de secours.
NFVO remote redundancy networking solution
Solution de réseau de redondance àdistance NFVO
− This solution involves two sets of NFVO systems. Two sites work in redundancy
mode. When a fault occurs on the site that provides external services, the other site
takes over services from the faulty site.
Cette solution implique deux ensembles de systèmes NFVO. Deux sites
fonctionnent en mode redondance. Lorsqu'un défaut survient sur le site qui fournit
des services externes, l'autre site prend en charge les services du site défectueux.
− The remote DR system uses remote data replication which requires SSL-based
communication (similar to the VPN) and has the following requirements:
Le système de reprise après sinistre àdistance utilise la réplication de données à
distance qui nécessite une communication basée sur le protocole SSL (similaire au
VPN) et qui a les exigences suivantes:
Bandwidth ≥ 1000 Mbit/s
Largeur de bande ≥ 1000 Mbit/s
Delay < 50 ms
Délai < 50 ms
Packet loss rate < 0.1%
Taux de perte de paquets < 0,1 %
− Time for the switchover between redundant networks < 50 ms.
Temps de basculement entre les réseaux redondants < 50 ms.
Active and standby site deployment requirements and network plan: Before you deploy
the geographical redundancy system, ensure that all the VMs are created and applications
are deployed for the active and standby sites and the configurations and the node
relationship are the same at the two sites.
Exigences de déploiement des sites actifs et de secours et plan de réseau: Avant de
déployer le système de redondance géographique, assurez-vous que toutes les machines
virtuelles sont créées et que les applications sont déployées pour les sites actifs et de
secours et que les configurations et la relation entre les nœuds sont les mêmes sur les
deux sites.
The detailed requirements are described as follows:
Les exigences détaillées sont décrites comme suit:
− VMs are created and applications are deployed using the same topology and
network interfaces for the U2000/U2020-MBB, VNFM, and vOSMU at active and
standby sites.
Des machines virtuelles sont créées et des applications sont déployées àl'aide de la
même topologie et des mêmes interfaces réseau pour les U2000/U2020-MBB,
VNFM et vOSMU sur des sites actifs et de secours.
− The application software versions are the same.
Les versions du logiciel d'application sont les mêmes.
− The database versions are the same for the U2000/U2020 at active and standby sites.
Les versions de la base de données sont les mêmes pour U2000/U2020 sur les sites
actifs et en veille.
− The OSs and the database passwords are the same.
Les OS et les mots de passe de la base de données sont les mêmes.
− The Coordinated Universal Time (UTC) on each VM at active and standby sites is
the same, that is, the same clock source is used to configure the NTP clock
synchronization data on each VM.
Le temps universel coordonné(UTC) sur chaque VM sur les sites actifs et de
secours est le même, c'est-à-dire que la même source d'horloge est utilisée pour
configurer les données de synchronisation d'horloge NTP sur chaque VM.
− The number of nodes for the U2000/U2020 virtual cluster systems at active and
standby sites is consistent.
Le nombre de nœuds pour les systèmes de grappes virtuelles U2000/U2020 sur les
sites actifs et de secours est constant.
− VM resources at the active and standby sites meet the initial installation
requirements.
Les ressources des machines virtuelles sur les sites actifs et de secours répondent
aux exigences d'installation initiales.
7
Service NEs Design
Conception des NE de service
Table 8-1