Академический Документы
Профессиональный Документы
Культура Документы
Avant-propos :
INTRODUCTION :
I-1-CADRE THEORIQUE
I-1-1-Problématique :
Actuellement, toutes les entreprises désirent avoir un espace de stockage plus évolutif.
Le problème du stockage des données est une préoccupation majeure qui concerne quasiment
toutes les couches sociales car les volumes à stocker ne cessent d’augmenter, Il faut donc
trouver une solution évolutive à faible coût. Cette solution vient résoudre le problème du
stockage local, techniquement appelé DAS (Direct Attached Storage), qui est l’ensemble de
disques de stockage qui sont directement rattachés au serveur dont les échanges de données se
font en mode bloc. Dans une infrastructure où les réseaux deviennent plus conséquents, le
stockage local autrement appelé DAS entraine de nouveaux problèmes entre autres:
En effet, dans certaines entreprises où les serveurs de bases de données sont fréquents,
l’espace disque est amené à augmenter de manière exponentielle. Ces résultats soulèvent deux
problématiques :
1. Hausse de la demande en espace disque, d’où augmentation des sauvegardes.
2. Hausse de la disponibilité des serveurs, d’où réduction du temps de sauvegarde.
Aujourd’hui toutes les entreprises aspirent avoir un système de stockage orienté
centralisé. Le réseau SAN (Storage Area Network) est une technologie de stockage en réseau.
Les solutions basées sur un réseau de stockage sont les plus évolutives au point de vue de
l’augmentation de l’espace de stockage. C’est un réseau physique en fibre optique ou en câble
Ethernet (iSCSI), dont le but est de permettre la mise en relation de serveurs avec des baies de
disques. Les données stockées sont routées et hiérarchisées via des commutateurs. Le SAN
connecte l’ensemble des unités de stockages et des serveurs. Cette nouvelle solution vient
donc résoudre le problème en matière de stockage et permet :
o Des regroupements des disques et de bandes ;
o Des partages des ressources de stockage entre un nombre très important de systèmes
de traitement et d’utilisateurs ;
o La résolution de problèmes de connectivité entre plusieurs serveurs et unités de
stockage
o La sauvegarde et la restauration de données hors LAN et sans serveur
o Des partages de données hétérogènes
o Un accès plus rapide aux données
Dans le cas d’un système de messagerie collaboratif, la solution SAN permettra donc de
mieux gérer le problème de stockage et permettre un plan de continuité de service, en cas de
panne du serveur, car les données (mails, documents…) ne sont pas stockés en local sur le
serveur, mais sur la baie de disques SAN.
I-1-2-Intérêt du sujet :
L’intérêt du sujet consiste à disposer et à gérer un espace de stockage réseau SAN, qui
est un réseau spécialisé permettant de mutualiser des ressources de stockage. L’avantage
immédiat est d’apporter une grande souplesse de gestion à l’allocation dynamique
d’espace et d’induire une réduction des coûts. Les baies de disques proposent les
architectures RAID avec disque de secours. Les alimentations et les accès sont
doublés pour éviter les points de défaillance. Les réseaux SAN facilitent les opérations
de sauvegarde et de reprise après incident. Les données peuvent ainsi être mises en
miroir sur un site distant en vue d'une reprise transparente après incident, ou être
sauvegardées rapidement sur un autre site sans que cela n'affecte les
performances réseau. Un réseau SAN permet de sauvegarder plusieurs giga-octets de données
en quelques heures seulement. De plus, il prend en charge un large éventail de
technique réseau (déroutement, clusterisation, reprise à chaud, mise en miroir et réplication,
par exemple). Ces techniques assurent une protection contre la perte de données, et
améliorent la disponibilité des informations.
Les ressources de stockage ainsi mutualisées, elles donnent la possibilité de mettre en œuvre
des fonctions de réplication et de la duplication d’un volume pour utiliser sur un autre serveur
ou pour la sauvegarde. Le réseau SAN permet ainsi de meilleures performances tout en
déchargeant le réseau local. Il est basé sur les protocoles Fibre Channel (FC), iSCSI, FCoE.
Le SAN étant le réseau sur lequel sont connectés les serveurs et les périphériques de
stockage (baie de disque). Tout serveur peut accéder à chacun des périphériques. Les éléments
que l’on trouve le plus couramment sont :
I-1-3-Objectif à atteindre :
I-2-CADRE METHODOLOGIQUE
I-2-1-Cadre de l’étude :
I-2-3-Techniques d’investigations :
I-3-CADRE CONCEPTUEL
I-3-1-Stratégie de l’architecture :
I-3-1-1-Compréhension du sujet :
PARTIE II
CONCEPTS GENERAUX ET DEFINITIONS
La solution NAS
Définition:
Principe:
L’utilisation d’un NAS est adaptée aux applications faisant appel au service de fichiers
comme l’hébergement de sites WEB ou encore les serveurs de fichiers ou de messagerie. Les
serveurs NAS contribuent à accroître les capacités de stockage "à la volée", ce qui permet de
rediriger le trafic réseau et évite d'avoir à ajouter des nœuds réseau supplémentaires.
Fonctionnement du NAS
II-1-2- Stockage en mode bloc et le SAN
La solution SAN
Définition:
Principe :
Le SAN a un principe de fonctionnement qui est simple auquel des contrôleurs font en
sorte que les données soient protégées de l’accès client, chaque serveur est connecté aux
commutateurs et placé de façon hiérarchisée. Ces données sont en tout temps disponibles
selon un contrôleur qui décide si oui ou non ces données peuvent être acheminées au serveur.
Pour le SAN, l’accès aux systèmes de stockage (volumes physiques) se fait en mode bloc
à partir d’un réseau de stockage (SAN)
Fonctionnement du SAN
Cible ou Target
Une Cible ou Target c’est typiquement une baie de stockage exportant les LUN
(Logical United Number) recevant la commande SCSI.
LUN
Un LUN correspond à un disque (disque en RAID). Au niveau de la baie de disque,
chaque disque est identifié par un LUN.
Adresse iSCSI :
C’est une adresse qui identifie de manière unique un disque. Il ya deux types d’adresse
iSCSI :
Les adresses IEEE (Institut Engeneer Electronical and Electricity) : ont pour préfixe eui.
Les adresses IETF (Internet Engeneer Task Force) : ont pour préfixe iqn, et sont les plus
utilisées. L’adresse utilisée par Openfiler est de type iqn (iSCSI Qualified Name).
Selon http://www.cuddletech.com/articles/iscsi/ar01s02.html, un iqn est de la forme suivante :
iqn.2006-01.com.openfiler:tsn.9ed4ca97e298
iqn: est fixe, il permet d’identifier le type d’adressage utilisé.
La technologie Fibre Channel sur laquelle repose le réseau SAN utilise une boucle
arbitrée qui offre des vitesses de transfert de données réelles de 100Mbps. Si l'on compare
ce débit à celui qu’offrent aujourd'hui la technologie SCSI, soit entre 40 et 80Mbps, l'écart est
considérable. Toutefois, une nouvelle technologie SCSI est actuellement en cours de
développement. Elle promet d'amener les vitesses de transfert SCSI à un niveau proche de
celui qu'offre aujourd'hui la technologie Fibre Channel. Les réseaux SAN peuvent
également prendre en charge un nombre quasiment illimité de matériels, si votre
entreprise est prête à investir dans l'infrastructure (serveurs, multiplexeurs, passerelles
et unités de stockage).
Le réseau en Fibre Channel, la baie de disque est reliée à un commutateur SAN. Chaque
serveur est relié à un commutateur via sa carte HBA. Ici le commutateur assure le transfert
des données (par blocs) des serveurs à la baie, et s’assure que chaque requête a bien été prise
en compte.
Faire un, schéma SAN FC
Fibre Channel over Ethernet en sigle FCoE, il désigne le protocole qui encapsule les
trames Fibre Channel provenant d’un réseau de stockage SAN ou sur un réseau Ethernet. La
norme FCoE a été publiée en juin 2009.
Les intérêts essentiels de FCoE sont la simplification de l’architecture et la réduction
des coûts. Historiquement, le raccordement des serveurs aux baies de stockage mutualisées se
faisait soit en Fibre Channel, solution performante mais couteuse car elle nécessite des
switches et un réseau dédié, soit en iSCSI qui adapte aux petits SAN, mais posant parfois des
problèmes de performances.
Fonctionnement du FCoE
II-2-2-1-Solutions virtuelles
II-2-2-1-a-Openfiler:
Une distribution GNU/Linux spécialisée dans des solutions pour la virtualisation du
stockage distribué sous licence GPL. Ce qui le différencie des autres est qu’il est un système
embarqué et autonome c'est-à-dire qu’il s’installe tout seul et n’a pas besoin d’un système
d’exploitation hôte.
La distribution d’Openfiler a été créée par la société Xinit System Ltd en 2001 et a été
donnée à la communauté Open Source en 2003. Pour plus d’information consulter le site
http://www.openfiler.com/.
Les deux versions d’Openfiler disponibles en image ISO d’installation sont: 32 et 64bits.
II-2-2-1-b-SANsymphony-V
C’est un logiciel qui permet de virtualiser le stockage fondé en 1998 par la société
DATACORE. SANsymphony-V offre également la possibilité de former une couche de
virtualisation évolutive de l’infrastructure de stockage afin d'améliorer les capacités et
centraliser sa gestion.
La solution SANsymphony-V permet au niveau des groupes de disques:
II-2-2-2-Solutions Physiques
Zimbra étant développé en Java J2EE et arrivé sur le marché en 2004, en janvier 2007,
l'éditeur de Zimbra affirmait avoir 6 millions d'utilisateurs, le 17 septembre 2007, la société
Yahoo rachète Zimbra pour 350 millions de dollars et en 2010 par la société VMware.
Depuis, Zimbra est disponible sous deux versions: communautaire et commerciale.
Zimbra est un produit sous licence libre qui est basé sur des logiciels libres (Postfix,
OpenLDAP, MySQL, Jetty,…) et développé autour des nouvelles technologies Web Ajax
ensuite il s'installe uniquement sur une plate-forme de type Linux (RedHat, Suse, Ubuntu,
CentOS, ...). Aujourd’hui, l'engagement de Zimbra ne cesse de nous combler en nous offrant
certaines compatibilités avec des protocoles comme: SMTP, IMAP, POP, CardDAV,
CalDAV et Apple iSync, notamment les Smartphones iPhone, Androïde, Windows et
BlackBerry. Zimbra garantit une haute disponibilité tout en prenant en charge la
virtualisation, ainsi que la sauvegarde et la restauration en ligne, notamment au niveau des
boîtes de messagerie individuelles.
Zimbra Collaboration Suite (Zcs) étant une plateforme Open source offrant une
potentialité de gérer plusieurs comptes et domaines sur le même serveur de messagerie.
L’architecture générale de Zimbra s’illustre sur la figure ci-dessous :
Architecture générale de Zimbra
La messagerie électronique
MTA (Mail Transfer Agent): Agent de Transfert de mail => serveur SMTP
(Exchange, Postfix, Exim, Sendmail).
MDA (Mail Deliver Agent) : agent de livraison de mail => serveur POP ou IMAP
(Cyrus, Dovecot, Courrier-imap, uw-imap).
MUA (Mail User Agent) : agent de lecture et écriture de mail => client de messagerie
(Outlook, Zimbra Desktop, Squirre mail, Evolution, Thunderbird, Round cube).
Est un protocole de la couche application qui permet de lire des mails jouant ainsi le
rôle de MUA (Mail User Agent ou agent de lecture et écriture de mail). Il représente le client
de messagerie ensuite il est écouté sur le port TCP 110 dans sa version 3 qu’on appelle
aujourd’hui POP3 et le port 995 dans sa version sécurisé.
Le DNS joue le rôle important dans le courriel électronique. Il est utilisé à la fois par les
programmes clients de courrier de messagerie et par les serveurs de messagerie. Dans de
nombreux contextes réseau, seuls deux types d’enregistrement DNS sont utilisés:
L’enregistrement de type A pour la résolution directe
L’enregistrement de type PTR pour la résolution indirecte.
Le courrier électronique utilise aussi ces deux types d’enregistrement plus un troisième qui lui
est uniquement dédié: l’enregistrement MX (Mail eXchanger). Ce type d’enregistrement
permet de localiser le MTA.
Le Travail Collaboratif
Zimbra est un outil complet proposant les outils de travail collaboratif suivants :
Mail:
Zimbra offre la possibilité de partager un dossier de messagerie, de définir des boîtes mail
génériques ou encore des groupes d’utilisateurs (avec une adresse de groupe);
Calendrier:
Zimbra offre la capacité de :
Partager des calendriers entre les utilisateurs;
Créer facilement des événements;
Consulter les disponibilités des utilisateurs;
Réserver des ressources (salle, matériel…).
Accès mobile:
Zimbra offre le pouvoir d’être consulté à partir d’appareils, des téléphones du marché de masse pour
Smartphones.
Préférences:
Qui a la possibilité de personnaliser les modules de Zimbra.
Encore appelé installation tout en un qui est le cas d’école c'est-à-dire qu’on installe tous les
rôles de Zimbra sur la même machine.
Installation de type multiserveur:
Ce type d’installation consiste à configurer certains rôles sur d’autres serveurs.
Sur le 1er serveur, on installe essentiellement le rôle de Zimbra LDAP et Zimbra Store
Sur le 2e serveur, appelé techniquement relais-SMTP sur lequel on installe
essentiellement Zimbra MTA et Zimbra Proxy. Ce serveur sera placé dans une zone
Tampon appelée DMZ et sur ce même serveur que seront installés l’antivirus et
l’antispam.
A ce stade, il faut créer un espace de stockage avec les disques présents sur la cible.
Nous allons ici implémenter la technologie LVM appuyée sur la matrice RAID-5.
Pour l’espace de stockage qui sera créé à fin d’héberger nos e-mails, notre choix se
porte sur le RAID-5 par ce que, parmi les différents niveaux du RAID, ceux qui peuvent
constituer les unités de stockages sont: RAID-0; RAID-5 et le RAID-10 par contre le RAID-1
est utile pour faciliter la tolérance aux pannes.
Pour notre pratique, nous disposons tout d’abord de 02 disques durs de 15Go sur lequel nous
installerons notre système d’exploitation Red Hat 6 basé sur les deux disques en RAID-1;
Avant notre mise en œuvre pratique, explicitons apriori le commun de mortels de la lanterne
sur les concepts RAID et LVM:
Étant une technologie qui constitue une unité de stockage à partir de plusieurs disques durs ou
encore le moyen par lequel de multiples disques durs peuvent agir comme un seul disque dur.
RAID Logiciel: ici le contrôleur RAID se trouve lié au système d’exploitation ou encore le
contrôleur RAID est contenu dans le noyau du système d’exploitation.
RAID Matériel: ici le contrôleur RAID est géré depuis le Bios.
Le Contrôleur RAID: est un composant logiciel/électronique permettant de gérer le RAID.
Sous GNU/Linux:
Pour notre cas, nous baserons sur le RAID Logiciel c'est-à-dire que le contrôleur RAID se
trouve lié au système d’exploitation.
Il y a plusieurs niveaux de RAID mais les plus courant sont: RAID-0; RAID-1; RAID-5 et
RAID-10.
RAID-0:
Il utilise le 1er principe RAID appelé stripping auquel une information est divisée ou repartie
sur plusieurs disques, il se fait sur deux disques minimum de même taille ainsi la taille totale
de la matrice RAID-0 est égale à la somme des disques mis en RAID. Chaque opération de
lecture/écriture sera divisée sur chaque disque, ainsi les performances sont accrues puisque
les lectures et écritures sont effectuées en parallèle sur les disques.
Son inconvénient est que si un des disques tombe en panne, toutes les données seraient
perdues.
RAID-1:
Il utilise le 2e principe RAID communément appelé mirroring qui offre la redondance des
données c’est à dire la même donnée est copiée sur plusieurs disques. Il est faisable sur deux
disques de même taille minimum, ainsi ses performances en lecture sont bonnes, car RAID
emploie un algorithme qui lit les données sur chaque disque ensuite la taille de la matrice
RAID-1 à la taille de l’un des disques. Son inconvénient est qu’il peut nuire à la performance
en écriture car l’information doit être écrite ou copiée sur plusieurs disques en même temps.
RAID-5:
Il était le 3e principe RAID utilisant le stripping et la parité comme des principes, pour sa
faisabilité Il faut trois disques minimum peu importe leur taille. Ici les données dites de parité
sont reparties sur tous les disques permettant ainsi de retrouver les données perdues lors de
la panne d’un des disques. Ainsi la taille totale de la matrice RAID-5 est égale à la taille du
plus petit disque dur multiplié par le nombre de disque mis en RAID moins 1.
RAID 10 ou (1+0):
Il est la combinaison de RAID-1 et de RAID-0, qui offre les avantages simultanés du RAID-1
et RAID-0: augmentation de la taille de stockage et des performances de lecture. Il faut au
minimum quatre disques de stockage pour créer un volume RAID-10.
NB:
Quand un disque faisant partie d’un RAID tombe en panne, on est à la merci d’une
deuxième panne, il faut tout de même le plus vite possible changer le disque
défaillant et reconstruire le RAID.
Le disque de secours communément appelé Spare Disk, qui ne fait pas partie
intégrante d'une matrice RAID. En effet, quand un disque tombe en panne, il est
marqué: disque défectueux et le premier disque Spare prend le relais.
III-2-1-2-LVM
C’est une technologie permettant de regrouper les supports de stockage dit disques physiques
(disque, RAID matériel/physique, support de stockage en provenance d’un SAN), en outre il
sert à étendre ou tailler la taille d’une partition de disque encours d’utilisation sans perdre les
données.
Cliquons sur (le triangle vert ou power on this virtual machine) pour commencer l’installation;
Sélectionnons «Français (pc)», qui définit la langue du clavier ensuite cliquons sur «Suivant»;
Une fois que les deux disques sélectionnés pour faire le RAID-1, cliquons sur «Suivant»;
Cliquons sur «Réinitialiser tout»;
Une fois sélectionné la ville et le continent que l’on réside, cliquons sur «Suivant»;
Une fois saisi le mot de passe composé de lettres: majuscule, minuscule, chiffre, (minimum
06 caractères) de «root ou super-utilisateur», cliquons sur «Suivant»;
Une fois sélectionné un des périphériques, cliquant sur la flèche qui permettra à celui de
traverser de l’autre côté afin qu’il devienne le chargeur de démarrage
Une fois coché le disque «sda» et défini la taille du (/boot) ou la taille du type de système
de fichier à « 1Go», cliquons sur «valider»;
Une fois coché le disque «sdb» et défini la taille du (/boot) ou la taille du type de système
de fichier à « 1Go» puis cliquons sur «valider»;
Une fois sélectionné le disque «sda», doublons la taille de la partition (SWAP) ou RAM
c'est-à-dire (2048=2xRAM) ensuite cliquons sur «valider»;
Cliquons sur «Créer»;
Une fois sélectionné le disque «sdb», doublons la taille de la partition (SWAP) ou RAM
c'est-à-dire (2048=2xRAM) ensuite cliquons sur «valider»;
Une fois rempli les informations relatives à l’utilisateur «Nom utilisateur, Nom
complet, Mot de passe et confirmer le mot de passe) qui sont obligatoires, cliquons sur
«Suivant»;
Une fois saisi le mot de passe de l’utilisateur, cliquons sur «Se connecter»;
Notons ainsi, la fin d’installation du serveur Red Hat 6 que j’ai renommé TARGET.
NB:
Nous remarquons que le serveur dispose deux disques et chacun a trois partitions:
/dev/sda: le 1er disque dur de type SCSI /dev/sdb: le 2e disque dur de type SCSI
/dev/sda1: la 1ere partition du 1er disque dur; /dev/sdb1: la 1ere partition du 2e disque dur;
Ainsi nous monterons trois autres disques à chaud pour pouvoir faire du LVM appuyé
sur la matrice RAID-5.
Pour ce faire:
Vu qu’il faut trois disques, donc il faut faire la même opération trois fois de suite et
redémarrons le serveur grâce à la commande: # init 6 ou # reboot pour prendre
en compte les précédentes opérations effectuées.
Une fois le serveur redémarré, listons à nouveau des disques par la commande: # ls /dev/sd*
Signalons que /dev/sdc; /dev/sdd; et /dev/sde sont respectivement les trois disques que
nous venons de monter à chaud.
Partitionnement
Les trois disques étant montés, procédons à leur partitionnement. Pour ce faire, le
partitionnement du disque /dev/sdc se fait via la commande: # fdisk /dev/sdc
Pour afficher les différentes options du menu, saisir la lettre «m» puis valider par la touche
«Entrer du clavier»;
Pour ajouter une nouvelle partition, saisissons la lettre «n» puis validons par la touche
«Entrer du clavier»;
Saisissons «1» désignant le nombre de partition car celui-ci ne doit dépasser «4» puis
validons par la touche «Entrer du clavier»;
Saisissons la lettre «t» pour modifier l’id de système de fichier puis validons;
Saisissons «8e» pour choisir LVM comme système de fichier ensuite validons;
Saisissons «w» pour écrire la table sur le disque et quittons;
Les trois partitions étant faites, listons ces disques via la commande: # ls /dev/sd*
Formatage
Formatons les 03 partitions /dev/sdc1; /dev/sdd1 et /dev/sde1,
Formatage de /dev/sdc1 :
Pour formater la partition /dev/sdc1, on utilise la commande:
Formatage de /dev/sdd:
Pour formater la partition /dev/sdd1, utilisons la commande # mkfs.ext4 /dev/sdd1
Formatage de /dev/sde1:
Signalons que le message ci-dessus confirme que /dev/md3 constitue un volume physique
qui vient d’être créé. Pour vérifier les détails de celui-ci, utilisons l’utilitaire pvdisplay
Notre volume groupe se nommera SAN, ainsi, pour créer le volume groupe utilisons la
commande: # vgcreate SAN /dev/md3
Le message ci-dessus signale que le volume groupe vient d’être créé et nommé SAN. Ainsi,
pour connaitre les caractéristiques de ce volume groupe, utilisons l’utilitaire vgdisplay.
Ici, le nouveau volume groupe se nomme SAN, son format est: lvm2, sa taille de stockage est
50GB encore vide.
Le message ci-dessus, confirme que LV_EmailZcs est le volume logique qui vient d’être créé
avec succès dont sa taille est 45GB.
L’option -L définit la taille du volume logique en octet
L’option -l définit la taille du volume logique en logicalextend
L’option -n définit le nom du volume logique. Si on ne spécifie pas l’option -n, celui-ci va
créer le nom du volume logique par défaut nommé lvol et si on veut créer 5 volumes
logiques, on aura lvol1 jusqu’à lvol5.
Pour connaitre les caractéristiques du volume logique, on utilise l’utilitaire lvdisplay
Notons que:
/dev/SAN/LV_EmailZcs: est le chemin absolu du volume logique;
LV_EmailZcs: est le nom du volume logique;
SAN: est le nom du volume groupe qui regroupe le volume logique LV_EmailZcs;
45,00GiB ou 45GB: est la taille du volume logique en octet;
11520: est la taille du volume logique en LogicalExtend;
Avant tout démarrons le daemon tgtd et l’activons à chaque démarrage via les commandes
suivantes:
Ce qui illustre:
Une fois fini, quittons ce fichier ensuite redémarrons le daemon puis l’activons au démarrage
via les commandes
# service tgtd restart puis # chkconfig tgtd on
Illustration:
Désactivation des pare feu ou firewall
Pour Windows: saisissez «pare feu Windows» à la zone de recherche et cliquons dessus
puis cliquons sur Activer ou Désactiver le pare-feu Windows:
Voici l’illustration:
Voici l’illustration:
NB: la désactivation des pare-feu ou firewall concerne toutes les machines (Contrôleur de
Domaine, Target, Inititor,…) et elle est obligatoire.
Une fois fini d’installer, à l’immédiat redémarrons le daemon iscsi et l’activons au démarrage
via les commandes suivantes: # service iscsi restart puis # chkconfig iscsi on
Illustration:
Ce message signale la visibilité du TARGET depuis INITIATOR, une fois rassuré par ce
message, redémarrons aussitôt l’INITIATOR à fin que ce LUN soit comptabilisé comme
nouveau disque de l’INITIATOR.
Une fois redémarré l’INITIATOR, listons les disques par la commande # ls /dev/sd*
Notons que /dev/sdc est le nouveau disque apparu dans l’INITIATOR, il nécessite son
partitionnement et son formatage afin qu’il soit utilisable.
Une fois fini, listons à nouveau les disques via la commande: # ls /dev/sd*
Une fois l’identifiant de /dev/sdc1 est connu, éditons le fichier /etc/fstab pour le monter
dans le répertoire /opt de l’INITIATOR, comme l’indique cette illustration:
Une fois enregistré ce fichier, redémarrons l’INITIATOR à fin qu’il prenne en compte cette
configuration.
Pour vérifier que /dev/sdc1 est monté dans le répertoire /opt de l’INITIATOR, utilisons la
commande # df -h
Comme ce nouveau disque étant monté sur le répertoire /opt donc nous pouvons ainsi
installer Zimbra collaboration suite.
Avant d’installer Zimbra, soyons en rassurer que le disque /dev/sdc1 est monté
dans le fichier /etc/fstab. Pour ce faire, utilisons la commande # df -h
Une fois rassuré qu’il est monté dans le répertoire /opt et a 45GB de capacité de stockage.
Etant donné que sur le système GNU/Linux, zimbra intègre plusieurs logiciels libres parmi
lesquels figurent en bonne place le MTA Postfix. A cet égard, stoppons-le comme l’indique
cette illustration:
Saisissons le mot de passe de l’administrateur puis validons par la touche Entrée du clavier ;
Constatons le chargement ;