Вы находитесь на странице: 1из 72

1

INTRODUCTION

La crise économique qui a secoué le monde avec de conséquences telles que la

récession économique, le licenciement massif de personnel, n’a pas épargné le secteur

de la production et exploitation économique. Quand les responsables veulent réduire

le coût d’exploitation pour faire des économies, c’est le secteur de l’informatique et de

télécommunication qui est le plus touché. Ceci d’autant plus que, selon l’Institut

Gartner, 37% de budget informatique concerne le personnel, c’est-à-dire, le cout de lié

à l’exploitation (Gartner, 2012).

D’autres parts, si le rôle de l’informatique dans la production n’est plus à

démontrer de nos jours, son impact dans le développement des entreprises reste

difficile à mesurer. François (LOKOU, 2010) a écrit ce qui suit : « De façon concrète, il

est difficile de percevoir le rôle des TIC dans le développement alors que l’on parvient

à mesurer statistiquement les incidences de développement de secteur comme

l’agriculture, la santé, même la recherche scientifique. » A Cette méconnaissance du

rôle du rôle de l’informatique dans le développement, il faut ajouter le coût des

matériels informatique et réseaux qui constituent des facteurs qui découragent les

responsables des entreprises à investir dans les solutions informatiques, pourtant

profitable à la production au sein de leurs entreprises. Ainsi plusieurs solutions son

envisagées, parmi lesquels nous pouvons citer celle qui cadre avec notre étude, en

savoir : « Consolider et virtualiser les serveurs en vue d’éliminer les logiciels et les

modules inutilisées » (Gatner, 2012). Selon une étude computer Associates Council, la

virtualisation permet d’économiser 10 à 25 % du précèdent budget de fonctionnement.


2

Mais avant de réduire les coûts, il faut se poser la question : comment les réduire

sans diminuer la qualité des produits et des services proposés, sans grever le

fonctionnement de l'entreprise ? (Le Figaro, 2014).

O.2. Problématique

La Société de Mine d’Or de Kilo-Moto est une société commerciale implantée

dans la Province de l’Ituri depuis des périodes coloniale. Elle dispose d’un système

d’information de gestion qui répond selon une architecture client-serveur. Sur ce

serveur du type Dell PowerEdge I110 a été développé 4 services réseau en savoir

Active Directory, Service des fichiers, Service de noms de domaines (DNS), une base

de données SQL 2005 connectée à travers une application BSPAIE qui ne gère pour le

moment que le personnel. Ces quatre services se partagent le même système

d’exploitation Windows 2003 Server et accèdent physiquement aux mêmes ressources

matériels du serveur. Cette architecture diminue la performation du système

d’information et constitue un risque de sécurité majeur, car si ce système

d’exploitation crashait, tous les services deviendraient indisponibles.

Etant donné que ce système d’information est appelée à évoluer en intégrant

d’autres services tels que le DHCP, le VPN et une base de données de comptabilité

(OBATI, 2017), l’idéal aurait été de disposer d’un serveur physique pour chaque

service en vue de garantir l’indépendance des systèmes d’exploitation. Mais celle

solution présente de nombreux inconvénients pour l’entreprise, notamment

- Elle augmenterait le cout d’investissement et d’exploitation par l’acquisition

de 7 serveurs informatiques et les licences pour les systèmes d’exploitation

au moment où les entreprises sont plutôt préoccupées par la réduction de

ces coûts.
3

- Elle augmenterait l’encombrement de la salle serveur

- Elle augmenterait la consommation d’énergie électrique

- Elle constituerait une dépense inutile lorsqu’on sait que les serveurs

informatiques vieillissent vite et leur durée de vie est de 4 ans. Ensuite

chaque serveur physique d’utilise que 20% de la capacité de son CPU, de la

mémoire vive et du volume de stockage ( ).

Une innovation efficace est celle qui lie la réduction du coût à la performance

et la sécurité du système d’information.

Aux regards de tous ce qui précède, notre préoccupation majeure consiste à

savoir comment assurer la fiabilité et la performance du système d’information de la

SOKIMO Bunia sans occasionner des couts additionnels en termes d’acquisition des

matériels et licences informatique pour l’entreprise ?

O.3. Hypothèse

Notre hypothèse provisoire, aux regards de toutes ces préoccupations dessus,

se formule en ces termes : la virtualisation des serveurs du système d’exploitation de

la SOKIMO serait un moyen de garantir la performance et la sécurité de celle-ci sans

occasions de coûts additionnels pour l’entreprise.

0.4. Objectifs

Ce travail vise de façon générale offrir un cadre permettant à la SOKIMO et

d’autres entreprises commerciales, soucieuses de la réduction de coût

d’investissement et d’exploitation informatique, de trouver une solution de le faire.

De façon spécifique, il vise :


4

- De concevoir et de mettre en place un modèle d’un système d’information

de gestion avec des serveurs virtuels en nous servant de cas de la SOKIMO

Bunia.

- De déployer et de tester, sur un simulateur, le fonctionnement opérationnel

de ce modèle conçu.

0.5. Intérêt du sujet

Notre travail de recherche vise un double intérêt : pour nous-même d’abord et

ensuite pour la SOKIMO et les entreprises commerciales.

0.5.1. Pour nous même

Ce travail est le fruit de la combinaison de plusieurs théories acquises dans

différents cours tels que la télématique et réseau, conceptions réseaux, Administration

réseau, Système d’exploitation comparé et audit informatique.

Il nous permet d’abord de marier ces théories apprises aux réalités en

constituant une expérience pratique sur terrain. Il nous permet ensuite de contribuer

au développement et à l’innovation dans le domaine de la nous technologie de

l’information et de communication.

0.5.2. Pour les technicien et chercheurs et en NTIC

Il permet de mettre à la disposition des chercheurs et technicien, un outil de

travail dans le domaine de la nouvelle technologie de l’information et de

communication en générale, et de la virtualisation d’un système d’information en

particulier.
5

0.5.3. Pour la SOKIMO et les entreprises commerciales

A cette période de crise économique, les entreprises commerciales sont

soucieuses de revoir les dépenses et de diminuer les coûts d’exploitation informatique

pour les reporter dans d’autres secteurs de production (Le Figaro, 2017). Ce travail

donne ainsi une opportunité à la SOKIMO et à d’autres entreprises de le faire sans que

cette réduction n’entame la qualité des services informatiques.

0.6. La division du travail

Hormis l’introduction générale et la conclusion générale, le présent travail

comporte cinq chapitres. Le premier chapitre, la revue de la littérature, développe les

concepts clés relatifs au système d’information et à la virtualisation en nous référant

aux travaux antérieurs dans ces domaines. Le deuxième chapitre s’est spécialement

consacré à la description de la méthodologie et des techniques utilisées pour arriver

au résultat attendu. Le troisième chapitre analyse et audite le système d’exploitation

existant de la SOKIMO Bunia avant de proposer des changements aux regards de la

problématique posée. Le quatrième chapitre décrit le modèle choisi en nous servant

des diagrammes UML de cas d’utilisation, d’activités et de séquences. Enfin le dernier

chapitre, présente les étapes de la réalisation proprement dite sur un simulateur et les

résultats atteints.
6

CHAPITRE PREMIER

LA REVUE DE LITTERATURE

Le présent travail repose sur deux principaux concepts clés qui seront

développés en savoir le système d’information et la virtualisation. Cette section

présente ces concepts ainsi que les travaux des recherches qui s’y sont déjà rapportées.

En effet la virtualisation n’est plus un jeune domaine de recherche de sorte que celle-

ci constitue une application, dans le système d’information, des résultats déjà obtenus

par des éminents chercheurs.

La virtualisation des serveurs étant une solution logicielle faisant usage des

systèmes d’exploitation, pour mieux la comprendre, il nous a paru utile de commencer

par présenter les concepts relatifs au système d’information que nous allons

virtualiser.

I.1. SYSTEME D’INFORMATION

Le traitement de l’information revêt une importance capitale dans la gestion

d’une organisation ou une entreprise commerciale. Il se fait à travers un ensemble

d’éléments qui forment un système d’information. Le développement, la

sécurisation, la gestion adéquate d’un système d’information constituent des

préoccupations majeures pour les décideurs au sein d’une organisation. Par ailleurs,

la réduction des coûts d’investissement et d’exploitation des systèmes informatiques

sont des défis majeurs auxquels plusieurs entreprises font face et cherchent à relever.

Plusieurs mécanismes sont mis en marches ; l’un d’entre eux que nous aborderons
7

dans les lignes qui suivent consiste à la virtualisation des serveurs qui constituent les

points de partage d’information au sein d’un système d’information. Dans la suite,

nous décrivons les éléments constitutifs du système d’information d’une organisation

avant de proposer les mécanismes consistant à les virtualiser.

I.1.1. Définition du concept

Jacques (Sornet, 2008) définit un système d’information d’une organisation

comme un ensemble de moyen mis en œuvre pour assurer la saisie, la conservation et

la circulation des informations, de façon que chacun puisse disposer des données dont

il a besoin pour remplir sa tâche.

Le système d’information est né dans le domaine de l’informatique et de la

télécommunication et s’applique maintenant à l’ensemble des organisations privées

ou publiques. Il associe des moyens matériels, non matériels et humains et coordonne,

grâce à l’information, les activités de l’organisation et lui permet ainsi d’atteindre des

objectifs (2012)

Un système d’information représente donc l’ensemble des éléments qui

participent à la gestion, au traitement, au transport et à la diffusion de l’information

au sein de l’organisation. Ces éléments sont constitués de système informatique, de

réseau, des utilisateurs et d’autres moyens non matériels.

I.2.1. Le système informatique

Un système informatique est un outil d’un système d’information. Il met en

œuvres des matériels informatiques tels que les ordinateurs, les logiciels et est destiné
8

à la saisie, la conservation des informations garantissant ainsi la fiabilité et la sécurité

de celle-ci.

A. Les ordinateurs

Dans un système d’informations, un ordinateur constituent l’outil du traitement

de d’informations. Ses performances sont déterminées par la vitesse avec laquelle le

processeur traitement les informations, le temps d’accès de la mémoire vive et le

volume de stockage du disque dur (2012). Plusieurs catégories des machines forment

l’ordinateur ; il s’agit des mainframes, des mini-ordinateurs, des microordinateurs et

des serveurs informatiques.

1. Les micro-ordinateurs

Les micro-ordinateurs sont des ordinateurs personnels destinés à un usage

individuel. On les appelle aussi des postes de travail ou station de travail et sont

souvent raccordés au moyen d’un réseau local, a un autre ordinateur de puissance

suffisante appelé serveur pour être partagés au réseau. Dans le cas d’une architecture

client-serveur que nous avons traités dans notre travail, les microordinateurs

constituent les terminaux qui permettent aux utilisateurs de se connecter aux sources

d’informations hébergées sur un serveur informatique.

2. Les serveurs informatiques

Un serveur informatique est un ordinateur partageant ses ressources avec

d’autres ordinateurs appelés clients. Il fournit un service en réponse à une demande

d’un client (BUREL, 2008). Les serveurs informatiques sont utilisés en réseau ou

l’architecture client-serveur est privilégiée. Les services offerts par les serveurs sont
9

variés en termes applicatifs tels que la navigation, le stockage de fichiers, l’impression,

les transferts sécurisés des fichiers, la résolution de nom, la messagerie, la surveillance

du réseau, l’adressage automatique des IP, etc.

B. Le Système d’exploitation

Pour qu’un ordinateur soit capable de faire fonctionner un programme

informatique ou un logiciel, la machine doit être capable d’effectuer un certain nombre

d’opérations préparatoires afin d’assurer les échanges entre le processeur, la mémoire

et les ressources matériels ou périphérique à l’aide d’un logiciel de base appelé

système d’exploitation. Le système d’exploitation est un logiciel ou un ensemble de

programme qui permettent d’utiliser l’ordinateur, l’élément matériel, de façon

optimal et équitable (MEZARI, 2005).

L’installation d’un système d’exploitation dans une machine tient compte de la

capacité de son processeur et de ce que l’on veut faire de la machine (BOPE, 2012).

1. Composition d’un système d’exploitation

Le système d’exploitation est composé d’un ensemble des logiciels qui

permettent de gérer les interactions avec le matériel. Parmi cet ensemble de logiciels

on distingue généralement les éléments suivants (CCM, 2017) :

a. Le noyau (aussi appelé en anglais Kernel)

Le noyau représente les fonctions fondamentales du système d’exploitation. Il

effectue les tâches essentielles dont nous pouvons citer en l’occurrence : la gestion de

la mémoire, la gestion des processus (un programme en exécution), la gestion des

entrées et sorties et des fonctionnalités de communication, la gestion des fichiers


10

b. L’interpréteur de commande (en anglais Shell)

L’interpréteur de commande est aussi en anglais Shell ou coquille en

opposition avec le noyau. Il permet la communication avec le système d’exploitation

par l’intermédiaire d’un langage de commandes afin de permettre à l’utilisateur de

piloter les périphériques en ignorant tout des caractéristiques du matériel qu’il utilise,

de la gestion des adresses physiques, etc.

c. Le système de fichiers :

Celui-ci permet d’enregistrer les fichiers dans une arborescence.

2. Catégorie de Système d’exploitation

Selon l’utilité que l’on voudra donner à une machine on distinguera :

- Le système d’exploitation pour les stations de travail isolés ou aussi appelée

clients. On citera le Windows, Linux desktop, Unix, …

- Le système d’exploitation réseau construit pour fonctionner par exemple sur les

serveurs (FAVREAU, 2017).

On peut citer dabs cette catégorie :

o l’ UNIX (avec Unix/SCO, SCO Open Server, Solaris de SUN)

o Linux ( avec Mandrake, Suse, Redhat, Debian, Caldera, Ubuntu LTS,

Server, CentOS),

o Novell (Avec Novel Netware),


11

o Le Windows ( Avec Windows 3.11, NT, 2000 Server, 2000 Advanced

Server, 2003 Server, 2008 Server, 2012 Server et 2016 Server).

3. Présentation du système d’exploitation en réseau

Ainsi le système d’exploitation réseau fournit un contrôle d’accès au réseau

en termes de sécurité de connexion, sécurité d’accès aux ressources, tout en

coordonnant les accès simultanés (Djungu, 2014). Le Système d’exploitation réseau est

un outil qui permet à l’administrateur réseau d’organiser les ressources réseau, de

définir le contrôle d’accès à ces ressources pour permettre un fonctionnement efficace

du réseau. En bref, un système d’exploitation réseau assure les trois fonctions ci-

dessous (Anonyme, 04-06-2017) :

 L’accès des utilisateurs au réseau : par la création et gestion des comptes des

utilisateurs qui ont accès au réseau et la définition des permissions des

utilisateurs et de groupes

 Le partage de ressources : par la définition du degré de partage de ressources

et la définition de degré de partage des périphériques

 La surveillance du réseau en assurant les performances et la sécurité du réseau.

C. Le réseau informatique

A.O. (DJUNGU, 2014) définit le réseau informatique comme « un ensemble

d’entités (objets, personnes, ordinateurs, etc.) interconnectées les unes avec les autres

et vue de partager des informations et des services.

La communication au sein d’un système d’information est en partie assurée par

un réseau interne ou externe à l’organisation. Ainsi le réseau informatique assure


12

l’interconnexion entre différents équipements constituant ainsi un maillage complexe

ou les échanges doivent être standardisés (Anonyme, 20-05-2017). Cette

interconnexion est possible grâce aux dispositifs d’interconnexion tels que la carte

réseau, le commutateur, le concentrateur et le routeur.

1. Architecture réseau d’un système d’information

Suivant le point de partage d’information, deux architectures sont utilisées :

mode paire a paire et l’architecture client –serveur.

a. Un mode pair à pair ou égal à égal ou poste à poste

Ici la communication s’établit d’ordinateur à ordinateur sans qu’il ait un

ordinateur central dans lequel l’information est partagée (DJUNGU, 2014). Le rôle

d’ordinateur central peut être assuré par n’importe quel ordinateur connecté en réseau

local comme le montre la figure ci-dessous :

PC

PC

PC

PC

PC

Figure II.2.3.5 : Réseau paire à paire


13

b. Architecture client-serveur

Le mode client-serveur est le plus utilisé et convient mieux pour un système

d’information.

PC

Hub
Server

PC

PC

Figure II.2.3.5 : Client-serveur en topologie étoile

Elle met en service deux processus qui s’exécutent : L’un sur la machine client

(exemple, un navigateur web, une interface utilisateur, etc.) et l’autre sur la machine

serveur (RESEAUCERTA, 2011). Ce processus comprend le client, le serveur et le

dialogue.

 Le terme client désigne souvent un utilisateur ou une machine sur laquelle

s’exécute l’application client.

 Le serveur désigne la machine sur laquelle l’application s’exécute. Le serveur

est passif, car il attend et écoute, prêt à répondre aux sollicitations du client

 Le dialogue comprend :

- La requête : une requête est une demande du client pour l’exécution d’un

service par le serveur.


14

- La réponse : Une réponse contient le résultat d’un service exécutée sur

demande de serveur.

La technologie client-serveur est basée sur le principe de communication entre

le client et le serveur. (TENENBAUM, 2011) décrit le fonctionnement de la technologie

client-serveur de la manière de la manière ci-dessous :

La communication prend alors la forme d’un processus client qui envoie un message

au serveur, puis attend un message en réponse. Quand le processus serveur reçoit le

message la requête du client, il exécute la tache ou recherche les données demandées,

puis il envoie la réponse.

Requete

Machine serveur

Reseau

Processus serveur
Reponse

Figure II.2.3.6. Processus Client-serveur

Une architecture client-serveur présente 3 niveaux Architecture client-serveur à

deux niveaux (SIN, 2017) :

 L’architecture appelée 2-tiers. La requête du client obtient la réponse directe du

serveur sans avoir besoin d’une application tierce. C’est l’architecture client-

serveur de première génération.

 L’architecture client-serveur a trois niveaux aussi appelée architecture 3-tiers est

une architecture de deuxième génération. Elle résout le problème de la limite de

l’architecture 2-tiers et intègre un logiciel appelé Middleware qui s’exécute sur un

serveur intermédiaire, généralement un serveur applicatif.


15

 L’architecture à niveau multiple dans laquelle plus de trois serveurs interviennent

pour satisfaire le client. Cette architecture correspond au système distribuée. C’est

le cas des distributions des logiciels applications repartis sur plusieurs serveurs ou

chaque serveur n’existe qu’une partie de service.

D. Les utilisateurs

Un utilisateur est une personne qui utilise un système informatique (ordinateur

ou un robot), sans qu’il soit nécessairement un informaticien (Sornet, 2014). Un

utilisateur peut aussi être une machine automatique ou un autre système informatique

qui interagit constamment avec le système informatique de base ; il peut un simple

usager de l’ordinateur qui utilise juste une interface pour accéder à l’élément stocké

dans une base de données ou un utilisateur avancées avec une connaissance plus

détaillée du fonctionnement du système et qui est, à longueur de journées, plongé

dans l’usage des outils informatique de l’organisation (DESK et all, 2006).

Un utilisateur système se distingue à deux niveaux : utilisateur système machine et

utilisateur Système humain.

1. Utilisateur système humain

Il s’agit d’une catégorie professionnelle des utilisateurs qui font usage de

l’ordinateur comme un outil d’automatisation des procédures administratives qui ne

nécessitent pas une analyse préalable ou comme un outil de développement

d’application qui nécessite une véritable analyse. Dans cette catégorie, nous
16

retrouvons les administrateurs systèmes ou administrateurs réseau et les

développeurs d’applications (Analystes-programmeurs).

2. Utilisateur système machine

Un utilisateur système machine est une machine ou un autres système très

spécialisé définies formellement pour remplacer l’utilisateur système humain dans des

contraintes arbitraires (INIRA, 2006). Il peut s’agir par exemple d’un serveur

d’annuaire LDAP qui fournit une liste des utilisateurs à d’autres serveurs

informatiques d’applications ou d’un serveur proxy qui contrôle l’accès à l’Internet.

Cet utilisateur est souvent une abstraction des autres formes des utilisateurs pour

simuler, modéliser le comportement d’un utilisateur inconscient ou malveillant

(DESK, 2006).

3. La gestion des utilisateurs

Dans un environnement multiutilisateur, les risques de sécurité peuvent

augmenter avec des utilisateurs inconscients, mal formées ou malveillants. Selon

(JUAN, 2015), la gestion de l’utilisateur permet de :

- Identifier un utilisateur

- D’authentifier un utilisateur

- De classifier un utilisateur dans un groupe de sécurité.

a. Identification d’un utilisateur

L’identification est une phase qui consiste à identifier un utilisateur. Elle permet

de réponse à la question « Qui es-tu ? » A cette question, l’utilisateur doit répondre


17

par un « nom d’utilisateur » ou « login ». Les responsables d’un système informatique

doit être en mesure d’assurer que chaque utilisateur du système n’accède qu’aux

données dont il a besoin pour l’exercice de sa mission. L’identification d’un utilisateur

permet de garantir les confidentialités des données dans un environnement

multiutilisateurs. Un identifiant doit, dans la mesure du possible, être différents du

compte définis par défaut par les éditeurs de logiciel.

b. Authentification d’un utilisateur

L’authentification est une phase qui permet à l'utilisateur d'apporter la preuve

de son identité ; elle intervient après la phase dite d'identification et permet de

répondre à la question : "Êtes-vous réellement cette personne ? L'utilisateur utilise un

authentifiant ou "code secret" que lui seul connait. L’authentification a pour but de

vérifier l’identité dont une entité se réclame. Elle est souvent précédée d’une

identification qui permet à cette entité de se faire connaitre du système par un élément

dont il est doté. En d’autres termes s’identifier c’est communiquer son identifier, mais

s’authentifier c’est apporter la preuve de son identité. L’authentification se fait par

trois mécanismes ci-dessous (INRIA, 2015) :

- Le mot de passe : La mise en œuvre de mot de passe devra respecter le principe

suivant :

o Avoir 8 caractères minimum

o Etre de type de caractères différents (Majuscule, minuscules, chiffres et

caractères spéciaux)

o Etre régulièrement changé.


18

- Une carte à puce : Caractéristique de ce que l’on possède.

- Emprunte digital : qui est une caractéristique de ce qui nous est propre à

l’utilisateur. Nous citons ici le cas de l’emprunte digital, signature manuscrites,

code d’iris, etc.

c. Classification des utilisateurs dans le groupe de sécurité

Chaque utilisateur du système ne doit accéder qu’aux données dont il a besoin

pour l’exercice de sa mission. Concrètement, cela se traduit par la mise en place d’un

mécanisme de définitions de niveau d’habilitation d’un utilisateur dans le système au

moyens de contrôle de permission d’accès aux données par la définitions des profils

d’habilitations. Ces profils permet de donner ou de refuser l’accès à un utilisateur

appartenant un groupe pour lequel l’accès est soit autorisé soit refusé ou soit encore

limité. Dans ces conditions, les utilisateurs d’un groupe peuvent lire, modifier ou créer

des nouvelles données.


19

I.2. LA VIRTUALISATION

I.2.1. Définition du concept

La virtualisation se définit comme l’ensemble de techniques logiciels qui

permettent de faire fonctionner sur une seule machine, plusieurs systèmes

d’exploitations séparément les uns des autres, comme s’ils fonctionnaient sur des

machines physiques. La virtualisation permet ainsi de créer des machines virtuelles

sur une machine physique (SAADBOUH TALL, 2006).

La virtualisation est basée sur deux principes de fonctionnement, en savoir, le

cloisonnement et la transparence (2006).

 Le cloisonnement

Le cloisonnement assure que chaque système d’exploitation fonctionne de

façon indépendante et ne peut en aucun cas interférer avec les autres systèmes

d’exploitation qui fonctionnent sur la machine.

 La transparence

La transparence implique la compatibilité de toutes les applications installées

sur les machines virtuelles. Ceci signifie que le fait de fonctionner en mode virtuelle

ne change rien au fonctionnement de système d’exploitation, a fortiori, les logiciels

I.2.2. Historique de Virtualisation

Historiquement la virtualisation est née dans les années 1970 sous IBM VM 370

(IBM Virtual Machine 370). Elle permet de faire tourner sur un mainframe plusieurs

systèmes d’exploitation incompatibles, notamment le DOS/VSE et OS/VS qui


20

fonctionnait sur des machines individuelles (CMS), préférant des PC (Personal

Computer) (MASTRELLET, 2011).

Mais c’est France, dans les laboratoires d’IBM à Grenoble que les premiers

travaux préparatoires sur les machines virtuelles ont fait leur apparition, en 1960, sur

le système/360. Elle conduire à la naissance de CP-40, la première machine virtuelle

d’exploitation pour les Mainframes d’IBM qui seront par la suite commercialisée. Par

la suite, d’autres sociétés, comme le HP avec les PA-RISC ou IA64 ou encore avec Sun

avec une série d’E10K/E15K/E16L/E25K utiliseront la technologie de virtualisation.

I.2.3. Fonctionnement de Virtualisation

Le fonctionnement de la virtualisation, telle que nous allons la réaliser dans

cette recherche, est base sur la théorie de l’anneau et de l’isolation (SAADBOUH

TALL, 20 nnb12, p.13). En effet les anneaux sont des espaces protégés, mis à la

disposition par le processeur. Le niveau de sécurité s’étend du plus sécurise, appelé

Ring0 au plus permissif Ring3 comme le montre la figure ci-dessous :

Figure II.1. Concept des anneaux.

Ordinairement dans un système d’exploitation il existe 4 anneaux de protection

qui sont numérotées de 0 à 3. Dans quasi-totalité du système d’exploitation sans

virtualisation, seuls les anneaux 0 et 3 sont utilisés. L’anneau le plus privilégié est
21

l’anneau 0. Celui-ci contient le noyau du système d’exploitation. L’anneau le moins

privilégié est l’anneau 3 qui contient les applications et leurs données dynamiques

(BENKEMOUN, 2008).

Figure II.2. Anneau sans virtualisation

Dans un système d’exploitation avec virtualisation, le système d’exploitation

n’est plus le premier intermédiaire avec les matériels, mais il sera remplacé par

l’hyperviseur qui occupera l’anneau 0. Le système d’exploitation sera placé dans le

noyau 1, les applications resteront dans l’anneau 3.

Figure II.3. Avec virtualisation


22

I.2.4. Différents Techniques de Virtualisation

Quatre techniques différentes principales sont utilisées pour réaliser la

virtualisation, en savoir, l’Isolateur, le Noyau en espace utilisateur, Machine virtuelle

et Para virtualisation ((ELMEDI, 2008)

A. Isolateur ou technique au niveau logiciel

Un isolateur est un logiciel qui permet d’isoler l’exécution des applications dans

des zones d’exécution appelées contexte. L’isolateur permet ainsi de faire tourner

plusieurs fois la même application dans un mode multi-instance (plusieurs instances

d’exécution) même si elle n’est conçue pour ne tourner qu’en une seule instance. Dans

ce cas, le noyau du système d’exploitation hôte, la mémoire et le processeur sont

partagés. L’application lancée dans un contexte ne connaitra que les applications

lancées dans le même contexte (BENKEMOUN, 2007).

Figure II.4. Isolateur

Les isolateurs sont utilisés pour virtualiser tout un système d’exploitation et il

offre une performance supérieure. Mais ils ne sont disponible que pour le système

d’exploitation Linux tels que, Linux-Vserver, le Chroot, le BSD Jail et OpenVZ : libre,

partitionnement au niveau du noyau sous Linux et Windows 2003.


23

B. Noyau en espace utilisateur

C’est une technique au niveau du noyau. Dans cette technique de virtualisation,

un noyau tourne comme une application dans l’espace utilisateur, ce qui lui donne son

propre espace mémoire à gérer et lui permet de contrôler les applications. Cette

technique de virtualisation n’est pas très performante parce que le système invité n’est

pas tout à fait indépendant du système hôte. Les deux noyaux se trouvent empilés

dans un même système physique, ce qui rend les deux systèmes fortement

indépendants (DESTES ET LIBES, 2008).

Figure II.5. Noyau en espace utilisateur

Cette technique est utilisée dans les systèmes d’exploitation User Mode Linux,

Cooperative Linux ou CoLinux, Adeos, L4Linux.

C. Machine virtuelle

Une machine virtuelle est un logiciel qui tourne sur le système d’exploitation

hôte. Ce logiciel permet de lancer un ou plusieurs systèmes d’exploitation invités. La

machine émule ainsi l’élément matériel qui permet aux systèmes d’exploitation invités

de dialoguer avec les matériel physique, croyant être celui de la machine hôte. Il s’agit

d’une technique d’émulation logicielle des périphériques (mémoires, disques, réseau,


24

etc,) même de tout ou d’une partie de l’ordinateur (OSTRE ET DOTES, 2011). Le

processeur et la mémoire sont directement accessibles par les machines virtuelles.

Cette technique permet de faire cohabiter plusieurs systèmes d’exploitation

complètement isolés. Ces derniers communiquent entre eux à travers les canaux du

système standard, entre-autre, la carte réseaux partagée. En effet, toutes les machines

virtuelles peuvent être dotées des cartes réseaux virtuelles qui sont des buffers offrant

la possibilité d’échanger des données avec l’extérieur.

La technique de machine virtuelle nécessite un coût important en termes de

processeur et en mémoire pour charger les systèmes d’exploitation ce qui implique

une consommation importante des ressources matérielles de l’ordinateur.

Cette solution est utilisées dans les cas de :

 VMWare Player, VMWare Workstation, VMWare GSX : Propriétaire de

VMware, émulateur x86

 Parallels Desktop : Propriétaire Mac OS, émulateur plateformx86 sur MacOS X

 Microsoft Virtual PC/Virtual Server : proprietaries Microsoft, emulateurx86

 MacOnLinux : émulateur plateforme Mac OS sur Linux

 VirtualBox : émulateur system x86


25

 PearPC : émulateur plateforme PPC sur x86

 Plex86 : émulateur plateforme x86

- Kvm, OEMU : émulateur x86, PPC, AMD.

D. Paravirtualisation
Un paravitaliseur, aussi appelé un hyperviseur, est un noyau hôte allégé et

optimisé pour ne faire tourner que des noyaux des systèmes d’exploitation invités,

adaptés et optimisés pour cette utilisation (BENKEMOUN, 2008). La

paravirtualisation permet ainsi de substituer le système d’exploitation hôte par un

hyperviseur, une couche logicielle qui va faire le lien entre les systèmes virtualités et

les matériels, tel que le montre la figure ci-dessous :

Figure II.7. Paravirtualisation

La différence la plus importante avec les autres techniques de virtualisation

consiste au fait que les systèmes invités sont conscient aussi bien de leur état virtuel

que de l'existence d’un hyperviseur. C'est pour cela que l'on parle de systèmes

d'exploitation modifiés. En effet, les sources du système d'exploitation ont été

modifiées afin de lui permettre d'avoir conscience de l'existence de l'hyperviseur et de

communiquer avec lui. Cela permet de diminuer les besoins en ressources par rapport
26

à la virtualisation totale en optimisant l'accès à ces mêmes ressources. Ils ont accès au

matériel par l'intermédiaire de l'hyperviseur (OSTRE et Dotes, 2006).

1. Type d’hyperviseurs.
Il existe deux types d’hyperviseurs, en savoir : Hyperviseur du type 1 et
Hyperviseur du type 2.

a. Hyperviseur du type 1

Un hyperviseur de type 1 s’installe directement sur la couche matériel de la

machine hôte. Il agit comme outil de contrôle du système d'exploitation. C’est un

noyau allégé et optimisé pour la virtualisation des machines. Au démarrage de la

machine physique, l'hyperviseur prend directement le contrôle du matériel, et alloue

l'intégralité des ressources aux machines hébergées (PETER, 2016).

Machine Machine Machine


Virtuelle1 Virtuelle2 Virtuelle3

HYPERVISEUR TYPE 1

MATERIEL

Figure II.8. Hyperviseur du type 1

Le gros avantage de ce type d'hyperviseur, c'est qu'il permet d'allouer la quasi-

totalité des ressources disponibles aux machines virtuelles, car celui-ci est directement

relié à la couche matérielle. Il est souvent utiliser pour virtualiser des serveurs qui
27

demandes des ressources matérielles importantes pour fonctionner, tels que les

serveurs de messageries Exchange ou SQL. Pour virtualiser plusieurs machines, la

machine hôte devra disposer des ressources équivalentes de l’intégralité des machines,

car un seul hyperviseur peut être installé sur une machine hôte.

b. Hyperviseur de type 2

Un hyperviseur de type 2 est considéré comme un logiciel, s'installant et

s'exécutant sur un système d'exploitation déjà présent sur la machine physique

(PETER, 2016).

Machine Machine Machine


Virtuelle1 Virtuelle2 Virtuelle3

HYPERVISEUR TYPE 2 HYPERVISEU


R TYPE 2

SYSTEME D’EXPLOITATION HOTE

MATERIEL

Figure II.2.2 : Hyperviseur du type 2

Le système d'exploitation vitalisé par un hyperviseur de type 2 s'exécutera dans

un troisième niveau au-dessus du matériel, celui-ci étant émulé par l'hyperviseur.

L'avantage d'utiliser ce type d'hyperviseur est la possibilité d'installer et d'exécuter

autant d'hyperviseurs que l'on désire sur notre système hôte, ce type n'étant pas relié

directement au matériel.
28

La plupart du temps, les hyperviseurs de type 2 sont utilisés pour virtualiser


des systèmes d’exploitation afin de procéder à des tests de compatibilité et de
sécurité. Il existe également un environnement dans lequel ce type d'hyperviseur est
particulièrement utilisé : Pour les utilisateurs Mac OSX ayant besoin d'utiliser
Windows en raison d'applications non compatibles.

2. Les logiciels hyperviseur

Plusieurs logiciels hyperviseur sont utilisés dans la virtualisation. Nous allons

présenter les trois plus utilisées, en savoir : VMware vSphere Hypervisor, Citrix

Xenserver, Microsoft Hyper-V.

a. vSphere Hypervisor

vSphere Hypervisor est un hyperviseur développé par la société VMware. Sa

version ESX server date depuis 2001 avant d’être renommé ESXi puis aujourd’hui

vsphere hypervisor. Le vSphere hypervisor est un hyperviseur du type 1 qui est

directement installé dans le noyau du système. La structure de virtualisation sous

vSphere hypervisor comprend les éléments ci-dessous (VMWARE INC, 2010) :

i. VMware ESX et VMware ESXi

Ce sont des machines virtualisées, notamment des serveurs virtuels dont


l’ensemble forme un cluster.

ii. VMware vCenter Server

C’est une machine hôte, en l’occurrence le serveur, sur laquelle est installé
l’hyperviseur. Il constitue le point central pour configurer, approvisionner et
gérer des environnements informatiques virtualisés.
29

iii. VMware vSphere Client

Le VMware vSphere client est une interface permettant aux utilisateurs de se


connecter à distance au vCenter Server ou directement aux serveurs virtuels ESX ou
ESXi depuis n’importe quel ordinateur Windows.

iv. VMware vSphere Web Access

Le VMware vSphere Web Access permet de gérer une machine virtuelle et


d’accéder à des consoles distantes.

D’autres fonctionnalités de vSphere sont :

 VMware vMotion :

Cette fonctionnalité permet de migrer en direct des machines virtuelles en


service depuis un serveur physique vers un autre sans période d’interruption avec une
disponibilité des services permanente et une intégrité de transaction complète.

 VMware Storage vMotion

Cette fonctionnalité permet de migrer des fichiers de machine virtuelle d’une


banque de données à une autre sans interruption de service.

b. Compatibilité matérielle de VMware vsphere hypervisor


VMware vsphere Hypervisor prend en charge un nombre illimité de

processeurs, souvent évalué à 480 CPU. Il prend en charge le disque dur jusqu’à 12 To

(Téra Octet), et peut intégrer un nombre illimité des machine virtuelles.

Les caractéristiques matérielles minimum requis pour faire fonctionner

VMware vSphere Hypervisor est :

- Un processeur x64 (avec 2 Cores minimum)

- 4Go de mémoire vive.


30

c. Topologie physique de vSphere

Serveur Phyisique
vSphere Center

Machine client Machine


vSphere Client vSphere Web Access

Server

Commutateur réseau local

VM1 VM2 VM3 VM4

Cluster1 : Machines virtuelles ESX/ESXi

Graphique II.9 Topologie de VMware vSphere

B. Xen

Xen est un hyperviseur open source puissant qui reste une référence en matière

de virtualisation dont le projet est soutenu par plusieurs communautés et industriels

tels que Novel, Cisco, Sun, AMD, etc. Il a été le premier à implanter la

paravirtualisation et son principal avantage est de minimiser les risques d’erreur qui

lui serait dû (BENKEMOUN, 2008).

1. Fonctionnement de Xen

Dans la virtualisation avec Xen, il n y a pas de système d’exploitation hôte

comme c’est le cas avec d’autres solutions de virtualisation. Les systèmes virtualisés

sont appelés des domaines. L’hyperviseur Xen prend la place de système

d’exploitation d’origine lors du premier démarrage après son installation par celui-ci.
31

Ce système devient alors le domaine privilégié nommé dom0 (domaine zéro). Ainsi

l’hyperviseur qui démarre en premier lance le dem0. L’hyperviseur gère l’accès aux

ressources du processeur et aux mémoires vives, tandis que le dem0 gère l’accès aux

périphériques avec ses propres pilotes. Les autres machines virtuelles sont des

domaines non privilégiés, appelés demU (unprivileged domain). Celles-ci n’ont pas

directement accès aux ressources matérielles à travers des pilotes dits génériques.

C’est le dom0 qui émule les matériels auxquelles les autres domU ont accès. On dit

alors que les machines virtuelles ont un accès indirect aux matériels. Le dom0 sera dont

bien sécurisées pour ainsi sécurité les matériels (BENKEMOUN, 2008).

La figure ci-dessous décrit le schéma fonctionnel de la virtualisation sous Xen

Figure II.10 Schéma fonctionnel de virtualisation sous Xen.

C. Microsoft Hyper-V

Le Hyper-V est un hyperviseur lancé en 2008 par Microsoft pour contraindre la

progression et la suprématie de VMware vSphere Hypervisor (VMware ESX) déjà en


32

avance sur le marché depuis 2001 (BIARD, 2009). Il est basé sur une nouvelle

architecture de prise en charge matérielle, qui exploite au mieux les instructions dédiées à

la virtualisation des processeurs actuels. Celle-ci facilite l'accès aux périphériques de base

(disques, mise en réseau, vidéo, etc.) ainsi que leur utilisation avec l’architecture VSP/VSC

(fournisseur et client de services virtuels ou Vendor and Service Client (

1. . Caractéristique de Hyper-V

Le Hyper-V présente des caractéristiques ci-dessous :

i. Prise en charge de plusieurs systèmes d’exploitation

Hyper-V peut exécuter simultanément plusieurs types de système d’exploitation,

multiprocesseur 32 bits et 64 bits sous plusieurs plateformes comme Windows, Linux,

etc.

i. Prise en charge de SMP

Hyper-V peut prendre en charge jusqu’à 4 processeurs sur un système virtuel.

iii. Accès facile au support de stockage

Hyper-V offre un accès direct aux disques avec une prise en charge des disques

virtuels.

iv. Equilibrage de la charge réseau

Le système virtuel sous Hyper-V peut exécuter le service d’équilibrage de charge

réseau (Network Load Balancing) sur les systèmes virtuels de différents serveurs.
33

v. Migration rapide du système virtuel

Le Hyper-V offre la possibilité de la migration rapide des machines virtuelles en

cours d’exécution d’un hôte vers un autre avec un temps d’arrêt court grâce à sa

fonctionnalité QuickMigration.

v. Solution de sauvegarde et restauration

Grâce à la fonctionnalité Snapshot, le retour à un état antérieur et améliorer

améliore la sauvegarde.

b. Les versions de Hyper-V

Le Hyper-V présente trois versions ci-dessous (EXAKIS, 2013).

i. Le Hyper-V 2008 (version 1)

La première version de Hyper-V est apparue en 2008. Elle a été intégrée dans

Windows server 2008. C’est la version qui a remplacé le Microsoft Virtual Server 2005.

ii. Hyper-V version 2

La version 2 de Hyper-V a été intégrée comme rôle dans le Serveur. Elle est

venue avec la version de Windows server 2008 R2.

iii. Hyper-V version 3

La version 3 de Hyper-V est venue avec Windows server 2012

c. Le prérequis minimum pour l’installation de Hyper-V

 Un processeur 64 bits, supportant les technologies de virtualisation matérielle

comme Intel-VT ou AMD-V.

 2 Go minimum de disque dur.


34

 1 Go minimum de mémoire vive

 De la mémoire vive supplémentaire pour chaque machine virtuelle.

I.5. Choix de type logiciel de virtualisation

Pour notre travail de recherche, nous avons opté pour le logiciel de


virtualisation Hyper-V v3. En effet, celui-ci présente d’énormes avantages par rapport
aux autres logiciels de virtualisation de serveur, en savoir, le VMware et Xen,
notamment

- Le Hyperviseur Hyper-V est un produit Microsoft intégré dans son système


d’exploitation serveur Windows 2008 R2 et 2012. Hyper-V se relève dont moins
couteux que VMware Infrastructure car son cout est déjà intégré dans un
contrat de licence annuel (Buisson D, 2017). Ce choix rencontre donc notre
stratégie de réduction de coût d’investissement et d’exploitation de serveurs
informatiques.
- Le Hyper-V v3 permet d’installer une plateforme variée de système
d’exploitation sur une machine virtuelle créée, par exemple, le Windows 2003,
Linux et Unix peuvent cohabiter sur une même machine hôte Hyper-V.
- Le Hyper-V présente un avantage sur le plan de la sécurité grâce a la possibilité
de migration à chaud des machines virtuelles sur une autre machine hôte.

I.6. Etat de la question

Les travaux sur la virtualisation des serveurs ont réalisés par plusieurs auteurs,

étudiants et chercheurs. Nous pouvons citer quelques-uns.

 Cheik Saaddbouh Tall, dans son mémoire intitule Réduction de coût

d’investissement avec la mise en place d’un environnement de virtualisation en


35

production à la DTAI. Ses études ont abouti à la mise en place d’une

infrastructure avec 16 serveurs virtuels sur une seule machine physique à l’aide

de logiciel VMware Infrastructure avec comme conséquences ci-dessous :

- La réduction de couts d’investissement et de licence de machine avec une

consolidation des machines de 16 à 1 seule machine

- La réduction de la consommation d’énergie électrique de de 30 a 50%

- La réduction d’interruption de service de 80%

- La réduction de cout d’administration de 80%

- La réduction de l’encombrement salle machine

- L’augmentation de la consommation de ressource de CPU de 80%.

 Bonhomie BOPE dans son mémoire en réseau à l’Institut Supérieur de

Technique Appliquées, ISTA, intitulé Virtualisation d’un réseau Internet, présenté en

2010. Il a choisie Xen, une solution OpenSource avec Linux.

A l’issue de ce travail, l’étudiant est arrivé au résultat selon lequel les sept serveurs

physiques dont dispose le Centre de Recherche en Informatique de l’ISTA ont été

virtualisés et réduits sur une seule machine avec comme conséquences ci-dessous :

- La réduction de l’encombrement

- La réduction de la consommation de l’énergie électrique

- La centralisation de l’administration de l’infrastructure réseau.

 Antoine Benkemoun et Romain Hinfray dans leur étude intitulé AC-

Etudes de la virtualisation et du fonctionnement de la solution libre Xen », en 2008. Les deux


36

éminents chercheurs ont traité du fonctionnement de la virtualisation et démontré des

nombreux avantages mais aussi les inconvénients de cette solution. Ils ont présenté la

réalisation de la solution de la virtualisation des serveurs avec Xen.

Notre étude se démarque de celles précitées par deux faits important :

- Elle a utilisé la nouvelle solution avec Microsoft Hyper-V v3, une solution qui

combine à la fois le système d’exploitation et l’hyperviseur très en vogue sur le

marché de la virtualisation. Cette solution classe le Hyper-V v3 en position

dominante par rapport aux autres logiciels de virtualisation.

- Si les trois autres études ont été menée au sein des institutions publiques, la

nôtre a été menée au sein d’une entreprise commerciale pour laquelle la

réduction de cout d’exploitation et d’investissement serait une solution la

mieux indiquée compte tenu de la crise économique actuelle,


37

CHAPITRE II
LA METHODOLOGIE ET OUTIL DU TRAVAIL

Le présent chapitre se consacre sur la présentation de la méthodologie et la

description fonctionnelle des techniques et outils utilisés pour atteindre les objectifs

assignés. Le but poursuivi consistant à virtualiser les serveurs utilisés dans le système

d’information de la SOKIMO Bunia en nous servant d’un simulateur.

Pour parvenir aux fins de notre travail de recherche, il importe d’adopter une

certaine approche méthodologique et technique susceptible de nous guider tout au

long de ce parcours. Etant donné que notre travail consisté principale à concevoir un

modèle en nous servant des résultats d’autres travaux réalisés sur la virtualisation

des serveurs, nous avons recouru à la méthode dite de modélisation. La combinaison

de plusieurs techniques et outil a corroboré à la réalisation de ce travail. Il s’agit

principalement de la technique d’observation, de documentation, d’interview et de

simulation.

II.1. La méthodologie utilisée

Selon le dictionnaire (Le Dicos, 2017), le concept méthodologie se rapporte aux

méthodes de recherche permettant d’arriver à certains objectifs au sein d’une science).

Elle renferme donc des méthodes qui sont des marches proprement suivis pour

atteindre les résultats, et les techniques utilisées.


38

II.1. La modélisation

La modélisation est une représentation graphique d’un phénomène ou d’un

objet complexe. Elle aboutit à l’obtention d’un modèle qui est une abstraction

permettant de mieux comprendre un objet complexe ( ).

Le langage de modélisation qui est l’UML nous a servi pour la représentation des

différentes situations sous formes des diagrammes. Nous nous sommes servis des

différents types de modélisation, notamment : La modélisation fonctionnelle, La

modélisation dynamique et la modélisation statique.

II.1.1. La modélisation fonctionnelle

La modélisation fonctionnelle nous a permis de décrire ce que les serveurs

virtuels utilisés dans notre système d’information rendent comme service, en d’autres

termes, les fonctions de ces serveurs pour les utilisateurs du système d’information.

Pour y arriver, il nous parut utile d’identifier les différents acteurs de notre système et

de déterminer la manière dont ils interagissent avec le système en nous servants de

différents cas d’utilisation. Nous nous sommes donc servis des diagrammes de cas

d’utilisation.

II.1.2. La modélisation dynamique

Du point de vue dynamique, nous avons examiné le déroulement d’actions

d’un utilisateur dans le système d’information du début jusqu’à la fin en indiquant les

comportements du système dans différentes conditions. Nous avons également en

nous servant du diagramme d’activité. Nous avons également exprimées les différents

scenarios d’utilisation du système dans le diagramme de séquence.


39

II.2. Méthodes ou techniques utilisées

Pour produire ce travail et l'amener à bon terme, nous avons fait recours aux

différentes techniques et méthodes.

II.2. Techniques

Une technique est définie comme étant l'ensemble des moyens et procédés qui

permettent au chercheur de rassembler des données et des informations sur son sujet

de recherche (MPOYO A, 2007).

Au cours de notre recherche, nous avons recouru aux différentes techniques

dont documentation, l’observation, à la technique d'interview et au simulateur.

II.2.1. La documentation

Selon Madeleine (GRAWITX, 2010), la technique documentaire consiste en une

fouille systématique de tout ce qui est écrit ayant une liaison avec le domaine de

recherche.

Nous avons ainsi recouru aux ouvrages, aux mémoires, aux différents

rapports sur les recherches menés en rapport avec notre sujet, les notes de cours ainsi

que les sites web auxquels nous avons abondamment recouru.

II.2.2. Technique d'observation

Nous avons recouru à technique d’observation directe qui consiste à se rendre

sur terrain en vue relever de façon objective le comportement d’un système donné. Elle

se rapporte à ce qu’un professionnel a réellement vu sur terrain (ROUILLARD, 2012).


40

Par cette technique, nous avons observé le fonctionnement du système

d’information de gestion de ressources humaines en vue de dégager des failles de

performance et de sécurité en nous servant de la méthode d’audit du système

d’information d’une entreprise commerciale.

II.2.3. La technique d'interview structurée

La documentation à elle seule ne suffit pas pour donner des informations

recherchées. Pour cette raison, nous avons organisé l'interview à quelques acteurs clés

du système d’information notamment le concepteur du système, l’informaticien

principale de la Direction Administrative et financière ainsi que le Directeur

Administratif et Financier de la SOKIMO. En effet, l’interview est une technique qui

porte exclusivement sur l’information verbale à obtenir à partir d’un questionnaire

préétabli en vue de recueillir des données sur un thème de recherche bien déterminée

(URECA, 2017). Nous l’avons utilisée dans la phase post expérimentale pour obtenir

des données complémentaires.

II.3. Les outils utilisés

Pour tester le fonctionnement de notre modèle, nous nous sommes servi des

outils tant matériels que logiciel.

II.3.1. Le simulateur

Selon le dictionnaire Le Parisien en ligne (Le Parisien, 19-07-2017), un

simulateur est un dispositif technique permettant de reproduire de façon virtuelle une

situation. Sur le plan informatique, le simulateur est un ordinateur qui permet de créer
41

des conditions de travail d’un autre système afin de le tester, d’en permettre une

initiation plus rapide ou encore d’utiliser certains logiciels.

Dans notre travail, nous avons recouru au simulateur pour tester le

fonctionnement de notre modèle qui est un système d’information avec des serveurs

virtuels sur un ordinateur portable du type HP ProBook 6570B capable de supporter

les logiciels ainsi que les différents serveurs virtuels.

II.3.2. Sur le plan logiciel

Sur le plan logiciel, nos outils se sont essentiellement constitués des logiciels de

modélisation du schéma du réseau dont le Microsoft Visio 2010, le Pascestra Netflow

et pour la modélisation UML nous avons essentiellement recouru au Pacestra UML

Diagrammer qui nous a paru plus riche et facile à utiliser.

Pour le fonctionnement de notre simulateur nous avons utilisé le Windows 2012

Server comme Système d’exploitation hôtes et le Windows 2003 serveur comme

système d’exploitation invités.

Nous avons aussi utilisé le logiciel Dsik2Vhd pour convertir notre serveur

physique en machine virtuelle.


42

CHAPITRE III : ANALYSE DE L’EXISTANT

III.1. Présentation du Système d’information de la SOKIMO Bunia

III.1.1. Historique

Le système d’information des Ressources humaine de la SOKIMO a été mise en

place en 2010 (NGAPE, 4-07-2017). C’est aussi l’année où l’Office de Mine d’Or de Kilo-

Moto, OKIMO, en sigle, alors une entreprise étatique, était transformée en une

entreprise commerciale qui changera son nom en Société Minière de Kilo-Moto,

Sokimo, en sigle. Les fonds reçu des actionnaires de la nouvelle Société seront mis en

profits pour réaliser trois objectifs majeurs, notamment (TSEDHA, 2011) :

- La mise en retraite des agents ayant atteint ou dépassé l’âge de la retraite

- Le paiement de salaire des agents

- L’investissement.

Compte tenu du volume de tâches à exécuter pour réaliser les deux premiers

objectifs, un projet d’automatisation de la gestion des ressources humaines sera mis

sur pieds. Il aboutir sur la mise sur pieds du système d’information de ressources

humaines de la SOKIMO à Bunia.

III.1.2. La composition du système d’information de ressource humaine de la

Sokimo Bunia

Le Système d’information des ressources humaines de la Sokimo Bunia est

composé des éléments ci-dessous :


43

- Une machine Dell PowerEdge T110 servant de serveur informatique et

équipée d’un processeur Intel Xeon T4200 d’une vitesse équivalente à

2GHZ, de deux mémoires vives DDR2 de 2GHz chacune, de deux disques

durs de 500 Go chacun qui forment un total de 1 To (Tera Octet), et équipé

de système d’exploitation Windows 2003 serveur Edition standard.

- Trois ordinateurs de bureaux du type Dell Optiplex GX360, équipés de

processeurs Intel Pentium D, 3,2GHz de vitesse, d’une mémoire vive de 2

du type DDR3 de 2 GHz et de disque dur de 320 Go et de système

d’exploitation Windows client Windows 7 version Professionnel.

- Une machine portable

- D’un réseau informatique local constitué autour d’un commutateur Dlink

de 16 ports, d’une liaison Point par point établi à l’aide de deux ponts des

types Cisco aironet 1240 et ubiquiti Nanostation M2 permettant d’étendre

le réseau au-delà.

- Du logiciel de gestion de ressources humaines dénommé BSPAIE

développé à l’aide C# (C Sharp).

- Des utilisateurs qui se connectent au serveur à l’aide de leur identifiant de

sécurité.
44

III.1.3. Fonctionnement du Système d’information Sokimo Bunia

A. Machine Dell PowerEdge T110

La machine Dell PowerEdge T110 est utilisée comme un serveur et contrôleur

de domaine. Notons pour rappel que le terme « Serveur » ne désigne pas

nécessairement une machine spéciale, mais dans notre cas, il désigne plus le service

activé sur une machine qui permet à celle-ci de jouer un rôle spécifique dans le réseau.

En effet, quatre services sont activés sur cette machine. Il s’agit de :

- Active Directory

- Système de nom de domaine.

- Ficher et impression

- Bureau distant

Nous abordons dans les lignes qui suivent le fonctionnement de différents

services.

a. Active Directory

Active Directory est un annuaire introduit par Microsoft depuis la version

Windows Server 2000. Son implémentation au sein d’un système d’information

permet de centraliser des informations relatives aux utilisateurs et aux ressources

d’une entreprise fournissant des mécanismes d’identification tout en sécurisant l’accès

aux données (WORDPRESS, 2014). La machine (serveur) sur laquelle est installé ce

service Active Directory s’appelle « Contrôleur de domaine ».

Historiquement, Microsoft n’avait pas de service n’annuaire et beaucoup

d’entreprises utilisaient le NDS de Novell. Le service Active Directory utilise une base

de données avec un moteur ESE pour stocker toutes les informations d’annuaire. Ces
45

informations se pressentent sous formes d’objets qui représentent les utilisateurs, les

ordinateurs, les groupes de sécurités. Active Directory utilise le protocole LDAP

(Lightweight Directory Access Protocole) qui est protocole TCP/IP. Ce protocole

définit l’accès à l’annuaire sous forme d’une arborescence. L’annuaire LDAP

regroupes tous les objets dans un arbre de telle manière que :

- La racine de cet arbre est le domaine

- Les branches sont des unités d’organisation

- Les feuilles sont des utilisateurs, des groupes, des ordinateurs.

domainDNS

organizationalUnit organizationalUnit

user group computer user group


computer

Arborescence du protocole LDAP de l’Active Directory

Dans le cas de notre système d’information, l’annuaire définit par l’arbre est :

- Domaine : SOKIMO.CD

- Branches : Bunia

- Utilisateurs : jngape (Jacques Ngbape)

- Ordinateurs :

- Groupes : Finances, Admins,…

Ci-dessous, une vue de utilisateurs dans le serveur Active Directory de la SOKIMO :


46

Pour se connecter aux diverses ressources du système d’informations partagées

sur les serveurs, les utilisateurs utilisent un processus qui comprend :

- Identification par le nom d’utilisateur ou login

- Authentification par un mot de passe.

b. Le service DNS

DNS est un service qui utilise le protocole TCP/IP permet d’associer les noms

en langage courant aux adresses numériques appelées IP grâce à un système appelé

Domain Name System ou DNS, en sigle (CCM, 2017).

Aux origines de TCP/IP, étant donné que les réseaux étaient très peu étendus

ou autrement dit que le nombre d’ordinateurs connectés à un même réseau était faible,
47

les administrateurs réseau créaient des fichiers appelés table de conversion manuelle. Ces

tables de conversion manuelle étaient des fichiers séquentiels, généralement nommes

hosts ou host.txts associant sur chaque ligne l’adresse IP (Internet Protocole) de la

machine et le nom littéral associées appelé nom hôte. Ainsi avec l’explosion de la taille

des réseaux et de leur interconnexion, il a fallu mettre en place un système de gestion

des noms hiérarchisés et plus facilement administrable. Le Domain Name System

(Système de nom de domaine) a été mis au point en 1983 par Paul Mockapetris (CCM,

2017). Ce système propose :

- Un espace de nom hiérarchique qui permet de garantir l’unicité d’un nom

dans une structure arborescente de LDAP.

- Un système de serveurs distribués permettant de rendre disponible l’espace

de nom (si un serveur est indisponible, un autre prendra le relais)

- Un système de clients permettant de résoudre les noms de domaines, c’est-

à-dore interroger les serveurs afin de connaitre l’adresse IP correspondant à

un nom donné.

La structure d’arborescence DNS comprend :

- Domaine (ou sous-domaine) : C’est le niveau le plus bas dans l’Active

directory. Il contient au moins un contrôleur de domaine. Dans notre cas, le

domaine correspond à ROBIA.DRH.SOKIMO.CD

- Arborescence : Ensemble de domaine et de sous-domaine

- Foret : Ensemble d’arborescence qui appartient à la même organisation.

Dans le cas du système d’Information il existe un serveur DNS qui est installé

sur le serveur abritant l’Active Directory lui-même. Ce serveur est configure de façon
48

à résoudre les adresses IP des machines qui figure dans la plage des adresse prive de

classe C, notamment : 192.168.1.0/24. Et le nom du domaine :

- Notre contrôleur de domaine a comme adresse IP : 192.168.1.1 et comme

nom de machine dans le domaine

- La première machine client a comme adresse IP : 192.168.1.2 et comme nom

de de machine dans le domaine :

- La deuxième machine client a comme adresse IP : 192.168.1.3 et comme nom

de machine dans le domaine

- La troisième machine client a comme adresse IP : 192.168.1.4 et a comme

nom de machine dans le domaine :

DOMAINE : SOKIMO.CD

DRH.SOKIMO.CD

ROBIA.DRH.SOKIMO.CD

ROBIA10
DiradminFin Jngbape

c. Service de fichiers et impression

Un serveur de fichier est un dispositif mis en place pour partager des données

à travers le réseau. Il possède généralement une grande quantité d’espace du disque

dur ou les fichiers sont déposés. Les utilisateurs peuvent ensuite les récupérer au
49

moyen d’un protocole de partage de fichiers (WIKIPEDIA, 11-07-2017). Plusieurs

protocoles sont utilisés pour le transfert de fichier entre une machine serveur et le

client. Il s’agit des protocoles suivants :

- Le FTP : File du transfert Protocole

- Le CIFS : Common Internet File System

- Le SMB : Le Server Message Block

- NCP : Netware Core Protocol.

Robe (SOBER, 2016) note que le choix du protocole se détermine en fonction de

l’utilité de serveur et du système d’exploitation réseau utilisé sur un serveur. Notons

quelques cas ci-dessous

1. Le protocole FTP

Ce protocole est utilisé dans le cas où l’établissement de connexion permanente

entre le serveur et le poste client n’est pas voulu par l’utilisateur. Il s’agit d’une

transmission ponctuelle. En cas d’interruption, la connexion reprend au point de

transmission.

2. Protocole CIFS

Mise au point par Microsoft, ce protocole est largement répandu sur le système

d’exploitation Windows, Unix et Linux. Il permet donc de partager le fichier entre le

serveur Microsoft et le client Unix/Linux et vice-versa.

3. Le Protocole SMB

Le SMB a été mise au point par IBM dans les années 1980 et implémenté par

Microsoft dans la version Microsoft SMB pour partager les fichiers à travers un réseau

local. SMB se présentés sous 3 versions :

- SMB1 : Implémenté par IBM et récupérer par Windows dans les versions
50

Antérieures. Il s’appelait alors CIFS.

- SMB2 : Implémenté par Microsoft sur les Windows Vista

- SM3 : Implémenté par Microsoft Windows 8 et Server 2012.

Les Modes de fonctionnement SMB

 Le mode SMB Shares

Les serveurs SMB sont en écoute sur les ports 139 ou 445

Une ressource peut être partagée en réseau (disque dur, dossiers, imprimantes)

pour être accessible :

- Par tout le monde

- Par quelques utilisateurs

- Par un groupe défini des utilisateurs.

Le mode SMB Shares est alors utilisé. Dans le cas où, la ressource est partagée

en accès libre a tout le monde, le mode Everyone Shares est activé. N’importe qui

utilisant le scan et découvrir les ressources partagée sur le réseau.

 Sécurité de partage des ressources en réseau

La sécurisation des dossiers sur le serveur se fait par le cryptage, c’est-à-

dire association d’un mot de passe à une ressource partagée sur le réseau.

SMB possède alors deux modes d’authentification : le mode « shares » où il

associe le mot de passe à une ressource partagée et le mode « user » ou il associe

le mot de passe à un utilisateur. Cet utilisateur peut être propriétaire d’une

ressource ou non.
51

Dans le cas de notre système d’information de gestion des ressources humaines,

les ressources ci-dessous ont été partagées sur le serveur ROBIA.DRH.

SOKIMO.CD :

- Les archives données des ressources humaines manipulées par le logiciel

BSPAIE accessible seulement par les opérateurs de saisie des ressources

humaines

- Les logiciels d’installations et de restauration système accessibles seulement

par les techniciens et informaticiens

- Les documents importants accessibles par les différents groupes de sécurités

établis suivant les services ou direction.

L’accès à une ressource partagée sur le serveur de fichiers est conditionné par :

- L’identification de l’utilisateur

- L’authentification de l’utilisateur

- Son appartenance au groupe de sécurité ayant accès à la ressource partagée.

Notons ici que l’authentification implique l’identification. Il se fait au niveau

du serveur Active Directory et permet à un utilisateur de se connecter aux différentes

ressources partagées sur le serveur au niveau de l’organisation, en savoir, les dossiers,

les fichiers, imprimantes, etc. (OBATI, 2017).

d. Le SQL Server 2005

i. Présentation de SLQ

Selon (GODEC, 2011), le SQL qui signifie Structured Query Language ou Langage

d’interrogation structuré a été créé au début des années 1970 par IBM. C’est un langage

par plusieurs Système de gestion de base de données relationnels tels que le Microsoft
52

SQL Server, Oracle, PostgreSQL, MySQL et autres. Ce langage a connu plusieurs

versions normalisées en 1986. La norme SQL2 est la plus importante implémentée par

la majorité des SGBDR existants. Les autres normes SLQ3 et SQL 2008 ont aussi

apportée chacune quelques fonctions complémentaires. La structure de la base SQL se

compose :

- Des tables utilisées pour stocker les informations

- Des formulaires utilisés pour la saisie des données

- Des requêtes utilisées pour interroger les données.

Le langage SQL se décompose en plusieurs sous ensemble :

- Le Data Definied Language (DDL) : pour créer, modifier ou supprimer les

structures de la base

- Le Data Manipulation Language : Pour manipuler les données contenues dans

la base

- Le Date Control Language (DML) : pour gérer la sécurité des accès aux

donnees. Il s’agit de GRANT ou REVOKE

- Le Transaction Control Language (TCL) : pour gérer la validation ou non des

mises à jour effectuées sur les bases.

ii. Microsoft SQL Server 2005

Microsoft SQL Server est un Système de Gestion de Base de Données du type

relationnel développé par Microsoft vers les années 2005. En effet, Chantal

(GRIBAUMONT, 2012) définit un SGBD est un logiciel ou un ensemble de logiciels

permettant de manipuler les données d’une base de données, c’est-à-dire sélectionner

et afficher des informations tirée de cette mase, les modifier des données, en ajouter
53

ou supprimer. Le SQL server 2005 est une base de données dite de nouvelle génération.

Elle propose des services qui vont de la gestion des données de l’entreprise aux

services d’analyses en passant par la mise à la disposition d’une infrastructure de

développement (LIEFFRIG, 2005).

SQL Server 2005 est logiciel qui fonctionne dans sous une architecture-client-

serveur, c’est-à-dire que la base de données se trouve sur un serveur. Pour interagir

avec cette base de données, un logiciel client est utilisé pour interroger le serveur

(requête) et retransmettre la réponse que le serveur donné.

Dans le cas de notre Système d’information, le SQL server 2005 est installé sur

le Serveur Dell PowerEdge T110 dans le même environnement Windows 2003 Server

Edition Entreprise. Une gère la base de données de Ressources humaines de la

SOKIMO toute entière, c’est-à-dire, il stocke les informations relatives au personnel de

la SOKIMO dans une table appropriées.

e. Le logiciel BSPAIE

Le logiciel BSPAIE est application développée par la maison Busness Soft

Investment (BSI) en sigle et mise en place en 2011 dans le langage C#.net (OBATI, 2017).

C’est une application qui sert d’interface pour se connecter au serveur SQL 2005 et de

traiter les données, les manipuler et les stocker dans les tables.

Pour se connecter au logiciel BSPAIE, une authentification est recommandée.

En effet, l’authentification utilisée pour cette connexion est faite pour le serveur SQL

2005 - et non par le serveur LDAP- pour les utilisateurs dont les comptes et les

identifiants sont stockés dans une table de SQL Server 2005. Cette table est

régulièrement mise à jour pour ajouter, supprimer ou modifier les comptes des
54

utilisateurs appropriés pour se connecter au Serveur SQL 2005 à travers le logiciel

BSPAIE.

f. Bureau distant

Le Bureau distant (Remote Desktop) est une fonctionnalité de Windows depuis

sa version XP (CHAUSSON, 2018). Il permet à un utilisateur de se connecter à partir

de son ordinateur au serveur et de l’administrer en distance et de travailler sur celui.

A défaut de pouvoir installer le BSPAIE sur la machine cliente, les utilisateurs

accèdent à cette fonctionnalité de Windows Server 2003 pour se connecter à distance

au serveur et opérer directement sur le logiciel BSPAIE.

III.3. Audit du système d’information existant

Pour analyser et critiquer le système d’information existant, nous nous sommes

servi de quelques éléments de base de l’audit d’un système d’information en général

et du réseau informatique en particulier. Ces éléments sont (BRZEZINSKI, 2007) :


55

- Les risques sur la performance du Système d’information

- La sécurité du système d’information, notamment, en ce qui concerne la

disponibilité, l’intégrité des informations sur le serveur.

- La maintenance du système du serveur et sa capacité d’évoluer

- La pérennisation du système d’information.

Le système d’information de la Gestion de ressources humaines de la SOKIMO

présente quelques failles que nous abordons ci-dessous :

A. Cohabitation de plusieurs services réseau au sein d’un même système

d’exploitation.

Thierry (LONGEEU, 2005) souligne qu’au départ, les machines (ordinateurs)

sont conçues pour n’exécuter qu’un seul système d’exploitation. Ce système

d’exploitation assure la liaison entre les ressources matérielles, l’utilisateur et les

applications.

Dans le cas de notre système d’information nous remarquons que, tous les

services applicatifs réseaux, notamment Active Directory, Fichier et Impression,

Serveur SQL 2005, cohabitent sur un même système d’exploitation. Ceci rend ces

services dépendants les uns des autres. En outre, chaque service accédant

physiquement aux ressources matérielles du serveur mis à la disposition par le

système d’exploitation peut interférer avec un autre réduisant la performance du

serveur.
56

b. Impossibilité de migrer un service sur une autre machine ou un autre

Système d’exploitation

Il se pose la difficulté de migrer un service réseau vers un autre système

d’exploitation ou sur une autre machine en cas de panne ou de dysfonctionnement du

serveur. Dans ce cas il faut recommencer toutes les configurations effectuées de

nouveau. D’où le problème de temps (indisponibilité de service pendant plusieurs

jours) et de coût d’exploitation. Ce système présente donc une faille pour la

maintenance du système informatique.

c. Difficultés de faire évoluer le système d’information

Selon Georges (OBATI, 2017), le système d’information de la gestion de

Ressources humaines est sensé évolution. Cette évolutions nécessite l’intégration

d’autres services tels que :

- La connexion d’application de la comptabilité et de la trésorerie

- La mise en place d’un serveur VPN pour permettre une connexion distance

aux serveurs

- La mise en place d’un serveur de mise à jour antivirus.

Cette évolution dans les conditions actuelles n’est pas possibles, car elle

nécessiterait des investissements additionnels en termes de matériels et licence pour

le système d’exploitation.

Ce système présente donc une faille pour l’évolution ou la pérennisation pour

le système d’information.
57

III.3. Analyse des solutions

Pour résoudre cette question deux solutions sont envisagées

- Dédier une machine physique à chaque service.

- Virtualiser le serveur physique pour obtenir des serveurs virtuelles.

III.3.1. Dédier une machine physique à chaque service

Cette solution consiste à dédier une machine (Serveur) physique à chaque

service réseau, en l’occurrence 4 serveurs informatique dont

- Un serveur pour Active Directory et DNS

- Un serveur pour le Fichier et Impression

- Un serveur pour SQL 2005

Les conséquences de cette solution sont néfastes sur l’entreprise commerciale,

notamment

- L’augmentation de coût d’achat des serveurs additionnels


- Encombrement de la salle serveur avec des conséquences sur l’écologie de
l’environnement
- Augmentation de coût de licence pour chaque système d’exploitation
serveur
- Augmentation de coût d’exploitation et d’entretien du serveur.
III.3.2. La virtualisation des serveurs du système d’information

La solution de la virtualisation des 4 serveurs du système d’information de la

Ressource humaines de SOKIMO est une solution idéale que nous avons choisie. Cette

solution apporterait des avantages considérable a l’entreprise en termes de sécurité,

de la réduction du coût et de l’amélioration de la performance, de la maintenance et

de l’évolution du système d’information.


58

Elle permettrait notamment (BELVIGNE, 2016);

- De faire cohabiter quatre systèmes d’exploitation réseau sur une seule

machine, notamment le DELL PowerEdge T110 et des créer ainsi des

serveurs virtuels

- De cloisonner chaque système d’exploitation sur une seule machine virtuelle

sans les interférer avec un autre système d’exploitation (SAADBOUH,

2006) ;

- De destiner un serveur virtuel pour chaque service réseau. L’administrateur

pourra choisir de lancer, de suspendre ou d’arrêter un service non

nécessaire.

- De faciliter la migration à chaud d’un service sur une autre machine sans

occasionner d’interruption de ce service. Ici les machines virtuelles ne sont

que fichiers informatique qu’on peut copier ou déplacer sur une autre

machine (PAESLER, 2012).

- De mutualiser les ressources matérielles en regroupant de systèmes divers

sur une seule machine physique tout en les maintenant logiquement

séparées. Cette mutualisation de ressource favorisation l’administration du

réseau à partir d’un point unique (LONGEU, 2005).

- De faire évoluer le système en ajouter d’autre serveurs virtuels en

tant que logiciel informatique sans nécessiter l’achat d’une machine

additionnel. Elle permet aussi de tester plusieurs solutions logicielles, par

exemple en tester les serveurs sur un autre environnement Unix/Linux

avant de les déployer sachant que plusieurs types de système d’exploitation

différents peuvent cohabiter sur la machine physique.


59

CHAPITRE IV.
MODELISATION DES SERVEURS VIRTUELS

Dans les chapitres précédents, nous avons présenté la virtualisations des

serveurs de notre système d’informations compte tenu des avantages rencontrés en

termes de performances et de la sécurité. Dans ce chapitre, nous allons nous focaliser

sur la modélisation de notre contexte en nous servant des éléments décrits dans la

partie méthodologie. Pour ce fait, il conviendra de comprendre le fonctionnement du

système d’information dans son ensemble et de définir la manière dont chaque

élément du contribue au fonctionnement de l’ensemble. Ces éléments devront être

représentés de façon à ce que les lecteurs puissant les comprendre.

IV.1. La modélisation du système d’information

Il s’agira, dans cette partie, de modéliser le fonctionnement de différents

serveurs et de la manière dont les utilisateurs interagissent avec ceux-ci et aussi

d’établir les rapports d’activités entre les serveurs que nous avons considérés comme

des utilisateurs système-machine.

Nous allons considérer le comportement de notre système d’information

virtualisé sur le plan fonctionnel et non fonctionnel, identifier les différents acteurs qui

se connectent au système d’information et les différents cas d’utilisation et enfin,

élaborer le diagramme de séquence, d’activités et de déploiement.


60

IV.1.1. Sur le plan fonctionnel

Sur le plan fonctionnel les différents serveurs virtuelles devront offrir des

services, notamment :

 Contenir l’annuaire des utilisateurs, notamment les comptes des utilisateurs,

les comptes des ordinateurs et les groupes de sécurités

 Stocker des données des utilisateurs dans les dossiers partagées

 Assurer la sécurité et intégrités des données sur les dossiers partagés en

offrant un système d’authentification des utilisateurs

 Assurer la connexion au logiciel de gestion par un système d’authentification.

IV.1.2. Sur le plan non fonctionnel

Sur le plan non fonctionnel, il conviendra d’identifier les contraintes internes

qui nécessitent d’être pris en considération avant la planification de la mise en

œuvre de notre système. Notamment :

- La capacité de la mémoire vive capable de supporter toutes les machines

virtuelles à installer.

- La répartition des ressources matérielles entre la machine physique (ou

serveur hôte) et les machines virtuelles

- Le volume de stockage du disque dur capable de supporter les machines

virtuelles.

- Le mécanisme de sauvegarde des machines virtuelles.


61

IV.1.3. Les résultats attendus

Après la virtualisation du système d’information, les machines virtuelles

devront fonctionner comme si il s’agissait des machines physiques en se connectant

mutuellement et en offrant les différents services réseau (LDAP, Fichier et impression

et SQL et VPN). La machine hôte sous Microsoft Hyper-V devra offrir la possibilité

d’installer une autre machine virtuelle sous Linux, par exemple. CentOs5.

IV.2. Identification des acteurs

IV.2.1. Définitions des acteurs

Un acteur représente un rôle joué par une entité externe (utilisateur humain, dispositif

matériel ou autre système) qui interagit directement avec le système étudié. Un acteur peut

consulter et/ou modifier directement l’état du système, en émettant et/ou en recevant des

messages susceptibles d’être porteurs de données (Roques P, 2006). Les acteurs qui

interagissent avec notre système sont :

- Les utilisateurs : Ils se connectent, d’authentifient, accèdent aux Dossiers partages et à

la base de données de la gestion de ressources humaines.

- Le système : Il désigne ici les serveurs LDAP qui authentifie les utilisateurs locaux et

le serveur VPN qui authentifie les utilisateurs distants.

IV.2.2. Description de rôles des utilisateurs

A. Administrateur réseau

Un administrateur réseau est un utilisateur dont le compte est configuré avec

des privilèges élevés dans le serveur contrôleur de domaine. Il gère le compte des

utilisateurs sur le serveur LDAP (GERMOUCHE, 2017).


62

En conclusion un administrateur est un cas généralisant de l’utilisateur, car il

peut effectuer les mêmes tâches qu’un utilisateur en ajoutant des taches qui lui sont

propres (Charroux et all, 2010)

IV.2.3. Identifications des cas d’utilisation

Selon Pascal (Roques, 2006) Un cas d’utilisation (« Use case ») représente un

ensemble de séquences d’actions qui produisent un résultat observable intéressant

pour un acteur particulier. Il permet de décrire ce que le futur système devra faire sans

spécifier comment il devra le faire. En bref, il modélise une interaction entre le système

informatique à développer et un utilisateur ou un acteur agissant avec le système

(GUILBERT O, 2014).

Dans notre système d’information à virtualiser, nous avons identifié deux cas

d’utilisation : Se connecter et S’authentifier.

Ces différentes spécifications fonctionnelles seront traduites dans leurs

descriptions textuelles et les digrammes de cas d’utilisations correspondants. Pour y

arriver, nous allons établir quelques règles de gestions fonctionnelles comme ci-

dessous :

a. L’administrateur réseau

- Un administrateur réseau se connecte au serveur LDAP pour effectuer des

tâches d’administration et de gestions de comptes des utilisateurs.

- Un administrateur réseau doit d’abord s’authentifier auprès du serveur LDAP

avant de s’y connecter et faire quoi que ce soit. Le serveur LDAP examinera si
63

le compte de l’administrateur détient le pouvoir administratif et lui donnera

ensuite les privilèges dus.

- L’administrateur réseau se connecte au serveur LDAP et crée les comptes des

utilisateurs et les groupes de sécurités dans le serveur LDAP d’Active Directory.

- Un administrateur réseau peut désactiver le compte d’un utilisateur qui n’est

plus en service. Il peut supprimer le compte d’un utilisateur décédé dans le

serveur virtuel Active Directory.

- L’administrateur réseau peut réinitialiser le mot de passe d’un utilisateur dans

le serveur virtuel Active Directory

- L’administrateur réseau se connecte au serveur virtuel de fichier et

d’impression et crée des dossiers partagés sur le disque dur du serveur virtuel

et définit le partage au groupes de sécurités.

- Un administrateur réseau s’authentifie auprès du serveur SQL et se connecte à

la base de données.

- Un administrateur de base de données crée, modifie ou supprime des comptes

des utilisateurs

b. Utilisateur

- Les utilisateurs s’authentifient auprès du serveur LDAP et se connectent

aux dossiers partagés sur le serveur virtuel de Fichiers et Impression.

- L’utilisateur peut créer, lire, copier, supprimer ou modifier des fichiers sur

des dossiers partagés.


64

- Un utilisateur s’authentifier auprès du serveur SQL et se connecte à la base

de données de gestions des ressources humaines.

IV.2.4. Les diagrammes de cas d’utilisation

A. Diagramme de cas d’utilisation Comptes utilisateurs et groupes

Compte utilisateurs et groupes

Accéder au Serveur de Fichier

«include»
«include»

Crer des comptes utilisateurs «include»

«include»

Désactiver le compte utilisateur

«include»
Suprimmer le compte utilisateur S'authentifier

Administrateur «include» Serveur LDAP


Reseau
Créer des groupes

«include»

Affecter des comptes


ax groupes
«include»

Desaffecter des comptes


des groupes

Supprimer un groupe
65

B. Diagramme de cas d’utilisation pour le service de fichiers

Service de fichiers

Acceder au serveur de Fichiers

Acceder au dossier partagé

«include»
«include»
Ouvrir le fichier
«include»

Modifier les fichiers


S'authentifier
Utilisateur «include»
«include»
«include» Serveur LDAP
Supprimer les fichiers
S'identifier

Renommer les fichiers

«include»

Partager des dossiers «include»

«include» «include»

Creer des dossiers

«include»
Affecter des droits au dossiers

«include»

Desaffecters des droits au dossiers

Supprimer le partage des dossiers

«include»

Supprimers les dossiers

Administrateur
reseau
66

C. Diagramme de cas d’utilisation base de données

Base de données de ressources humaines

Se connder à la base de données

«include»
«include» «include»

Ajouter un employé
S'authentifier
Utilisateur
Serveur SQL
Editer un employé

«include»
«include»

Supprimer unemplyé
Calculer remunération
employé

«include»
Creer un utilisateur

«include»
Editer un utilisateur

«include»

Administrateur Supprimer un utilisateur


67

IV.2.5. Diagramme d’activités.

A. Diagramme d’activité du cas d’utilisation service de fichiers pour l’utilisateur.

Nous présentons ci-dessous le diagramme de cas d’utilisation Service de

fichiers (dans le serveur virtuel de fichiers et impressions).

Connection au serveur
de Fichiers

Non Oui
Connecté? Ouvrir le dossier partagé

Non compte
valide?

Oui

Appartient
Acceder au dossier partagé
au groupe?

Traitement des fichiers


68

B. Diagramme d’activité Gestion de ressources humaines

Connection au SQL
(Bureau distant)?

Non Oui Ouvrir le dossier le logiciel


Connecté?
BSPAIE

Non compte
valide?

Oui

Acceder au logiciel et
traitement
69

IV.2.6. Diagramme de séquence

A. Diagramme de séquence de cas d’utilisation Service Fichiers et impression

Serveur virtuel Serveur Virtuel


Fichier LDAP
Utilisateur

Connexon au reseau local

Machine connecté

Acces au serveur de fichiers

Authentification de l'utilisateur

Reponse authentification

Accès au dossier partagé


Verification de droit
d'accès au groupe

Succés

Traitement de fichier
Verification
de droite d'ecriture

Sucés
Enregistrement du fichier dans le dossier

Enregistrement du fichier dans sur la machine du client


Echec
Accès refusé

Echec
70

CHAPITRE V

CONFIGURATION ET INSTALLATION DES SERVEURS VIRTUELS

A L’AIDE DE MICROSOFT 2008 SERVER R2

Dans le présent chapitre, nous nous intéresserons à la configuration des

serveurs virtuels en nous servant l’aide de Microsoft Windows 2008 Server R2 dont la

présentation et les avantages ont déjà été esquissés dans le chapitre précèdent.

Les matériels nécessaire ayant servi pour notre simulation était composée de :

 Un ordinateur portable HP ProBook 6570B avec caractéristiques ci-dessous :

 Processeur du type Intel i3 capable de système la version 64 bits du

système d’exploitation,

 Mémoire RAM DDR2 de 4Go,

 Disque dur de 320 Go,

 Une carte réseau interne du type Intel Gigabit

 Une carte réseau Externe USB-RJ45 Gigabit

 Un commutateur Cisco 2900

 Deux câbles réseau UTP du type droit

 Un DVD de Windows 2008 Server R2 version française dotée d’une licence

expérimentale de 180 jours.

V.1. Installation de Windows Server R2

Il s’agira principalement d’aller point par point dans :

 L’installation de Windows 2008 Server R2


71

 La configuration de l’hyperviseur Hyper-V v2

 La configuration des cartes réseaux

 La création des machines virtuelles

 Le paramétrage des cartes réseaux

 L’installation des Système d’exploitation invités

 La configuration des machines virtuelles.

Pour installer Windows Server R2, nous nous sommes servis de DVD du logiciel

Windows 2008 R2 avec une licence expérimentale de 180 jours. L’étape l’installation

a consisté à :

- Paramétrage de Bios pour configurer la séquence d’amorçage sur le lecteur de

DVD

- Copie des fichiers système

- Installation de programme

- Configuration de Windows Server 2008 R2

- Configuration de l’utilisateur et mot de passe.

II. Configuration de l’hyperviseur Hyper-V

Les retapes de la configuration de Hyper-V sont les suivantes :

-
72