Вы находитесь на странице: 1из 64

Contrôle de gestion

Le contrôle de gestion est l'activité visant la maîtrise de la conduite raisonnable d'une organisation en
prévoyant les événements et en s'adaptant à l'évolution, en définissant les objectifs, en mettant en place les
moyens, en comparant les performances passées et futures et les objectifs, en corrigeant les objectifs et les
moyens1.
Le contrôle de gestion pense, propose et élabore des outils de gestion au service du management de
l'organisation. Il permet de procéder à des évaluations de la performance, c'est-à-dire de l'efficience, de
l'efficacité, des synergies, des gains de productivité et de la flexibilité. Si l'appréciation de la rentabilité reste
généralement du ressort de l'analyse financière et des investisseurs (hedge funds, asset manager, OPCVM,
petits porteurs, private equity, fonds souverains…) certaines approches telles que le tableau de bord
prospectif (balanced scorecard) permettent d'anticiper son évolution future au regard des performances
passées.

Le contrôle de gestion permet le contrôle, la mesure, la gestion et l'analyse de l'activité d'une organisation.
Des indicateurs seront suivis (mesurés) ainsi que l'écart de la situation (réelle) avec le but visé (valeur cible,
budget à respecter). Il s'agit d'un contrôle non seulement au sens de vérification (évaluation), mais aussi au
sens de pilotage (conduite), même si cette notion est porteuse d'une vision idéologique parfois critiquée (ou
approuvée). Le credo discutable du contrôle de gestion est qu'on ne pilote que ce que l'on mesure, ou dit
autrement "ce qui n'est pas mesuré ne peut être géré". La mesure est donc capitale car elle permet le contrôle
de la (bonne) gestion.

Afin d'améliorer le niveau d'intégration et la structure de l'organisation, le contrôle de gestion est parfois
(souvent) aidé d'un progiciel de gestion intégré (PGI, ou Enterprise Resource Planning). Sur ce système
d'information de gestion le contrôleur de gestion puise selon ses besoins dans la comptabilité analytique, la
comptabilité générale, la GPAO (Gestion de Production Assistée par Ordinateur), l'administration des ventes
et les différents services: achats, production, reprographie… Les PGI représentent cependant des solutions
lourdes et souvent difficilement maniables de telle sorte que des outils périphériques s'avèrent nécessaires
bien que coûteux (outils d'informatique décisionnelle, de calcul de coûts, de tableaux de bord, web
applications).

Le contrôleur est souvent issu d'une formation qui lui permet de mettre en adéquation les objectifs et les
moyens grâce à une formation technique mais aussi généraliste. Il a suivi en général une formation de type
Ecole de Commerce ou Master Contrôle de gestion en université. De nombreuses universités françaises2
proposent ce type de formation. Il beneficie au sein de l'entreprise d'une position charnière lui permettant de
communiquer avec les services chargés du contrôle de la gestion des moyens, des performances et des
objectifs.

La mutation du contrôle de gestion


De multiples facteurs ont contribué à faire évoluer le contrôle de gestion depuis son origine: intensification
de la concurrence, globalisation de l'économie, développement des TIC (Technologie d'Information et de
Communication), utilisation croissante des données pour analyser la performance des organisations,
évolutions en matière réglementaire et de gouvernance, etc.

Par ailleurs, le tissu économique a connu des mutations majeures depuis la naissance du contrôle de gestion.
L'économie était alors essentiellement tournée vers les activités industrielles alors qu'aujourd'hui, ce sont les
services qui prédominent, représentant près de 80% du PIB de la France3.

Les techniques de contrôle de gestion, historiquement conçues pour un monde industriel, doivent donc
s'adapter aux spécificités des sociétés de service.

C'est ainsi désormais une approche globale qui est attendue du contrôleur de gestion. Outre les techniques
d'analyse (calcul des coûts, analyse des écarts, yield management, analyse des business models), celui-ci doit
à la fois avoir une bonne connaissance de l'environnement externe (marché, concurrence, régulations), de
l'environnement interne (opérations, process, culture d'entreprise), des outils (ERP, décisionnel, reporting),
mais aussi maîtriser les aspects communication et gestion interpersonnelle (management, leadership,
intelligence émotionnelle)4.

Les mutations globales de l'économie et sa tertiarisation ont ainsi entraîné une modification des pratiques du
contrôle de gestion. Il est passé d’une simple fonction de calcul des coûts et des écarts budgétaires
(dépendant du département financier ou comptable) à une fonction tactique de pilotage du changement
relevant de la direction générale par le service marketing et la gestion de la qualité. Cette transformation
passa d'abord par une évolution du contrôle réalisé par le système d'information (son urbanisation, son
processus de transmission par reporting ou tableaux de bord…). L’audit du système d’information étant
théoriquement une des tâches fondamentales du contrôle de gestion, l'aide du service informatique devient
de plus en plus indispensable. Le contrôle tend de plus à utiliser des outils d'évaluation d'entreprise toujours
plus divers (Retour sur investissement, VA… si on lui assigne des objectifs d'analyse financière). Le
contrôle de gestion doit aussi tenir compte des divergences d'intérêts au sein de l'entreprise et de la culture
d'entreprise. Des règles de gouvernance d’entreprise (Corporate Governance) transparentes et prenant en
considération les intérêts de toutes les parties prenantes (stakeholder) doivent être prises en compte.

Caractéristiques du contrôle de gestion


Missions du contrôle de gestion

Le contrôle de gestion a pour mission de s'assurer de la mise en œuvre de la stratégie d'entreprise adoptée et
les moyens mis en œuvre sur le terrain (que fait-on et avec quoi ?). Cela implique plusieurs choses :

 En termes de positionnement, le contrôle de gestion est un des organes de la direction, même s'il a
des liens forts avec le système comptable ou financier (par exemple). Et même les managers
opérationnels font du contrôle de gestion, ce qui est une des difficultés de définition des missions
spécifiques au contrôleur de gestion.
 Le contrôle de gestion n'est pas un organe opérationnel, mais un organe d'échange d'information.
Une liaison étroite avec les unités opérationnelles est indispensable pour être certain du bien-fondé
des indicateurs et des outils de mesure. Bien que lié à la direction générale, le contrôle de gestion
doit tout autant partir "du bas" que "du haut" et veiller à être utile aux unités de travail autant qu'à la
direction de l'entreprise.
 Le contrôle de gestion ne peut se contenter de "cueillir" l'information qui passe, il lui faut la maîtriser
complètement et s'assurer de sa qualité (fiabilité, ponctualité, etc.) ; il aura besoin d'information
spécifique, sans autre usage que celui qu'il en fera, et il peut avoir besoin de la construire lui-même.
 Le contrôle de gestion ne se limite pas à donner des chiffres et allumer des voyants dans un tableau
de bord, il construit le tableau de bord et l'adapte en permanence aux objectifs. Il aide à déterminer
les indicateurs pertinents en collaboration avec le management.

Si dans le futur une entreprise souhaite améliorer ses performances financières, elle devra en effet s'assurer
régulièrement qu'elle se rapproche petit à petit de son objectif en vérifiant ses états financiers ; toutefois, elle
devra toujours pouvoir relier ses performances financières avec ses actions opérationnelles (si je veux que le
service commercial augmente de x % sa marge, je dois me demander quels sont les facteurs qui influencent
la marge et comment je vais devoir m'y prendre au quotidien pour agir sur ces facteurs ; si aucune action
n'est envisagée pour soutenir mon objectif, il y a peu de chance que je l'atteigne).

Ainsi, le contrôle de gestion revient à :

1. vérifier que les objectifs que sous-tend la stratégie choisie sont bien suivis. Cela se fait à partir de
tableaux d'indicateurs qui peuvent mêler des données financières (la comptabilité analytique) et des
données statistiques issues de l'exploitation ;
2. conseiller les opérationnels à partir de l'analyse de ses tableaux d'indicateurs ;
3. donner son avis à la direction sur le choix des objectifs qui sous-tendent la stratégie.

Le suivi est important car il permet de s'assurer que les actions mises en œuvre mènent bien l'entreprise là où
on le souhaite.

Enfin, la complexité des multinationales engendre une décomposition du contrôle de gestion. Outre le fait
que le contrôle de gestion n'est pas exclusivement propre aux contrôleurs de gestion (les opérationnels aussi
font du contrôle de gestion), ces derniers se voient assigner des tâches spécifiques. C'est pourquoi il se peut
qu'un contrôleur suive les performances au niveau de l'entreprise, qu'un autre suive plutôt une des filiales et
qu'enfin un troisième, au sein de la filiale, suive de manière plus opérationnelle les projets mis en place.

Les limites du contrôle de gestion

Il existe une triple limite fondamentale au contrôle de gestion :

1. Tout n'est pas mesurable à un coût raisonnable, et pourtant il faut bien quand même piloter le
système. Le contrôle de gestion n'est pas la panacée.
2. Une fois qu'un indicateur a été choisi, il devient très vite un but en soi, susceptible de toutes les
manipulations. Cela limite la confiance qu'on peut accorder au système de contrôle de gestion, même
si l'on peut mettre en place toutes sortes de parades (renouveler les indicateurs utilisés, les garder
confidentiels, etc.). Et cela induit un stress, notamment lorsque les indicateurs sont mal choisis et
conduisent à exiger l'impossible.
3. Les managers ne doivent pas se contenter des indicateurs du contrôle de gestion, mais doivent aussi
régulièrement constater sur place ce qui se passe dans les unités de l'entreprise et avec les clients, vu
que les indicateurs ne détectent pas tout.

D'autre part, il est souvent difficile de laisser le contrôle de gestion à sa place. Le contrôle de gestion, au
carrefour de nombreuses fonctions, peut assez facilement dériver, sous l'effet de ses tendances propres, du
contexte, et des pressions des autres acteurs. Il peut ainsi se limiter à un contrôle formel et tatillon, devenir
un organe d'inspection interne, ou de conseil et d'aide à la décision, ou d'analyse économique, ou encore
prendre en charge des responsabilités opérationnelles, ou bien encore occuper des fonctions plus ponctuelles
liées à une autre forme de métiers, malgré tout assez proche : l'audit interne.

Les fonctions contrôle de gestion


Le contrôle de gestion est l'activité visant la maîtrise de la conduite d'une organisation. Il propose et élabore
des outils de gestion au service du management de l'organisation. Les 4 types de contrôle sont le contrôle de
gestion discret, partenaire, garde-fou et omnipotent. Les rôles de fonctions contrôle de gestion sont le
mandat discret de vérification, l'aide à la décision locale, la formation des cadres dirigeants et légitimation,
et la centralisation du pouvoir 5.

La fonction contrôle de gestion discrète

Si la fonction de contrôle de gestion est distinguée comme étant discrète, cela veut nécessairement dire que
la délégation de l'autorité n'est pas considérable pour les dirigeants et que ceux-ci exercent pleinement leurs
responsabilités. La créativité de même que la réactivité des dirigeants sont donc exploitées à leur maximum.
Par contre, ce style de contrôle peut dériver à un contrôle interne ou même à une mauvaise gestion de
l'entreprise. De ce fait, cette sorte de contrôle de gestion devrait être bien évaluée avant son utilisation
puisqu'une bonne gestion est dite essentielle pour le bon fonctionnement d'une entreprise.

La fonction contrôle de gestion partenaire

De logique financière et marketing, la fonction contrôle de gestion partenaire est la délégation des études
nécessaires à la prise de décision, coté financier, des managers opérationnels aux contrôleurs de gestion. Ces
derniers font part de leurs connaissances, projets et activités en cours. Ceci engendre un sentiment
d’appartenance chez les contrôleurs. Ils supervisent de près l’ensemble et tous les éléments financiers
passent par eux. Tout en maintenant leur autonomie, ce partenariat entre les managers opérationnels et les
contrôleurs de gestion est source de bénéfices organisationnels.

La fonction contrôle de gestion garde-fou

La fonction contrôle de gestion « garde-fou » est associée à des logiques de changement fonctionnel et est
également discernée d’une étape de la formation des cadres dirigeants. Les caractéristiques des marchés qui
intègrent cette fonction sont qu’ils ne permettent pas aux conflits du contrôle de gestion de devenir
essentiels : la logique principale est celle des ingénieurs et commerciaux. Elle accomplit plusieurs rôles : son
premier objectif est de limiter les déviations en termes de dépenses.

La fonction contrôle de gestion omnipotente

Ce type de contrôle est aménagé de manière à engendrer une surveillance et une mise sous tension continue
des opérationnels; celle-ci contribue à centraliser la problématique des coûts dans toutes les décisions au
milieu de l’organisation. En contrepartie, elle est capable d'inhiber les opérationnels, soutenir la myopie
d’une organisation quelconque et évoquer un frein marquant à l’innovation.
Comptabilité analytique
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant
du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les
liant à la section « Notes et références » (modifier l'article, comment ajouter mes sources ?).

La comptabilité analytique est un système de comptes, ajustés à la comptabilité générale, permettant


d’identifier et de valoriser les éléments constitutifs du résultat de l’exercice et d’en permettre l’interprétation
et l’exploitation par les directions des entreprises. Elle rapproche chaque produit de ses coûts, qu’ils aient été
encourus dans l’exercice ou dans des périodes précédentes. Elle divise les résultats par centre de décision
permettant un meilleur pilotage, ou les consolide par ligne d’activité, afin de mieux en apprécier la situation.
Elle est parfois associée à d’autres techniques de management comme la gestion budgétaire ou la gestion par
les objectifs, à qui elle fournit les éléments de comparaison comme comptabilité de gestion.

Longtemps réservée aux grandes entreprises industrielles (on parlait au XIXe siècle de comptabilité
industrielle), du fait de sa complexité et des coûts de mise en œuvre, la comptabilité analytique s’est
généralisée avec l’apparition de l’informatique et des progiciels de gestion qui ont fortement abaissé le coût
de la collecte et du traitement d’une information détaillée. Elle concerne désormais toutes les formes et
toutes les tailles d’entreprises, dont elle est un des éléments clefs du système d'information.

La difficulté primordiale de la connaissance du résultat d’exercice


Le résultat de l’exercice est facile à déterminer, lorsque les recettes correspondent à la vente de produits ou
de services dont les coûts ont été encourus dans l’exercice. Dans ce cas, le constat fait en comptabilité
générale suffit à le calculer par simple différence entre les deux éléments du compte d’exploitation. Mais
cette circonstance est exceptionnelle. En général, une partie des dépenses de la période concerne des
produits qui seront vendus ultérieurement et une partie des produits vendus intègre des frais qui proviennent
d’une production antérieure. La comptabilité générale, qui recueille les flux par nature de dépense, ne
permet pas de résoudre cette difficulté.

Deux exemples permettront de comprendre la complexité organisationnelle du problème.

 Un promoteur va mettre plusieurs années à concevoir et fabriquer un immeuble. Si l’immeuble est en


cours de construction à la fin de l’exercice, l’ensemble des coûts encourus sur cet immeuble doivent
être isolés pour ne pas charger les résultats de l’exercice. Ces coûts sont un regroupement par
chantier des comptes de charges de la comptabilité générale. Ils sont accumulés en cours à l’actif du
bilan pour ne pas charger les résultats. Lorsque les appartements sont mis en vente, on va sortir des
comptes d’encours les charges correspondantes qui vont être rapprochées de la valeur des ventes
pour faire apparaître le résultat. Les ventes pouvant s’écouler sur plusieurs années, les encours vont
être vidés au fur et à mesure. Les sociétés de promotion ont donc un besoin crucial de comptabilité
analytique par immeuble ne serait-ce que pour déterminer leur résultat de comptabilité générale. Le
recoupement avec les charges et produits de la comptabilité générale est également indispensable :
compte tenu des sommes en jeu, il ne peut y avoir de fuite de valeur d’un exercice à l’autre. Un
système estimatif ne suffit pas.
 Un fabricant actuel d’outils coupants produit plusieurs milliers de produits différents. Un catalogue
de vente contient souvent plus de 10 000 articles. En général, les séries de production de chaque
article planifiées chaque année ne correspondent qu’en partie aux ventes de l’année. En fin
d’exercice, des séries seront en cours (des coûts ont été engagés mais les produits ne sont pas finis) et
de nombreux produits finis ne seront pas encore vendus. Autrement dit, il faut savoir, produit par
produit, quelle est la valeur qui a été accumulée pendant l’exercice dans les produits restant en stock,
et quelle partie de la valeur reportée des exercices précédents correspond à des produits vendus dans
l’exercice en cours. Il est donc indispensable de connaître la variation de valeur des stocks et des
encours, ce qui ne peut se faire qu’article par article. Un reclassement des charges pour valoriser les
entrées en stock est donc nécessaire et implique une comptabilité analytique. Ici encore, notons que
l’objectif est de permettre la production du résultat comptable général, défini comme la différence
entre les ventes et le prix de revient des ventes.

Tant que l’industrie était constituée de petits ateliers, produisant en petites séries des articles peu nombreux,
les chevauchements de valeur entre exercice étaient de peu d’importance. Quand le développement du
capitalisme a fait apparaître des entreprises fortement capitalisées produisant en masse une grande variété
d’articles, le besoin a été de plus en plus pressant. C’est pourquoi la comptabilité analytique est née d’abord
dans la sidérurgie et dans les grosses industries mécaniques, chimiques ou verrière (par exemple Saint
Gobain) et y a pris toute son ampleur à la fin du XIXe siècle et au début du XXe. L’étude des temps,
notamment autour des innovations de Charles Taylor, a donné de l’élan aux méthodes de production et
donné un cadre à la ventilation des coûts dans les différents produits. Le « costing » est devenu de règle dans
l’industrie et a permis de dégager beaucoup des concepts utilisés dans les systèmes de comptabilité
analytique.

La résolution du problème précédent sans comptabilité analytique


Si la question du coût de la production des produits vendus dans l’exercice est générale et se présente à toute
entreprise de production, il ne faut pas croire qu’elle a été et qu’elle est encore résolue seulement par la mise
en place d’une comptabilité analytique.

Pendant longtemps et c’est encore le cas dans nombre d’entreprises, la difficulté a été traitée par des travaux
extra comptables d’inventaire périodique, permettant de dégager les variations de stocks et les valorisant
avec des procédés empiriques. À partir des gammes et des nomenclatures, les ingénieurs définissaient par
exemple les temps et les consommations nécessaires à la production d’un article. Il suffisait de donner une
valeur aux taux horaires et aux ingrédients, puis de tenir compte de l’amortissement des machines, pour
aboutir à une valorisation considérée comme raisonnable des stocks. Il n’était pas nécessaire de mettre en
œuvre des systèmes coûteux de suivi détaillé des opérations de production. La loi n’imposant pas de
méthodes particulières mais simplement la continuité de leur emploi, ce pragmatisme pouvait suffire.
Notamment si les décalages de temps entre production et vente n’étaient pas trop importants. Si les stocks
représentent par exemple moins de 10 % du chiffre d’affaires, une erreur de valorisation de 10 % fait varier
très peu le résultat et de toute façon sera corrigée à l’exercice suivant.

L’inconvénient des méthodes stochastiques et pragmatiques devient discriminant lorsque les encours et les
stocks représentent une très large fraction du chiffre d’affaires de l’exercice. Les erreurs, indétectables, faute
de recoupement avec la comptabilité générale, peuvent alors faire perdre toute signification aux résultats de
période, tout en faussant les décisions de gestion prises sur des valorisations trop loin des réalités.

C’est pourquoi de nombreuses entreprises ont reconnu la nécessité de mettre en œuvre une véritable
comptabilité analytique permettant l’enregistrement en continu des flux de production afin d’obtenir des
résultats recoupant le plus parfaitement possible les valeurs de la comptabilité générale.

Les principales méthodes de comptabilité analytique


La méthode des sections homogènes et des coûts complets

Article détaillé : Méthode des coûts complets.

Cette méthode permet de redistribuer les valeurs de charges de la comptabilité générale, réfléchies en
comptabilité analytique, par destination. Des comptes de section vont recevoir les valeurs ventilées. Il en
existe trois sortes :

 Les sections intermédiaires


 Les sections de production
 Les sections de stocks et d’en cours.

Les sections intermédiaires sont ventilées périodiquement dans les sections de production. Les sections de
productions alimentent les sections de stocks et d’en cours.

Finalement apparaît facilement le résultat des ventes, produit par produit, et le résultat général est bien égal à
la somme des résultats détaillés des produits. L’utilisation de comptes parfaitement recoupés avec ceux de la
comptabilité générale justifie bien le terme de comptabilité analytique par rapport à d’autres méthodes plus
statistiques ou pragmatiques. C’est pourquoi elle fut retenue comme méthode de base par la codification
comptable officielle associé au PCG de 47 qui servira de modèle jusqu’en 1999.

En vérité cette méthode est difficile à employer pour de très nombreuses raisons.

 Elle est extrêmement lourde et demande un appareil d’enregistrement des éléments détaillés dont le
coût a pu être longtemps considéré comme hors de proportion avec le gain de fiabilité par rapport à
des méthodes plus empiriques.
 Elle est largement arbitraire. Les clefs de répartition qui doivent régler la ventilation des sections ne
sont pas toujours évidentes à imaginer et encore moins à constater. Ce qui aboutit à des constructions
parfois bancales et peu significatives.
 La sortie des résultats peut se faire attendre très longtemps. Attendre plusieurs mois pour avoir des
chiffres éventuellement arbitraires a découragé plus d’une entreprise.

Mais surtout elle entraîne une variation arbitraire du coût complet d’un produit en fonction de circonstances
qui ne sont pas de la responsabilité des producteurs. De ce fait elle ne permet pas un dialogue fécond pour
l’amélioration de la gestion. Ce point mérite un développement spécifique.

La délicate question des frais généraux et du niveau de l’activité

Imaginons une entreprise produisant les produits A et B. Ils absorbent chacun la moitié des frais généraux.
Pour une raison quelconque, le produit B n’est plus fabriqué. La méthode des coûts complets provoque le
reversement des frais généraux absorbés par B sur A, dont le coût unitaire est augmenté d’autant et la
rentabilité éventuellement compromise.

De même la fixité relative des frais généraux, en terme économique son absence d’élasticité en fonction de
l’activité, entraine un chargement des prix unitaires en cas de ralentissement général des affaires. Cela limite
la perte de résultat dans l’exercice concerné mais cela l’étale dans le temps. On traîne à sortir de la crise en
portant la croix du passé. Ces variations qui ne sont pas reliées à l’activité des différents responsables ne
peuvent pas servir à juger de leur action et peuvent troubler la fixation raisonnable des prix.

Le coût d’un système permanent d’enregistrement des flux analytiques étant très élevé, ne pas pouvoir
l’utiliser pour contrôler la gestion et, qui plus est, risquer de perturber la gestion a été dénoncé comme
inacceptable par de très nombreux auteurs qui ont proposé diverses méthodes visant à éliminer les variations
considérées comme parasites.

La méthode de l’imputation rationnelle

Article détaillé : Méthode de l'imputation rationnelle.

La méthode dite de « l’imputation rationnelle » est l’une d’entre elles.

L’idée en elle-même est simple. On sépare les frais généraux qui ne sont pas directement imputables et dans
les sections de production on définit un niveau normal de production. On détermine alors un coefficient
d’imputation rationnelle ratio entre l’activité normale et l’activité constatée. Les coûts unitaires calculés ne
dépendent plus de l’activité, que ce soit pour un produit donné ou pour l’ensemble des produits. Les boni et
mali d’incorporation de frais généraux sont laissés en frais de période et vont bien être pris dans le résultat
global, mais sans rendre impossible le contrôle de gestion. Les variations de coûts que l’on constatera
refléteront nécessairement des comportements de production, plus efficaces ou moins efficaces, entraînant
des correctifs utiles sans toucher à la politique de prix.

Cette méthode peut être raffinée pour tenir compte des variations saisonnières dans la production de résultats
mensuels.

Le Plan Comptable Général a largement fait droit à cette méthode de raisonner : « Les coûts d’acquisition et
de production du stock ne comprennent que les seuls éléments qui interviennent normalement dans leur
formation. Les pertes et les gaspillages en sont exclus. L’imputation des charges fixes …est basée sur la
capacité normale de production. »

Cet exemple montre bien la liaison beaucoup plus forte qu’on ne le pense parfois entre les concepts
généraux et analytiques.

La difficulté de la méthode est évidemment de définir des niveaux « normaux » qui peuvent être définis soit
par rapport au passé, soit par rapport à une prévision soit par rapport à la capacité de l’usine ou de la ligne de
production.

La méthode du direct costing

Article détaillé : direct costing.

Cette méthode vise à privilégier l’effet dynamique des ventes dans la gestion en se proposant de déterminer
leur contribution à l’absorption des coûts fixes et au résultat global. La comparaison des contributions dans
le temps donne une vision pertinente de l’activité des lignes de produits et des commerciaux. Elle évite de
fermer une ligne de produits qui contribue et qui serait déficitaire en coût complet, le report des frais
généraux sur les produits restant les entraînant à leur tour dans le déficit.

L’inconvénient de la méthode est qu’elle ne permet pas de valoriser les stocks car elle est incompatible avec
les règles du Plan Comptable. Cela force à tenir deux comptabilités analytiques ou à trouver des méthodes
pour fusionner tous les besoins en un seul système dont le direct costing sera l’une des sorties.

Si une partie du processus de fabrication est externalisée, les coûts transférés sont des prix de vente qui
intègrent des frais de structure et le bénéfice du sous traitant. La comparaison d’une année sur l’autre devient
impossible.

Une autre évolution qui pénalise la méthode est la tendance générale à l’augmentation des frais de structures
dans le prix de revient d’un produit. Les frais directs ne représentent plus qu’une fraction des coûts et jouent
dès lors un trop grand rôle dans la méthode.

L’admission d’une contribution positive même faible peut conduire à des politiques de prix dangereuses
pour la survie de l’entreprise.

La méthode des coûts standards

Article détaillé : coût standard.

Cette méthode est particulièrement utile pour les entreprises qui fabriquent de très nombreux produits selon
des processus de fabrication bien déterminés. Le bureau des méthodes est alors capable de fixer les gammes,
les nomenclatures et les séries économiques de fabrication.

En fin de série de production, on sait déterminer les quantités normales des principaux composants du coût
et les comparer aux coûts réels encourus. Si on n’a pas lancé la quantité optimale, si on a été obligé de
relancer la production à la suite d’incidents, entraînant des temps d’utilisation machine plus long et des
pertes de matières ou de sous produits, s’il y a eu une panne de machine, bref si on n’a pas suivi la norme
des boni ou plus sûrement des mali de production vont apparaître.

Dans la cascade des déversements de coûts de section en section, les boni et les mali ne sont pas transférés.
Chaque entité sera donc jugée sur ses écarts propres et non pas sur les conséquences des erreurs des autres.
Les stocks sont tenus en coûts standards. Les boni et mali restent dans les résultats de période.

Elle présente théoriquement tous les avantages :

 Les marges sur cout standard permettent de suivre les contributions de produits, lignes de produits et
entités commerciales mieux qu’en direct costing (le coût est plus réaliste et ne dépend pas de
l’intensité capitalistique du système de production).
 Les variations d’activités parasites et les effets de bords des autres produits dans l’absorption des
coûts fixes sont évités.
 Les stocks sont évalués de façon conforme aux règles comptables.
 L’affectation des boni et mali à la période est de bonne gestion.
 La méthode crée une tension dynamique vers l’optimum de production. Le contrôle peut se faire
quasiment en temps réel et il n’est pas nécessaire d’attendre des mois pour constater les dérives.
 La méthode est insensible aux politiques de sous-traitance.
 Elle permet d’associer une gestion budgétaire fine à la gestion analytique.

Le seul inconvénient est la possibilité effective de définir les coûts standard ce qui n’est pas toujours
possible ainsi que l’énorme travail de saisie et de traitement en continu des données opérationnelles qui rend
la méthode impraticable sans le secours de l’informatique.

La méthode GP

Inventée par George Perrin, dans la foulée des travaux de Taylor sur les temps de travail, cette méthode
visait principalement à simplifier le calcul des coûts de revient dans les entreprises de mécaniques fabriquant
de nombreux produits sur un même ensemble de machines.

L’idée principale est que la majorité des produits sont dans un rapport de coûts fixe entre eux. Les méthodes
de fabrication ne changeant que lentement la stabilité de ce rapport peut être considérée comme acquise.
Plutôt que de suivre produit par produit les temps et les consommations, ce qui peut être exagérément
coûteux et ralentir la production, on se contente de constater les quantités produites. Les rapports de coût
étant stables, il est facile de les transformer en une quantité de production unique qui est rapprochée des
coûts de production globaux de la période.

On en déduit un coût unitaire de l’unité de production, opportunément appelée le GP, et on s’applique à la


valorisation des stocks. On peut dans cette méthode se contenter d’un nombre de sections réduites et de
l’inventaire des produits fabriqués. Elle peut donc s’avérer très économique. Elle suppose que le bureau des
méthodes ait coté en GP tous les articles. C’est pour cela que la méthode a été poussée par des sociétés de
conseils spécialisés dans les études de temps (MTM, etc.). Cette méthode fort astucieuse est désormais
remplacée par la méthode UVA.

La méthode UVA : une extension de la méthode GP

Article détaillé : Méthode UVA.

Cette méthode perfectionne la méthode des coûts complets et sert d'alternative à la méthode ABC. Elle se
fonde aussi sur une analyse minutieuse des activités (sous forme de gammes opératoires), mais surtout sur
celle des postes (opération élémentaire de travail constituée d'un ensemble de moyens matériels et humains,
qui fonctionnent de façon homogène). Cette méthode diffusée et élargie entre autres par J. Fievez, R. Zaya et
J.P. Kieffer est née des travaux de Georges Perrin réalisés au début des années 1950 sur le concept de
l'unification de la mesure de la production qui aboutit au modèle de la méthode GP rebaptisée UVA en 1995.

La méthode UVA se pose comme objectif premier de calculer le résultat (bénéfice ou perte) de chaque vente
(concrètement il peut s'agir d'une facture, d'une commande, d'une livraison...). La réalisation d'une vente est
considérée comme le processus transversal élémentaire dans l'entreprise regroupant tout le travail fait par
toutes les fonctions depuis l'enregistrement de la commande, en passant par la production des produits,
jusqu'à leur livraison et l'encaissement de la facture.

Ainsi, on peut considérer que des activités dites "de support", ou indirectes par rapport aux produits sont
directement consommées par chaque vente, ce qui réduit considérablement les imputations arbitraires des
charges indirectes.

En tant que processus transversal élémentaire, la vente constitue la « brique » de base qui permet de réaliser
toute autre analyse de la rentabilité. Cette méthode permet de réaliser un très grand nombre de simulations
sans analyse supplémentaire à partir du moment où nous disposons de l'équivalent UVA.

L'UVA est une unité de mesure, qui permet de valoriser les activités, propre à chaque entreprise, c'est le
mètre-étalon spécifique auquel seront comparées toutes les consommations de ressources de tous les postes
UVA. L'avantage fondamental de l'utilisation de cette unité est qu'elle est indépendante des variations
monétaires et permet de gérer de façon simple des entreprises complexes (ayant beaucoup de produits et
beaucoup de clients), faire comme si l'entreprise était mono-produit. Le prix de cette précision est le besoin
d'une certaine stabilité dans le temps du rapport entre les ressources consommées par les postes de
l'entreprise. Par conséquent, en cas de changement profond technologique, il faut réactualiser l'analyse des
postes touchés par ce changement, mais pas les autres. En conditions normales, il est recommandé de faire
une réactualisation tous les 5 ans. Cette analyse des postes doit être très pointue. De plus l'article (le produit)
utilisé pour calculer l'UVA doit être représentatif. Comme elle simplifie le recueil et le calcul des données,
cette méthode peut être aussi utilisée dans les organisations qui n’ont pas la taille suffisante pour disposer
d’un contrôleur de gestion. Ces organisations peuvent aussi bien être des petites entreprises que des unités
opérationnelles atypiques de grands groupes.

La méthode ABC

Article détaillé : Méthode ABC.

Cette méthode a été développée par une association, CAM-I (Computer Aided Manufacturing International),
créée en 1972 aux États-Unis et située à Austin au Texas, qui s’est spécialisée sur la recherche collaborative
visant à l’amélioration de la gestion des coûts et des méthodes de production[réf. nécessaire]. Ses membres sont de
grandes entreprises américaines et des éditeurs de progiciels de gestion comme SAP, un des leaders
mondiaux dans le domaine de l’informatique de production qui a intégré la méthode ABC dans ses
progiciels et lui fait une propagande active[réf. nécessaire].

Le principe de la méthode est le suivant : les objets de coûts (produits, clients...) consomment des activités
qui, elles-mêmes, consomment des ressources. En pratique, les différentes étapes pour la mise en place d'une
démarche ABC sont les suivants:[réf. nécessaire]

 Modéliser les processus de l'entreprise pour en appréhender les circuits. Ces activités peuvent être,
par exemple : le traitement d'une commande, la gestion des références, ou encore la réception des
marchandises[réf. nécessaire].
 Pour chaque activité, un inducteur (le driver) sera retenu et suivi (par exemple, le nombre de
commandes, les quantités de référence). Cet inducteur sera l'unité qui permettra de répartir le coût
total de l'activité. Certains inducteurs ne seront pas utilisés pour éviter des modèles trop lourds. On
préférera un inducteur typique de l'activité. Pour chaque activité étudiée, le modèle précisera donc les
inducteurs consommés.
 Ainsi le calcul du coût de revient, en réalisant un tableau de répartition des charges par produit, peut-
il être réalisé. Les inducteurs ont pour objectif principal de répartir les charges indirectes alors que
les charges directes sont réparties généralement de manière ordinaire.

La méthode ABC présente l'avantage d'affecter de manière plus précise les coûts aux produits sans procéder
à une répartition des coûts indirects à l'aide d'une unité de mesure souvent arbitraire (par exemple, les heures
machines). Une meilleure connaissance des processus permet de dégager les forces et faiblesses d'une
organisation à la mise en place de cette méthode. L'utilisation de cette méthode gagne en pertinence lorsque
les processus de production sont "en ligne" avec un personnel qualifié et polyvalent, que les processus sont
flexibles, et que la technique utilisée est celle de la production en série de taille différentes avec utilisation
de la méthode du Juste-à-temps[réf. nécessaire].

Elle est associée à des méthodes globales de management comme la méthode PBM Process Based
Management[réf. nécessaire].

La méthode de calcul des coûts par les caractéristiques

Il existe plusieurs méthodes ayant pour objet de rapprocher les caractéristiques des produits avec le coût de
ceux-ci. Selon les principes de mercatique un produit doit pour être le mieux vendu, adopter un
positionnement précis de son image de marque sur les segments de clientèle choisis. Ceci implique d'investir
un coût plus important vis-à-vis des caractéristiques (attributs ou fonctions) du produit qui ont été détectées
comme valorisées par le public.

Ainsi, la méthode des coûts cibles établit un rapport d'importance des fonctions attendues par le client et la
marge sur coût variable. Cette technique a pour avantage sa simplicité de calcul. Cette méthode a aussi une
capacité à convaincre la force de vente qui est payée en fonction du chiffre d'affaires, ce qui la rapproche du
mode de calcul.

Mais il est possible de lier ce rapport avec des coûts qui ne sont pas liés a priori au chiffre d'affaires.
L'américain J. A. Brimson propose dans les années 1990 le feature costing1 sous le nom de méthode de
« calcul des coûts par les caractéristiques » (ou méthode des coûts stables (MCS) aussi connue sous MCCC).
Cette méthode analyse aussi le lien entre les caractéristiques des produits et les coûts à chaque activité.
L'objectif est de simplifier la prise de décision concernant un portefeuille produit. La comparaison entre les
attentes des clients et le coût des produits est facilité. D'autres méthodes proposent des approches
multicritères pour l'analyse des liens entre les coûts et les caractéristiques des produits en s'approchant au
mieux de la réalité économique du processus de l'entreprise. Ces méthodes sont basées, à chaque activité du
processus de l'entreprise et pour chaque type de charge, sur un système de pondération de la difficulté
générée par les caractéristiques des produits.

Il en résulte une évaluation multicritère précise utilisée en contrôle de gestion (calcul du prix de revient d'un
produit réalisé), dans une optique prévisionnelle (préparation des devis, offres et tarifs) ou en management
stratégique (analyse de la valeur des caractéristiques des produits).

Évolution de l’emploi des méthodes analytiques


La comptabilité analytique allait connaître une révolution complète à partir des années 1970 et 1980 sous
une double influence :

 Les besoins quittent le domaine purement industriel : on prend conscience qu'il faut contrôler les
coûts et les recettes par activités, y compris dans les activités de service. Le résultat d'une énorme
entreprise n'est pas en lui-même utilisable : il faut le fractionner en entités plus restreintes et plus
significatives. Le cadre de gestion cesse d'être l'entreprise légale mais la division, le département ou
le service. De même, on peut chercher à consolider les résultats d'activités qui sont de même nature
mais exercées par des entités juridiques différentes. De même, l'État devenu le gestionnaire de
nombreuses activités comprend qu'il doit imposer des systèmes analytiques pour en contrôler le
rendement, un changement d'attitude fondamental dans un monde où le "service public" n'avait pas à
tenir compte de préoccupations comptables.

Beaucoup d’entreprises d'État se sont mises à la comptabilité analytique à partir de la fin des années 1980.
La Banque de France met en place la première comptabilité analytique permettant de connaître avec une
fiabilité suffisante le prix de revient des billets à la fin des années 1980. Le coût révélé fut tellement plus
haut que ce que croyait la direction que des plans de modernisation drastiques furent mis en place pour le
réduire, conduisant à une restructuration complète des processus de production de billets à Chamalières et à
l'usine de fabrication de papier. La Sealink, filiale de la SNCF, met en place un système de contrôle
analytique informatisé des résultats de chaque bateau de sa flotte au milieu des années 1980. Les résultats
sortent immédiatement à la fin de chaque traversée et de chaque « marée » pour les bateaux équipés. Jusque-
là, les résultats d'ensemble n'étaient connus qu'en fin d'année et noyés dans ceux de la SNCF. L'amélioration
des résultats a été spectaculaire.

Aujourd'hui les techniques de comptabilité analytique informatisée concernent aussi bien les universités que
les hôpitaux, les ministères que les collectivités locales.

 L'informatique connaît une révolution importante avec l'apparition de terminaux de saisie qui
permettent de décentraliser au plus près des événements le constat des mouvements tout en réduisant
fortement les coûts de traitement de l'information. L'informatisation de processus techniques comme
l'ordonnancement lancement des séries de production permet facilement de produire les éléments
d'une comptabilité analytique. La gestion de stocks passe en inventaire permanent. L'apparition de
progiciels adaptés à des modes standards de fonctionnement réduit encore le coût d'implantation de
solutions analytiques. Les valeurs de stocks et d'en-cours sortent automatiquement. Le recoupement
avec la comptabilité générale devient plus facile. Chaque gestionnaire reçoit désormais avec des
périodicités accélérées les informations de coûts et de résultats nécessaires à l'orientation de ses
décisions.

Désormais la comptabilité analytique fait partie de la plupart des Systèmes d’Information (SI) des
entreprises importantes, des PMI et d’une part notable quoiqu’encore très améliorable des PME.
Management du système d'information
Le management du système d'information (aussi appelé dans un sens plus restreint : informatique de
gestion et parfois management de la performance) est une discipline du management regroupant l'ensemble
des connaissances, des techniques et des outils assurant la gestion de données et leur sécurité, et plus
généralement l'organisation et la protection du système d'information.

Le système d'information doit être organisé, finalisé, construit, animé et contrôlé, ce qui constitue un moyen
d'optimisation de la performance de l'entreprise.

C’est une science en perpétuelle évolution en raison des nouveaux métiers émergents dans les systèmes
d’information.

Enjeux et évolution du management de l'information


Enjeux du management de l'information

Afin de satisfaire au mieux l’organisation, il est important de réaliser un système d'information (SI) cohérent
et agile pour intégrer les nouveaux besoins de l’entreprise. Mais le management des systèmes d’information
doit également permettre de tirer profit des nouvelles technologies.

La sécurité des systèmes d’information est un enjeu majeur du management des SI. En effet, la diminution
des vulnérabilités induites par le facteur humain et la sécurité propre du SI sont des facteurs primordiaux que
le directeur des systèmes d'information (DSI) doit prendre en compte. La continuité en cas de sinistre prend
une dimension véritablement importante induite par les nouvelles normes réglementaires (Bâle II, Sarbanes-
Oxley, Loi de sécurité financière…). Le DSI doit s’assurer que les normes humaines et techniques soient
respectées en cas de sinistre mais également que le management organisationnel puisse permettre de
répondre efficacement et rapidement aux problèmes informatiques.

Le management des SI pose également des questions concernant l’éthique et l’impact social. En effet,
certaines normes protègent les salariés de l’entreprise, notamment concernant la protection de la vie privée
et la propriété intellectuelle. Le système d’information ne doit pas violer ces normes éthiques dans le but
d’éviter toute répression juridique. Pour cela, le management des systèmes d’information doit permettre au
DSI de mettre en place une politique organisationnelle au sein du système d’information afin de protéger les
données ainsi que les flux d’informations.

Les enjeux juridiques et fiscaux du management des systèmes d’information sous-entendent l’importance
d’intégrer et de maîtriser les contraintes légales et fiscales liées à l’informatisation de leurs systèmes
d’information. Il permet également de répondre aux demandes des représentants de l’administration fiscale
et de mettre à disposition les informations nécessaires et seulement celles-ci.

Évolution du management des systèmes d'information

Le concept du « Management des Systèmes d’Information » est apparu dans le milieu des années 19601 aux
États-Unis et quelques années plus tard en France2. Cette notion a cependant fortement évolué jusqu’à
aujourd’hui où elle concerne non seulement le management des TI et le « Management Information
Systems ».

Le management du système d'information est influencé par les recherches réalisées sur les structures des
systèmes, et la conceptualisation de l'aide à la décision au niveau informatique. Au niveau gestion, il est
influencé par le service de gestion de la qualité dans les entreprises.
Enfin, les économistes (Robert Solow, Daniel Cohen (économiste)..) ont montré que les systèmes
d'information ne généraient de gains de productivité que s'ils étaient accompagnés de changements
organisationnels. Le changement dans les organisations est donc indissociable du logiciel. Cette nouvelle
dimension impose à une science plutôt dure originellement de se tourner vers les techniques d'amélioration
continue comme le Lean.

La place des systèmes d'information dans le management des


organisations
Les systèmes d'information au service de l’organisation

L’information est un principe fondamental de la stratégie. En conséquence, le SI est également un outil


essentiel dans la stratégie d'entreprise. D’une part, elle permet aux employés de l’organisation de mettre en
œuvre les décisions de la direction générale. D'autre part, les systèmes d’information permettent de définir
une politique propre à l’entreprise (ex : e-commerce).

Certains systèmes de nature différente ont ainsi fait leur apparition afin de permettre à l’organisation
d’acquérir un avantage concurrentiel. Ce phénomène s’illustre par une domination par les coûts, une
différenciation ou une stratégie de niche. Pour ce qui est de la stratégie de domination par les coûts,
l'urbanisation du système d'information constitue un outil de réingénierie pouvant permettre d'atteindre une
lean IT plus efficiente. De plus, les SI peuvent être utiles aux décideurs dans le processus de conception et
de choix de la stratégie à mettre en place grâce à la récolte et au traitement des informations ayant un
caractère décisionnel. Cependant traditionnellement le système d'information réalise un alignement
stratégique avec la stratégie globale de l'entreprise.

Composants du système d'information

Le SI est lui-même composé de matériels et logiciels ayant des conséquences dans le management des
organisations. En effet, l’infrastructure technologique du système d’information est un ensemble de
dispositifs pouvant provoquer des changements organisationnels dans une entreprise. Ces outils sont reliés
par des réseaux informatiques permettant à l’information de circuler rapidement dans l’entreprise. De plus,
des entrepôts de données permettent de collecter et structurer les différentes informations dans le but de
piloter l’activité.

Le progiciel de gestion intégré a pour effet de faciliter la fluidité des processus organisationnels et de
simplifier la gestion des infrastructures. Alors que certaines applications ont une vocation interne à
l’entreprise (gestion de la chaîne logistique), d’autres sont davantage tournées à l’extérieur (gestion de la
relation client).

Système d'information et aide à la décision

L'informatique décisionnelle a pour principal objectif d’assister les managers. C’est un enjeu essentiel
depuis les débuts des systèmes d’information3 qui peut s’expliquer par l’importance de l’information dans la
prise de décision. Les SIAD (système d'information d’aide à la décision) aident à la préparation et au choix
de la décision grâce à des dispositifs permettant l’accès aux données et à des tests de validité. Les dirigeants
devront prendre des décisions stratégiques grâce aux informations dites Business Intelligence et au
management des systèmes d’information.

Démarche du management des systèmes d'information


La gestion du changement
Le management des systèmes d’information est essentiel afin de faire face aux changements perpétuels de
manière efficace. En effet, il est plus difficile dans une organisation de modifier les habitudes de travail
(routines, structure de l’organisation, accès à l’information…) plutôt que de changer les outils techniques.
Cet obstacle est la raison de bien des échecs dans le domaine des systèmes d’information puisqu’un
quelconque changement peut provoquer des distorsions de la part des utilisateurs. Le Cigref (2003) précise
« la préoccupation dominante, au sein des entreprises confrontées à de forts enjeux d’informatisation,
demeure la mise au point de la solution technique, c'est-à-dire le système informatique lui-même »4. Il
apparaît ainsi évident que la focalisation sur les seuls éléments techniques d’un projet SI permet d’apaiser le
manager en lui donnant l’illusion d’un contrôle des résultats par son aspect tangible et moderne. Cela revient
à diminuer l’importance du management du changement et la dimension humaine du projet 5.

Pourtant, c’est une dimension essentielle de la gestion de projet d'un système informatique. Il est en effet
important d’anticiper les problèmes qui peuvent apparaître et cela a posteriori de la naissance du projet.

Le Cigref précise (2003) que : le changement existe au-delà de la mise en place d’un projet, il convient de
tirer les leçons des changements passés en prenant du recul et en réutilisant les exemples pour aider à la
décision, il faut trouver le juste équilibre en se posant des questions telles que : Peut on se passer d’une
conduite du changement ? Quels sont les risques associés ? Il n’existe pas de façon unique de conduire le
changement, qui va d'une vision classique "former les utilisateurs au nouvel outil" aux démarches
d'amélioration continue prônées par le Lean et l'impliquant totalement dans la construction même du
système.

Plusieurs méthodes permettent d’organiser et d'assister la coopération entre les représentants du métier,
utilisateurs et informaticiens tout au long du cycle de développement d’un projet.

Les projets de système d'information

La préparation d’un projet de SI relance les enjeux du management des systèmes d’information. Il est
primordial d’anticiper le déroulement de projet, notamment dans le plan organisationnel, afin d’éviter des
entorses futures au projet. La préparation du projet de SI est donc un élément primordial que doit prendre en
compte un chef de projet afin de limiter les futurs problèmes inhérents au projet.

L'audit du système d'information

L’audit des SI6 a pour objectif de mettre en évidence les dangers liés à l’infrastructure technique ainsi que
les risques fonctionnels du SI. Il couvre un périmètre plus large que l’audit informatique car il s’intéresse
davantage aux aspects fonctionnels et organisationnels liés au système d’information en plus de l’aspect
technique. L’audit des SI s’appuie sur une méthodologie appelée CobiT qui constitue le référentiel
international de contrôle en matière des systèmes d’information. Celui-ci offre certains standards de contrôle
ainsi que des « bonnes pratiques » dans l’appréciation des dangers informatiques. L’audit des systèmes
d’information est donc l’acteur de contrôle du management des systèmes d’information.

Formations en management des systèmes d'information et en informatique de gestion

En France, il existe une distinction claire entre plusieurs types d'enseignement :

 Des enseignements d'informatique (théorique, industrielle...), généralement présents dans la plupart


des universités, dans bon nombre d'écoles d'ingénieurs et, à un niveau plus modeste, dans certains
IUT.
 Des enseignements "d'informatique de gestion", au sens restrictif décrit plus haut. Ceci reste de
l'informatique, seul le domaine d'application (et donc les méthodes d'analyse des problèmes) change.
Quelques écoles supérieures offrent ces enseignements, que l'on trouve aussi dans les lycées au
niveau Bac + 2 (BTS en informatique de gestion) et dans les universités au niveau Master (filière
MIAGE).
 Des enseignements d'introduction aux systèmes d'information et de management des systèmes
d'information, clairement distincts d'éventuels cours d'informatique ou de bureautique, dans la
plupart des écoles de commerce et dans les IAE. Il existe ainsi plusieurs Masters spécialisés, souvent
en "Système d'information et Contrôle de Gestion" ou SIC.
 Des écoles de management des systèmes d'information qui proposent des mastères spécialisés en
management des systèmes d'information.

À ce sujet, la réforme des études comptables, impulsée par l'Ordre des experts comptables à la suite du
passage de la France au système LMD, a eu pour conséquence un renforcement considérable de ces
enseignements de management des systèmes d'information tant au niveau licence (DCG et licence CCA) que
Master (DSCG et Master CCA). Sur l'ensemble du cycle, ce sont plus de 300 heures qui sont délivrées sur ce
thème.

En Belgique, les Hautes écoles proposent la formation Bachelor en 3 ans. Le Bachelier en Informatique de
gestion est un informaticien avec une solide base de programmation et un savoir-faire de haute qualité dans
l’ensemble des techniques informatiques logicielles au sens le plus large du terme.

Au Cameroun (Yaoundé), l'Université catholique d'Afrique centrale offre un master en Management des
Systèmes d'Information (MSI) de deux ans.

En Suisse, l'informatique de gestion est enseignée en École supérieure ou en Haute école spécialisée. La
formation aboutit respectivement à un titre officiel et reconnu par la Confédération suisse d' "Informaticien
de gestion dipl. ES" ou à un "Bachelor of Science HES en informatique de gestion". Le titre ES est
l'équivalent d'un BTS français, tandis que le Bachelor est similaire à la licence professionnelle française.

Au Québec, 47 différents CÉGEP enseignent l'informatique de gestion.

Bonnes pratiques ITIL


Article détaillé : Information Technology Infrastructure Library.

Le management du système d'information fait l'objet de bonnes pratiques (best practices), qui sont décrites
dans le référentiel Information Technology Infrastructure Library (bibliothèque des infrastructures
informatiques). Ce référentiel est né au Royaume-Uni à la fin des années 1980. Contrairement à ce que son
nom indique, il ne se limite pas aux infrastructures matérielles, mais couvre bien l'ensemble du management
du système d'information, avec une approche services.

Il existe plusieurs versions d'ITIL. La version V2 comporte elle-même 8 livres :

 le soutien des services (service support),


 la fourniture des services (service delivery),
 la gestion des infrastructures informatiques (ICT infrastructure management),
 la gestion de la sécurité (security management),
 le point de vue métier (the business perspective),
 la gestion des applications (application management),
 la gestion des actifs logiciels (software asset management),
 la planification pour la mise en œuvre des services (planning to implement software management).

En 2011, ce sont surtout les deux premiers livres du référentiel (soutien des services, fourniture des
services), constituant la gestion des services informatiques (ITSM) qui sont connus en France. Les autres
livres sont très peu connus.
Informatique décisionnelle
L’informatique décisionnelle (en anglais business intelligence ou BI1) est l'informatique à l'usage des
décideurs et des dirigeants d'entreprises. Elle désigne les moyens, les outils et les méthodes qui permettent
de collecter, consolider, modéliser et restituer les données, matérielles ou immatérielles, d'une entreprise en
vue d'offrir une aide à la décision et de permettre à un décideur d’avoir une vue d’ensemble de l’activité
traitée.

Ce type d’application repose sur une architecture commune dont les bases théoriques viennent
principalement de R. Kimball, B. Inmon et D. Linstedt.

1. Les données opérationnelles sont extraites périodiquement de sources hétérogènes : fichiers plats,
fichiers Excel, base de données (DB2, Oracle, SQL Server, etc.), service web, données massives et
stockées dans un entrepôt de données.
2. Les données sont restructurées, enrichies, agrégées, reformatées, nomenclaturées pour être présentées
à l'utilisateur sous une forme sémantique (vues métiers ayant du sens) qui permettent aux décideurs
d'interagir avec les données sans avoir à connaître leur structure de stockage physique, de schémas en
étoile qui permettent de répartir les faits et mesures selon des dimensions hiérarchisées, de rapports
pré-préparés paramétrables, de tableaux de bords plus synthétiques et interactifs.
3. Ces données sont livrées aux divers domaines fonctionnels (direction stratégique, finance,
production, comptabilité, ressources humaines, etc.) à travers un système de sécurité ou de datamart
spécialisés à des fins de consultations, d'analyse, d'alertes prédéfinies, d'exploration de données, etc.

L’informatique décisionnelle s’insère dans l’architecture plus large d’un système d'information mais n'est
pas un concept concurrent du management du système d'information. Au même titre que le management
relève de la sociologie et de l'économie, la gestion par l'informatique est constitutive de deux domaines
radicalement différents que sont le management et l'informatique. Afin d'enrichir le concept avec ces deux
modes de pensées, il est possible d'envisager un versant orienté ingénierie de l'informatique portant le nom
d'informatique décisionnelle, et un autre versant servant plus particulièrement les approches de gestion
appelé management du système d'information.

Enjeux de l'informatique décisionnelle


Actuellement, les données applicatives métier sont stockées dans une (ou plusieurs) base(s) de données
relationnelle(s) ou non relationnelles.
Ces données sont extraites, transformées et chargées dans un entrepôt de données généralement par un outil
de type ETL (Extract-Transform-Load) ou en français ETC (Extraction-Transformation-Chargement).

Un entrepôt de données peut prendre la forme d’un data warehouse ou d’un datamart. En règle générale,
le data warehouse globalise toutes les données applicatives de l’entreprise, tandis que les datamarts
(généralement alimentés depuis les données du data warehouse) sont des sous-ensembles d’informations
concernant un métier particulier de l’entreprise (marketing, risque, contrôle de gestion…), des usages
spécifiques (analyse, reporting...), ou encore répondent à des exigences ou contraintes particulières
(cloisonnement des données, volumétrie...). Le terme comptoir de données ou magasin de données est
aussi utilisé pour désigner un datamart.

Les entrepôts de données permettent de produire des rapports qui répondent à la question « Que s’est-il
passé ? », mais ils peuvent être également conçus pour répondre à la question analytique « Pourquoi est-ce
que cela s’est passé ? » et à la question pronostique « Que va-t-il se passer ? ». Dans un contexte
opérationnel, ils répondent également à la question « Que se passe-t-il en ce moment ? », voire dans le cas
d’une solution d’entrepôt de données actif « Que devrait-il se passer ? ».
Le reporting est probablement l'application la plus utilisée encore aujourd'hui de l’informatique
décisionnelle, il permet aux gestionnaires :

 de sélectionner des données relatives à telle période, telle production, tel secteur de clientèle, etc.
 de trier, regrouper ou répartir ces données selon les critères de leur choix
 de réaliser divers calculs (totaux, moyennes, écarts, comparatif d'une période à l'autre…)
 de présenter les résultats d’une manière synthétique ou détaillée, le plus souvent graphique selon
leurs besoins ou les attentes des dirigeants de l’entreprise

Les programmes utilisés pour le reporting permettent bien sûr de reproduire de période en période les
mêmes sélections et les mêmes traitements et de faire varier certains critères pour affiner l’analyse. Mais le
reporting n'est pas à proprement parler une application d'aide à la décision. L'avenir appartient plutôt aux
instruments de type tableau de bord équipés de fonctions d'analyses multidimensionnelles de type Olap.
Fonction OLAP qui peut être obtenue de différentes façons par exemple via une base de données
relationnelle R-OLAP, ou multidimensionnelle M-OLAP, voire aussi en H-OLAP.

Les datamart et/ou les datawarehouses peuvent ainsi permettre via l'OLAP l’analyse très approfondie de
l’activité de l’entreprise, grâce à des statistiques recoupant des informations relatives à des activités
apparemment très différentes ou très éloignées les unes des autres, mais dont l’étude fait souvent apparaître
des dysfonctionnements, des corrélations ou des possibilités d’améliorations très sensibles.

L'interopérabilité entre les systèmes d'entrepôt de données, les applications informatiques ou de gestion de
contenu, et les systèmes de reporting est réalisée grâce à une gestion des métadonnées.

Du tableau à l'hypercube
L'informatique décisionnelle s'attache à mesurer :

 un certain nombre d'indicateurs ou de mesures (que l'on appelle aussi les faits ou les métriques)
 restitués selon les axes d'analyse (que l'on appelle aussi les dimensions)

Tableau

Par exemple, on peut vouloir mesurer :

 Trois indicateurs : le chiffre d'affaires, le nombre de ventes, le montant de taxes pour les ventes de
produits
 selon un premier axe, l'axe temps : par année, par trimestre, par mois
 et selon un second axe, l'axe produits : famille de produits, gamme de produits, référence produit

On obtient ainsi un tableau à deux entrées :

 par exemple en lignes : la nomenclature produits à 3 niveaux (famille, gamme, référence)


 et en colonnes : les années, décomposées en trimestres, décomposés en mois
 avec au croisement des lignes et colonnes, pour chaque cellule : le chiffre d'affaires, le montant de
taxes et le nombre de ventes

À titre d'illustration, les tableaux croisés des principaux tableurs permettent de construire ce type de tableau
de bord depuis une base de données.

Cube

Si l'on s'intéresse à un troisième axe d'analyse :


 par exemple, la répartition géographique : par pays, par régions, par magasins

On obtient une dimension de plus et on passe ainsi au cube.

Les tableaux croisés dynamiques d'Excel permettent de représenter ce type de cube avec le champ "page". Il
représente les données agrégées pour chaque niveau hiérarchique et pour chaque dimension.

Hypercube

Si l'on s'intéresse à un axe d'analyse supplémentaire :

 par exemple, la segmentation des clients : par catégorie, par profession

On obtient alors un cube à plus de 3 dimensions, appelé hypercube.

Le terme cube est souvent utilisé en lieu et place d' hypercube.

Navigation dans un hypercube

Les outils du monde décisionnel offrent des possibilités de « navigation » dans les différentes dimensions du
cube ou de l'hypercube :

 le drill down ou le forage avant : c'est la possibilité de « zoomer » sur une dimension (par exemple
d'éclater les années en 4 trimestres pour avoir une vision plus fine, ou de passer du pays aux
différentes régions)
 le drill up ou le forage arrière (aussi appelé "roll-up") : c'est l'opération inverse qui permet
d'« agréger » les composantes de l'un des axes (par exemple de regrouper les mois en trimestre, ou de
totaliser les différentes régions pour avoir le total par pays)
 le slice and dice, aussi appelé "dice down" (que l'on peut traduire par « hacher menu », c'est-à-dire
couper en lamelles puis en dés) : c'est une opération plus complexe qui entraîne une permutation des
axes d'analyse (par exemple, on peut vouloir remplacer une vue par pays/régions par une nouvelle
vue par familles et gammes de produits)
 le drill through : lorsqu'on ne dispose que de données agrégées (indicateurs totalisés), le drill
through permet d'accéder au détail élémentaire des informations (chaque vente de chaque produit à
chaque client dans chaque magasin)

Précautions à prendre

Chacune de ces vues partielles du cube se traduit finalement, soit par un tableau à double entrée (tri croisé),
soit par un graphique le plus souvent bidimensionnel.

Ainsi, bien que la navigation dans le cube soit multidimensionnelle, le décideur n’a pas, en réalité, accès à
une synthèse, mais à une multitude de tris croisés ou de vues bidimensionnelles dont l’exploration, longue et
fastidieuse, est parfois court-circuitée faute de temps. Cela peut conduire à de coûteuses erreurs de décision.

Aussi peut-il être utile d’associer à cette démarche une iconographie des corrélations, qui permet une vue
d’ensemble réellement multidimensionnelle, débarrassée des redondances.

Fonctions essentielles de l'informatique décisionnelle


Un système d'information décisionnel (SID) doit être capable d'assurer quatre fonctions fondamentales : la
collecte, l'intégration, la diffusion et la présentation des données. À ces quatre fonctions s'ajoute une
fonction d'administration, soit le contrôle du SID lui-même.
Fonction de collecte

La fonction collecte (parfois appelée datapumping) recouvre l'ensemble des tâches consistant à détecter,
sélectionner, extraire et filtrer les données brutes issues des environnements pertinents compte tenu du
périmètre couvert par le SID. Comme il est fréquent que les sources de données internes et/ou externes
soient hétérogènes — tant sur le plan technique que sur le plan sémantique — cette fonction est la plus
délicate à mettre en place dans un système décisionnel complexe. Elle s'appuie notamment sur des outils
d'ETL (extract-transform-load pour extraction-transformation-chargement).

Les données sources qui alimentent le SID sont issues des systèmes transactionnels de production, le plus
souvent sous forme :

 d'éléments issus de l'enregistrement de flux : compte-rendu d'événement ou compte-rendu


d'opération . C'est le constat au fil du temps des opérations (achats, ventes, écritures comptables…),
le film de l'activité quotidienne, en tous cas régulière, de l'entreprise
 d'éléments reflétant une situation à un moment donné : compte-rendu d'inventaire ou compte-rendu
de stock. C'est l'image photo prise à un instant donné (une fin de période par exemple : mois,
trimestre…) de données caractérisant un stock. Par exemple : le stock des clients, des contrats, des
commandes, des encours…

La fonction de collecte joue également, au besoin, un rôle de recodage. Une donnée représentée
différemment d'une source à une autre impose le choix d'une représentation unique et donc d'une mise en
équivalence utile pour les futures analyses.

Fonction d'intégration

La fonction d'intégration consiste à concentrer les données collectées dans un espace unifié, dont le socle
informatique essentiel est l'entrepôt de données. Élément central du dispositif, il permet aux applications
décisionnelles de masquer la diversité de l'origine des données et de bénéficier d'une source d'information
commune, homogène, normalisée et fiable, au sein d'un système unique et si possible normalisé.

Au passage les données sont épurées ou transformées par :

 un filtrage et une validation des données en vue du maintien de la cohérence d'ensemble : les valeurs
acceptées par les filtres de la fonction de collecte mais susceptibles d'introduire des incohérences de
référentiel par rapport aux autres données doivent être soit rejetées, soit intégrées avec un statut
spécial
 une synchronisation : s'il y a nécessité d'intégrer en même temps ou à la même « date de valeur » des
événements reçus ou constatés de manière décalée ou déphasée
 une certification : pour rapprocher les données de l'entrepôt des autres systèmes « légaux » de
l'entreprise comme la comptabilité ou les déclarations réglementaires)

C'est également dans cette fonction que sont effectués éventuellement les calculs et les agrégations (cumuls)
communs à l'ensemble du projet.

La fonction d'intégration est généralement assurée par la gestion de métadonnées, qui assurent
l'interopérabilité entre toutes les ressources informatiques, qu'il s'agisse de données structurées (bases de
données accédées par des progiciels ou applications), ou des données non structurées (documents et autres
ressources non structurées, manipulés par les systèmes de gestion de contenu).

Fonction de diffusion (ou distribution)

La fonction de diffusion met les données à la disposition des utilisateurs, selon des schémas correspondant
aux profils ou aux métiers de chacun, sachant que l'accès direct à l'entrepôt de données ne correspond
généralement pas aux besoins spécifiques d'un décideur ou d'un analyste. L'objectif prioritaire est à ce titre
de segmenter les données en contextes informationnels fortement cohérents, simples à utiliser et
correspondant à une activité décisionnelle particulière. Alors qu'un entrepôt de données peut héberger des
centaines ou des milliers de variables ou indicateurs, un contexte de diffusion raisonnable n'en présente que
quelques dizaines au maximum. Chaque contexte peut correspondre à un datamart, bien qu'il n'y ait pas de
règles générales concernant le stockage physique. Très souvent, un contexte de diffusion est
multidimensionnel, c'est-à-dire modélisable sous la forme d'un hypercube; il peut alors être mis à disposition
à l'aide d'un outil OLAP.

Les différents contextes d'un même système décisionnel n'ont pas tous besoin du même niveau de détail. De
nombreux agrégats ou cumuls, n'intéressent que certaines applications et n'ont donc pas lieu d'être gérés en
tant qu'agrégats communs par la fonction d'intégration : La gestion de ce type de spécificité peut être prise
en charge par la fonction de diffusion. Ces agrégats pouvant au choix, être stockés de manière persistante ou
calculés dynamiquement à la demande.

À ce stade et lorsqu'il s'agit de concevoir un système de reporting, trois niveaux de questionnement doivent
être soulevés :

 À qui s'adresse le rapport spécialisé ? : choix des indicateurs à présenter, choix de la mise en page
 Par quel trajet ? : circuit de diffusion type « workflow » pour les personnes ou circuits de
transmission « télécoms » pour les moyens
 Selon quel agenda ? : diffusion routinière ou déclenchée sur événement prédéfini

Fonction présentation

Cette quatrième fonction, la plus visible pour l'utilisateur, régit les conditions d'accès de l'utilisateur aux
informations, dans le cadre d'une interface Homme-machine déterminé (IHM). Elle assure le contrôle
d'accès et le fonctionnement du poste de travail, la prise en charge des requêtes, la visualisation des résultats
sous une forme ou une autre. Elle utilise toutes les techniques de communication possibles : outils
bureautiques, requêteurs et générateurs d'états spécialisés, infrastructure web, télécommunications mobiles,
etc.

Fonction administration

C'est la fonction transversale qui supervise la bonne exécution de toutes les autres. Elle pilote le processus
de mise à jour des données, la documentation sur les données (les méta-données), la sécurité, les
sauvegardes, et la gestion des incidents.

Projet décisionnel
Dans une entreprise, le volume de données traitées croît rapidement avec le temps. Ces données peuvent
provenir des fournisseurs, des clients, de l’environnement etc. Cette quantité de données augmente en
fonction du secteur et de l'activité de l’entreprise. Par exemple, dans la grande distribution, les quantités de
données collectées chaque jour sont énormes (notamment lorsque les magasins collectent les tickets des
caisses).

L'entreprise dispose de plusieurs options pour traiter ce flux de données :

 les données anciennes sont effacées et l'entreprise ne conserve que les données actives ou un
historique récent
 les données sont stockées dans une base et l'entreprise n'envisage pas d'usage immédiat
 les données sont stockées au fur et à mesure qu’elles arrivent de manière cohérente pour qu’elles
soient exploitables directement
Le projet décisionnel correspond à cette dernière option. Il s’agit de traiter les données et de les stocker de
manière cohérente au fur et à mesure qu’elles se présentent. C’est pour cela que le projet décisionnel est un
projet sans limite dans le temps. C'est-à-dire que dès que l’entreprise commence ce projet, elle ne s’arrête
pas (sauf cas exceptionnel). Wal-Mart (une chaîne de la grande distribution) est l’une des entreprises qui
stockent le plus de données (elle a multiplié par 100 ses données en quelques années) et va atteindre dans les
années à venir[Quand ?] le pétaoctet (1 000 téraoctets).

Pour mener à bien ces projets décisionnels, il existe une multitude d'outils, chacun étant plus ou moins
adapté à la taille de l'entreprise, à la structure des données existantes et au type d'analyse désiré.

Rappel de la chaîne de la valeur décisionnelle

 Des SGBD relationnels et d'autres systèmes qui contiennent les données d'exploitation.
 Un ETL extrait les données pertinentes et les charge dans l'ODS du datawarehouse
 Les données sont structurées dans le datawarehouse
 Des datamarts qui exploitent une technologie X-OLAP sont mis à jour à partir du datawarehouse
 Des rapports sont générés sur ces données

Phase de recueil des exigences

Article détaillé : gestion des exigences.

Trois domaines doivent être particulièrement documentés :

1. le type d'information dont l'utilisateur des rapports a besoin


2. le type de restitution (ergonomie, fréquence, vitesse de restitution)
3. le système technique existant : technologies utilisées

Phase de conception et de choix technique

 En fonction des exigences recueillies, quels sont les éléments de la chaîne de la valeur décisionnelle
qui doivent être implémentés ?
 Doit-on seulement créer un rapport sur un cube OLAP existant ?
 Construire toute la chaîne ?
 Quelles sont précisément les données que l'on doit manipuler ?

Cela conduit au choix de technologies précises et à un modèle particulier.


Tableau de bord (gestion)
Le tableau de bord de gestion est un outil d'évaluation de l'organisation d'une entreprise ou d'une
institution constitué de plusieurs indicateurs de sa performance à des moments donnés ou sur des périodes
données.

Description
« [Le tableau de bord est] un ensemble d’indicateurs peu nombreux (5 à 10) conçus pour permettre aux
gestionnaires de prendre connaissance de l’état de l’évolution des systèmes qu’ils pilotent et d’identifier les
tendances qui les influenceront sur un horizon cohérent avec la nature de leurs fonctions. »

— H. Bouquin, Le Contrôle de gestion1

Un tableau de bord de gestion est un échantillon réduit d'indicateurs permettant à un gestionnaire de suivre
l'évolution des résultats, les écarts par rapport à des valeurs de référence (objectifs fixés, normes internes ou
externes, références statistiques), le plus possible en temps réel, en se concentrant sur ceux qu'il considère
comme les plus significatifs.

« Il confirme de façon structurée les impressions du responsable et lui indique la nécessité d’entreprendre
une action ou une analyse plus approfondie. En cernant la zone à problème, il oriente des corrections à
mener ou les pistes à explorer avant d’agir. »

— M. Gervais2

Un indicateur est un paramètre ou une combinaison de paramètres qui représente l'état ou l'évolution d'un
système, il est choisi en fonction des leviers d'action qui seront utilisés pour prendre d'éventuelles mesures
correctives et donc en fonction de décisions à prendre dans le futur.

On distingue plusieurs familles d'indicateurs présents dans des tableaux de bord : les indicateurs d'activité
(quantité produite, volume d'achat, chiffre d'affaires), les indicateurs financiers (il s'agit des charges par
nature comme les salaires, achat, frais généraux), les indicateurs de rentabilité (résultat net, marge
opérationnelle), les indicateurs de qualité (délai de fabrication, satisfaction des clients, réclamation)3.

Les données sont généralement issues d'un système d'information de gestion (SIG). Robert S. Kaplan et
David P. Norton ont élaboré une méthode de conception d'un tableau de bord prospectif d'entreprise
(« balanced scorecard ») qui s'inspire des travaux de Michael Porter relatifs à la chaîne de valeur dans
l'entreprise4.

Le tableau de bord est un outil de pilotage à la disposition d'un responsable ou de son équipe pour prendre
des décisions et agir en vue de l'atteinte d'un but qui concourt à la réalisation d'objectifs stratégiques. C'est
un outil d'aide au management pour piloter (orienter les évolutions et les effets du fonctionnement d'un
système), animer une équipe en développant une réflexion collective, et organiser dans le but d'utiliser au
mieux les ressources5.

Le tableau de bord prospectif permet de valider et d'ajuster la stratégie ; le tableau de bord de pilotage
permet de mettre l'opérationnel au service de la stratégie.

Un tableau de bord de pilotage est constitué d'un ensemble d'indicateurs définis par consensus, de
procédures de collecte d'information et de procédures d'exploitation (utilisation des résultats). Il permet de
répondre aux objectifs de management suivants :

 évaluer la performance,
 réaliser un diagnostic de la situation,
 communiquer,
 informer,
 motiver les collaborateurs,
 progresser de façon continue.

Enjeux et paramètres
Un tableau de bord d'un gestionnaire ou d'un décideur présente des indicateurs permettant de suivre et
d'anticiper le fonctionnement et l'activité de l'entreprise ou du service.

Un ou plusieurs indicateurs type présente la progression par rapport à un objectif de gestion fixé. Ainsi
l'utilisateur sait quelles actions il doit entreprendre pour atteindre son objectif.

Par exemple :

 domaine commercial - chiffre d'affaires, marge moyenne, nombre de nouveaux clients...


 domaine de management de la qualité: nombre de réclamations clientèle, activité du service après-
vente...
 domaine de finances - Flux de trésorerie solde de trésorerie, volume des encours, délai de règlement
clients, ROI (Retour sur investissement)...
 domaine de production - productivité quantités produites, nombre de défauts en sortie, nombre
d'heures supplémentaires, Taux de rendement synthétique, Taux de rendement global...
 domaine logistique - le taux de service, la rotation de stock, les dépenses d'exploitation...
 domaine de ressources humaines - turnover, absentéisme, dépenses de formation, le taux de
fréquence et de gravité (accidentalité du travail)...
 domaine de gestion de projets - valeur acquise d'un projet, indicateur d'efficacité (Indicateur de
Performance des Coûts (IPC) ou Cost Performance Index (CPI) en anglais), indicateur d'efficience
(Indicateur de Performance des Délais (IPD) ou Schedule Performance Index (SPI) en anglais), etc.

Le tableau de bord prospectif est un tableau de bord qui intègre des gains tangibles et non mesurables, pour
relier les nouvelles capacités d'évolution qualitative de l'organisation aux résultats financiers de celle-ci.

Normalement un tableau de bord de gestion est un échantillon réduit d'indicateurs.

Conception
L’élaboration du tableau de bord doit être cohérente avec l’organigramme de l’entreprise. Cette cohérence
existe à deux niveaux :

 Au niveau de l’ensemble, le réseau de tableaux de bord épouse l’articulation des niveaux


hiérarchiques et des fonctions. La liste des tableaux de bord est en fonction du nombre de
responsables dans l’entreprise. On mettra en œuvre le principe gigogne. Celui-ci consiste à regrouper
les différents tableaux de bord sous une forme calquée sur l’organigramme ;
 Au niveau de chaque tableau de bord, les informations retenues concernent spécifiquement la gestion
du responsable qui en est le premier destinataire et couvrent les points clés de la délégation qu’il a
reçue.

Méthodes de conception
Il existe plusieurs méthodes de conception applicables selon le type d'organisation et la finalité poursuivie.
Voyons les plus utilisées dans le monde francophone
 La méthode des Balanced Scorecard de Robert Kaplan et David Norton, orientée stratégie, elle en
facilite le déploiement opérationnel sur le terrain
 La méthode Gimsi de Alain Fernandez, axée sur l'humain, elle se concentre sur les besoins des
décideurs de terrain en situation (orientée Business Intelligence)
 La méthode Ovar de HEC est orientée contrôle de Gestion
 La méthode Cockpit de Patrick Georges est orientée fonctions cognitives des managers
 la méthode Innov'action développé par Gavet nicolas orientée sur la gestion des ressources
environnementale et sociétale

Présentation

La présentation du tableau de bord doit être abrégée, synoptique et convergente. Les indicateurs pertinents et
synthétiques doivent être mis en valeur. Le tableau de bord est un document pédagogique qui doit attirer
l’attention sur l’important, sur l’urgent et sur le décisif.

Dynamique

La rapidité d’édition du tableau de bord peut l’emporter sur la précision. Il faut que les dirigeants disposent
d’un instrument dans des délais raisonnables pour qu’ils puissent agir et réagir rapidement.

Contenus

Un tableau de bord consiste à concilier des exigences apparemment contradictoires, à savoir :

 Retenir peu d’indicateurs mais tous ceux qui sont essentiels ;


 Personnaliser le tableau de bord pour son destinataire tout en respectant une présentation homogène ;
 Abréger les informations en passant d’un niveau à un autre en facilitant le dialogue entre les
responsables de ces différents niveaux.
 Le tableau de bord contient des indicateurs et des graphiques ; les indicateurs que contient le tableau
de bord doivent répondre à certains critères préalablement sélectionnés. Ils doivent être :
 Clairs et simples.
 Significatifs et durables.
 Cohérents entre eux.
 Personnalisés : l’opérationnel concerné doit y reconnaître ce qui le différencie des autres centres de
responsabilité et ce qui traduit le résultat de ses efforts et de la qualité de sa gestion.

D’un point de vue technique, les indicateurs prennent la forme :

 D’indicateurs physiques (quantité, heures machines, heures travaillées, visites effectuées).


 D’indicateur financiers se rapportant aux coûts, aux produits, aux marges, aux résultats.
 De ratios.
 D’indicateurs relatifs à l’environnement (évolution de la concurrence, évolution des statistiques
relatives au coût de la vie).
 D’indicateurs relatifs à l’activité (quantités vendues ou fabriquées, chiffre d’affaires).

S’agissant d’une information destinée à des responsables opérationnels, les indicateurs doivent être, à
chaque fois que cela est possible, présentés sous une forme physique. Ceux-ci sont en effet considérés
comme étant plus explicites.

Les graphiques dans certains cas, peuvent mieux que des chiffres exprimer l’indicateur. Ceux-ci ne peuvent
évidemment être le seul mode de présentation ; cependant, les graphiques peuvent compléter très utilement
le tableau de bord.

Les formes de graphiques


D’une manière générale, la forme graphique est particulièrement adaptée à la présentation :

 De séries s’étendant sur une assez longue période, lorsque la tendance qui se dégage a plus
d’importance que la valeur absolue du dernier chiffre connu ;
 De corrélations entre divers phénomènes dont l’évolution simultanée ne pourrait être clairement
appréciée dans des tableaux de chiffres.

Les exemples de graphiques pouvant figurer dans le tableau de bord sont nombreux, dont voici quelques-
uns :

 Courbe cumulative.
 Graphique semi-logarithmique.
 Graphique en dents de scie.
 Graphique en banderole.
 Graphique à coordonnées polaires.
 Graphique de Gantt.

Exemples de tableau de bord


En principe, il n’y a pas de modèle de tableau de bord standard, voire universel. Un tableau de bord doit être
élaboré sur mesure. Cependant, quelques éléments peuvent être considérés comme standard. Il s’agit des
ratios qu’on rencontre dans n’importe quel tableau de bord, voici quelques exemples de tableau de bord :

Tableau de bord du directeur technique

Il peut contenir les informations suivantes :

 Quantités produites :
o Quantité produite/Quantité prévue.
o Quantité produite par atelier/ Quantité prévue
o Stock de matière première en nombre de jours de production
o Stock de produits finis en nombre de jours de production
 Qualité de la production :
o Nombre de pièces mises en rebut / nombre de pièces fabriquées
o Utilisation des moyens : Énergie consommée/ énergie disponible

Tableau de bord du directeur commercial

Il peut contenir les informations suivantes :

 Montant des ventes : Quantités vendues/ Ventes prévues


 Qualité de l’action commerciale :
o Délais moyens promis/Délais moyens réels
o Nombre de commandes annulées/ nombre de commandes reçues
 Qualité de prospection :
o Frais de ventes/chiffre d’affaires
o Nombre de clients effectif/ Nombre de clients potentiel
o Chiffre d’affaires par représentant
o Pourcentage d’impayés par rapport au chiffre d’affaires

Voir aussi
Notes et références

1. ↑ H. Bouquin, Le Contrôle de gestion, Paris : Presses Universitaires de France, 8e édition, 2008


2. ↑ Probablement Michel Gervais, Contrôle de gestion et planification de l’entreprise, 2000
(7e édition), page 598
3. ↑ Piloter mon entreprise grâce au tableau de bord[1] [archive]
4. ↑ Le tableau de bord prospectif, Robert S. Kaplan, David P. Norton, Éditions d'Organisation, 2003
5. ↑ Le tableau de bord facile, Daniel Boix, Bernard Féminier, Éditions d'Organisation, 2004
Management de la qualité
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant
du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les
liant à la section « Notes et références » (modifier l'article, comment ajouter mes sources ?).

La roue de Deming illustre le processus d'amélioration continue, l'un des principes fondamentaux du
management de la qualité.

Le management de la qualité, ou gestion de la qualité, est une discipline du management regroupant


l'ensemble des concepts et méthodes visant à satisfaire les clients d'un organisme (en général les entreprises,
associations, organismes publics) et à fournir des produits et services correspondant à leurs attentes.

Selon l'ISO 9000, la qualité peut être définie comme l'« aptitude d'un ensemble de caractéristiques
intrinsèques à satisfaire des exigences ». La notion de qualité pouvant être subjective, elle peut s'appuyer par
une mise en conformité avec les exigences de référentiels (normes, standards…), de cahiers des charges, de
spécifications, de la réglementation (directives, décret,...).

Le management de la qualité est constitué de quatre familles d'activités complémentaires :

 la maîtrise de la qualité
 l'assurance de la qualité
 la planification de la qualité
 l'amélioration1

Le management de la qualité est transversal à toute l'organisation, dont la direction en définit la politique.

Enjeux et histoire du management de la qualité


Enjeux du management de la qualité

Le management de la qualité permet a priori d'améliorer la qualité et donc de satisfaire les besoins exprimés
ou non des clients ou utilisateurs.

Cette qualité est relative, car elle est fonction des exigences de clients et aussi des parties prenantes internes
et externes de l'entreprise, ainsi que de la prise en compte des risques de toute nature.

Le niveau de qualité optimal ne doit pas produire de coût inadéquat (sur-qualité). La qualité, au même titre
que n'importe quelle activité dans une entreprise a un coût, mais qui est censé réduire le coût de la non-
qualité. Une entreprise est alors performante lorsque le triptyque "coût - délai - qualité" (c'est-à-dire les
ressources qu'elle met en œuvre) est justifié et efficace, lui permettant de se positionner avantageusement sur
un marché en bénéficiant d'un "ticket d'entrée" élevé qui donne une marge d'avance sur la concurrence.

Dans le cadre du management de la qualité, du point de vue industriel, la qualité est une cible dont les
critères sont précisément fixés par rapport à des standards (des normes). La qualité industrielle est le résultat
d'un processus de production ou de servuction qui à toutes ses étapes (conception, mise en œuvre, contrôle,
amélioration - voir PDCA) obéit à un "cahier des charges" permettant d'atteindre et de maîtriser le niveau
souhaité.

L'industrie a cherché à développer les meilleures méthodes pour améliorer la qualité. Provenant
essentiellement du Japon et des États-Unis, ces méthodes sont rassemblées aujourd'hui dans un corpus bien
défini et ont désormais une portée mondiale. Les normes internationales de la qualité définissent par
convention une démarche « universelle », applicable à tout type d'entreprise (production de produits ou de
services).

Les normes internationales de la qualité se sont orientées vers la Qualité totale (TQM : Total Quality
Management), qui articule stratégie, système, performance, dimension humaine et sociale. Dans le cadre de
la Qualité totale, les parties prenantes sont : les clients, les fournisseurs, les actionnaires, les salariés et la
société en général. La qualité optimale se situe au point de rencontre des besoins explicites ou implicites de
l'ensemble des parties prenantes.

Histoire

L'histoire du management de la qualité s'inscrit dans l'histoire du management. Les civilisations se sont donc
d'abord appuyées sur l'art et l'artisanat pour faire vivre et progresser la qualité des productions au sein des
sociétés.

La révolution industrielle et la consommation de masse a laissé place à de nouvelles problématiques de


management (voir l'article économie des organisations et sociologie des organisations pour les théoriciens
classiques du management). Plus spécifiquement au management de la qualité en 1924 Walter A. Shewhart
a inventé une méthode de contrôle de la qualité de la production en utilisant des méthodes statistiques.
Pendant la seconde guerre mondiale William Edwards Deming a utilisé ces méthodes pour la fabrication de
munitions et d'autres produits d'importance stratégique.

Après la Deuxième Guerre mondiale, le Japon a décidé de faire de l'amélioration de la qualité un impératif
national dans le cadre de la reconstruction de leur économie avec l'aide de certains théoriciens comme
Shewhart, William Edwards Deming et Joseph Juran dans les années 1950. C'est à cette époque que l'idée
d'un décloisonnement des services et l'accent sur l'apprentissage en continu est apparu. Ainsi à partir des
années 1970, cette initiative est devenue un succès en particulier au niveau de l'automobile dont Taiichi Ono
est un des théoriciens (développant le juste à temps et le kanban, les 5 zéros) et directeur de production de
Toyota dans les années 1950.

Divers états américains ont mis en place dès les années 1990 des organisations dédiées à la qualité de
l'environnement. En avril 1990, 21 des plus importantes entreprises américaines de l'époque (dont IBM,
AT&T) se sont regroupées dans le cadre du GEMI (Global Environment Management Initiative), pour
ouvrir la démarche qualité sur la prise en compte de l'environnement (TQEM : Total Quality Environmental
Management). Cette mobilisation se fit en réponse aux premières démarches juridiques liées à l'impact de
l'industrie sur la santé et l'environnement.

Les normes ont progressivement intégré les attentes de la société civile : risques globaux, changement
climatique, etc. Les enjeux de développement durable ont été traduits, pour les entreprises, dans des
concepts de responsabilité sociétale, santé, éducation, et même gouvernance.

Quelques dates repères :

 1970 (États-Unis) : Loi imposant l'obligation de l'assurance qualité pour la construction des centrales
nucléaires ;
 1991 (États-Unis) : les premières normes environnementales (EQS : Environmental Quality
Standard) de qualité des sols sont établies ;
 1993 (États-Unis) : apparition des premières EQS (Environmental Quality Standard) relatives à la
santé.

Les entreprises américaines publient leurs politiques et rapports annuels relatifs à la qualité globale (y
compris les volets sociétaux et environnementaux) depuis la fin des années 1990. Il est facile d'en consulter
sur le Net.

En France, le déploiement de la démarche qualité a été tardif (1990). En première étape, l'exigence de
description des process semblait ne devoir s'appliquer qu'à l'industrie. La démarche a été perçue comme trop
procédurière ("usine à gaz") et l'importance de l'implication de la direction a été sous-estimée. Une version
simplifiée de la démarche qualité a alors été élaborée et diffusée sous le nom d'Assurance Qualité, définie
dans les normes ISO 9001, ISO 9002 et ISO 9003 (versions 1990 et 1994). Ces normes ISO 9002 et 9003
ont été supprimées dès la publication de la version 2000 de l'ISO 9001 qui souligne l'importance de
l'implication managériale dans le pilotage global de la qualité, la maîtrise des process, et élargit l'application
de la norme à la production de services.

Des travaux sont en cours pour formaliser un cadre de normalisation cohérent, à la fois sur le plan industriel
et sur le plan de la gestion de l'information. On trouve ainsi les séries de normes, ou projets de normes (pour
la mise en œuvre) ISO 26000 et ISO 27000.

Outils du management de la qualité


Typologie des outils de gestion de la qualité

La démarche qualité propose toute une panoplie d'outils d'aide (créativité, méthode, collecte, analyse,
statistique, suivi-contrôle). Ces outils, créés et/ou diffusés par les principaux fondateurs de la démarche
qualité dans le cadre de leurs actions de conseil auprès des entreprises, ont vocation pédagogique.

Il est utile de répartir les outils de la qualité en deux catégories :

 Les outils complexes utilisés dans les domaines de l'ingénierie, de la logistique, de la métrologie, des
statistiques, par les services de planification et de méthode... Ces outils ont souvent été créés au
début du siècle dernier. La plupart d'entre eux figurent déjà dans le livre de Joseph Juran (1951)
« Quality Control Handbook » Mc Graw-Hill Book Company, guide rassemblant les concepts, outils
et démarches applicables à l'amélioration de la qualité.
 Les outils simples d'aide à la réflexion, à l'analyse, à la méthode, utilisables par tout public sans
formation particulière. C'est la JUSE (Japanese Union of Scientists and Engineers) qui fera la
première diffusion systématique en 1977, de 7 outils "tout public" sélectionnés pour la simplicité de
leur utilisation. Ces outils ont été dénommés les "7M" (1-Diagramme de Pareto, 2-diagramme
causes-effets, 3-stratification, 4-check-list, 5-histogramme, 6-diagramme de dispersion, 7-graphe /
charte de contrôle).

Pour analyser une performance

Il est possible de vérifier la performance à partir d'une carte de contrôle. (États-Unis) (Auteur : Walter A.
Shewart) (variantes : suivi de tableau de bord, contrôle statistique de processus (CSP) : méthode de gestion
de la qualité selon laquelle on mesure, à l'aide de techniques statistiques, un processus pour déterminer s'il
faut lui apporter des changements ou le maintenir tel quel).

Pour cadrer le pilotage

Il est possible d'utiliser la roue de Deming : (États-Unis) étapes de mise en place de la maîtrise de la qualité.
Autre dénomination : le PDCA (Plan - Do - Check - Act : concevoir, mettre en œuvre, contrôler, réagir), la
"roue de la qualité". Cette méthode a été lancée par les qualiticiens Juran et Shewhart à la société Bell
Telephone en 1925. W. Deming, un statisticien qui avait été stagiaire école auprès de Shewhart à cette
époque, évoquera cet outil au Japon en 1950 alors qu'il était chargé de donner durant 2 mois une série de
cours sur les statistiques. En 1954, l'industrie japonaise fera appel à Juran afin qu'il expose les volets
managériaux et méthodes de déploiement de la qualité. Néanmoins, le nom de Deming est resté attaché à cet
outil.

La Méthode Six Sigma : (États-Unis) méthode de management se basant sur un processus d'amélioration
continue de la qualité. Équivalent : PDCA, dont elle est une version améliorée.

Pour analyser un fonctionnement

 La "cartographie des processus" ("process mapping") déjà utilisé dans les années 1930 aux États-
Unis est déclinée sous diverses formes, des plus simples au plus complexes, par exemple les
suivantes :
 "Le logigramme (synonyme : ordinogramme ou "flowchart"). Schéma codifié représentant les étapes
successives et logiques d'un cheminement et montrant les interactions d'une procédure, d'un
processus ou d'un système à l'aide d'un ensemble de figures géométriques interreliées (par exemple
des rectangles ou des losanges).
 Le schéma géographique (organisation matérielle) analyse le flux matériel des activités et aide à
minimiser les pertes de temps quand les extrants ou les ressources sont acheminés d'une activité à
une autre.
 Le schéma fonctionnel représente les interactions entre différentes unités de travail. Il montre par
exemple comment les services fonctionnels à orientation verticale influent sur un processus à
orientation horizontale mis en œuvre au sein d'une organisation.
 L'outil PERT (Project Evaluation and Review Technique, litt. "technique d'évaluation et d'examen de
projets"), méthode de gestion de projet permettant de définir les tâches et délais d’un projet et d’en
assurer le suivi.
 Stratification : présentation permettant la lecture simultanée de données compilées de natures et
sources diverses, mettant en évidence leurs variations singulières, leurs influences respectives,
l'impact du contexte, et ce pour donner une vision d'ensemble du mode de fonctionnement d'un
système et de ses variables.

Pour rechercher les causes des défauts et qualifier leur impact

 Le Diagramme de causes et effets ou diagramme d'Ishikawa Kaoru Ishikawa (synonyme :


diagramme en arêtes de poisson). Diagramme permettant d'examiner les causes profondes des
problèmes. En posant continuellement la question « Pourquoi ? », on finit par découvrir la véritable
cause du problème. Généralement utilisé pour mettre en évidence les causes d'un problème et les
regrouper dans des catégories distinctes (par. ex. méthode, main-d'œuvre, matériel, machines,
matières).
 La méthode des 5 pourquoi.
 Le diagramme de Pareto. Auteur : Joseph Juran (synonyme : 80-20) (variante : la courbe A-B-C
découpe de diagramme de Pareto en trois segments délimitant l'effort de traitement à effectuer).
Graphique en bandes simple, servant, après la collecte de données, à classer les causes des problèmes
et à établir des priorités d'action. Il indique les causes des problèmes selon l'ampleur de leurs effets et
aide à définir les activités d'amélioration selon leur ordre de priorité. Le recours à ce genre de
graphique donne lieu à la règle de 80-20, c'est-à-dire que 80 % des problèmes découlent de 20 % des
causes.
 L'Histogramme. Graphique en bandes indiquant la distribution d'une variance. Il montre également
les écarts par rapport à la norme, sous forme d'analyse sélective par exemple. Il permet de mesurer la
fréquence à laquelle quelque chose se produit.

Pour choisir la solution appropriée


 La matrice de compatibilité.
 La démarche 8D (pour assurer la complète résolution d'un problème).
 Arbre de décision : Représentation en arborescence qui permet à partir d'un objectif de départ de
décliner l'ensemble des objectifs intermédiaires et les moyens à mettre en œuvre.

Pour optimiser - sécuriser un process

 L'AMDEC ou Analyse des Modes de Défaillances de leurs Effets et de leur Criticité.


 Le diagramme de Gantt. Le diagramme de Gantt est un outil permettant de modéliser la planification
de tâches nécessaires à la réalisation d'un projet. Il s'agit d'un outil inventé en 1917 par Henry L.
Gantt. Il sert de support au paramétrage et à la gestion de projet.
 La matrice "QFD" (Quality Function Deployment), également dénommée la "maison de la qualité".
Il s'agit d'un tableau à double entrée recoupant les étapes du processus et les exigences de la
clientèle. Un système de notation permet de préciser les points critiques dans la matrice et même d'en
suivre l'évolution (= tableau de bord figuratif).
 Le kanban, système d'étiquettes permettant le suivi de production (utilisé dans le juste-à-temps).
 Le Poka yoke : système d'alerte visant à éviter (yoke) les erreurs (poka) au niveau des opérateurs
(recours à des moyens simples comme la vue et l’ouïe pour empêcher les incidents de
fonctionnement). Inventé par un ingénieur japonais nommé Shigeo Shingo (concepteur du système
SMED).
 La défauthèque- but : recenser, formaliser, garder en mémoire les défauts
 Les 5S- but : ordre et propreté

Pour gérer les premières étapes d'une analyse

 Le diagramme KJ. Il fait partie des 7 outils de la qualité diffusés par les Japonais. À l'origine,
dénommé "diagramme des affinités" (Affinity Diagram), il est fréquemment identifié par les initiales
de son concepteur Kawakita Jiro. Très fréquemment utilisé dans l'animation des groupes de travail,
ce diagramme sert à regrouper des idées, des opinions se rattachant à des problématiques diverses et
à créer des liens entre elles afin de les rapprocher par catégories.
 Le QQOQCCP ("Five Ws" ou "5W2H" en anglais).
 Les cinq pourquoi ("5 Whys" en anglais)
 Analyse des forces et faiblesses. L'outil peut être simplement constitué d'un tableau distinguant les
deux catégories, en vis-à-vis par thème. L'origine de cette méthode est attribuée à Kurt Lewin.
 Analyse de la variance
 Le brainstorming (remue-méninges).
 Le QRQC (Quick Response, Quality Control), méthode développée au Japon puis reprise en France
et en Europe par l’équipementier automobile Valeo en 2002. D'abord utilisé dans le milieu
automobile la méthode QRQC est maintenant plus largement utilisée. Le QRQC est une méthode
visuelle de résolution de problème, au plus près du terrain, impliquant celui qui a détecté l'anomalie.
Chaque problème détecté doit être immédiatement identifié, caractérisé et analysé sur le terrain par
les personnes concernées en utilisant les pièces incriminées; une action corrective doit être définie et
mise en place sous 24 heures. L'analyse du problème doit permettre d'identifier le ou les facteurs à
l'origine de l’occurrence et de la non détection du problème. Une fois que l'influence des facteurs sur
le problème est démontrée, une analyse cinq pourquoi doit permettre d'arriver à la cause racine qui
est à l'origine du défaut. Enfin cette cause racine doit faire l'objet d'une carte d'apprentissage ou d'une
"Lesson Learned Card" en anglais afin de capitaliser et partager cette expérience dans l'entreprise2.
 La Matrice Auto-Qualité, qui fait partie de la boîte à outils de certaines méthodes de résolution de
problème, et d'implication du personnel, qui identifie le lieu d'apparition d'un défaut et son lieu de
détection.

Management de la qualité et approche par les risques


De nos jours, la gestion des risques intègre progressivement la démarche qualité : on parle maintenant de
« responsable qualité et gestion des risques » dans les structures sanitaires et médico-sociales. Le manuel de
certification HAS V2010 soulève les problématiques de la gestion des vigilances sanitaires. Il évoque
également la fonction « gestion des risques » en critère « 8.b » qui correspond à une des 13 pratiques
exigibles prioritaires à mettre en œuvre au sein des établissements de santé. La norme ISO 9001 version
2015 inclut dans ses dernières évolutions l'approche par les risques, devenue partie intégrante d'un système
de management de la qualité.

Il existe de nombreux outils liés aux méthodes de gestion des risques et de résolution de problèmes. Les plus
connus sont : la gestion des évènements indésirables, la cartographie des risques, le diagramme d'Ishikawa
ou « 5M », le vote pondéré, le diagramme de Pareto des effets ou « règle des 80-20 % », plan d'actions
correctives ou préventives, etc.).

Concepts liés au management de la qualité (au sens large)


Les organisations applicables à la gestion de la qualité sont très nombreuses et découlent simultanément des
objectifs décrits et des moyens mis en place par le groupe qui souhaite ainsi gérer sa qualité. Souvent, dans
les entreprises, cette responsabilité est déléguée à des ingénieurs qualité ou qualiticiens. Le rôle de ces
ingénieurs est alors de construire les moyens pratiques d'atteindre la qualité (procédures, contrôles, mesures,
etc.).

Le management de la qualité a - du fait de ses buts très larges - un spectre d'application considérable qui a
tendance à recouvrir un grand nombre d'activités. Un bon moyen pour s'en rendre compte est de balayer les
chapitres de la norme ISO 9000 Version 2008 ou 2015 qui fait figure de référence pour beaucoup
d'entreprises mondiales.

Par exemple pour l'ISO 9001 aborde les thèmes suivants (à mettre à jour avec la version 2008 et 2015)  :

 Responsabilité de la direction : la qualité commence par l'implication de la Direction de l'entreprise.


 Système de management de la qualité : une organisation et une structure propres sont aussi
nécessaires.
  : dès la décision initiale de réaliser produit ou service, la gestion de la qualité peut et doit être mise
en œuvre.
 Maîtrise de la conception : l'ensemble de l'activité de conception est ensuite couverte.
 Maîtrise des documents : comme il faut dire/écrire ce que l'on fait et ce que l'on va faire, la maîtrise
des documents au sens le plus large du terme est une nécessité centrale.
 Maîtrise des fournisseurs : fournir des produits et des services de qualité sur toute la chaîne
d'approvisionnement participe à la qualité du produit/service final.
 Maîtrise du produit fourni par le client : le client peut avoir des produits à fournir, participant ainsi à
la qualité du produit/service/final.
 Identification et traçabilité : reconnaître et retrouver le produit est une nécessité dans la gestion de la
qualité.
 Maîtrise des processus de réalisation ou de production permet de fournir exactement ce qui était
prévu.
 Mesures et surveillances: s'assurer que le produit/service est conforme.
 Maîtrise des dispositifs de mesure et surveillance (anciennement équipements de contrôle, de mesure
et d'essai : pour s'assurer que les contrôles sont fiables, il faut gérer la qualité des outils qui
interviennent dans cette activité.
 État des contrôles et essais : s'assurer que l'on connaît l'état des essais permet de savoir si la qualité
est atteinte.
 Maîtrise du produit non conforme : la qualité n'est que rarement atteinte à 100 % ; il faut donc traiter
les non-conformités ou les non qualité.
 Actions correctives et actions préventives : à chaque incident, il convient de savoir comment le gérer
a posteriori et comment empêcher qu'il se reproduise.
 Manutention, stockage... : encore une activité qui n'échappe pas à la gestion de la qualité puisqu'elle
intervient avant la mise à disposition du client/destinataire.
 Enregistrements relatifs à la qualité : des traces doivent être gardées des activités de la gestion de la
qualité.
 Audits qualité internes : la gestion de la qualité assure des audits pour vérifier et mesurer
l'application des procédures de la gestion de la qualité.
 Formation : il faut former à la qualité aussi.
 Prestations associées
 Techniques statistiques : les statistiques ont une place centrale dans la gestion de la qualité dès lors
que les quantités mises en œuvre augmentent un tant soit peu.
 Dans les services professionnels et les professions médicales, la gestion de la qualité est basée sur les
codes de déontologie.

La démarche qualité est déclinée dans tous les domaines industriels, avec des variantes et des dénominations
parfois particulières :
pour le domaine informatique 3 : qualité des systèmes informatiques - sûreté de fonctionnement des
systèmes. Capability Maturity Model Integration CMMI et ses déclinaisons (CMM-I, PCMM, etc.) (liste à
compléter).
Logistique
La logistique est l'activité qui a pour objet de gérer les flux physiques, et les données (informatives,
douanières et financières) s'y rapportant, dans le but de mettre à disposition les ressources correspondant à
des besoins (plus ou moins) déterminés en respectant les conditions économiques et légales prévues, le degré
de qualité de service attendu, les conditions de sécurité et de sûreté réputées satisfaisantes.

Pour le Council of Supply Chain Management Professionnals1, la logistique se définit comme :


« l'intégration de deux ou plusieurs activités dans le but d'établir des plans, de mettre en œuvre et de
contrôler un flux efficace de matières premières, produits semi-finis et produits finis, de leur point d'origine
au point de consommation. Ces activités peuvent inclure -sans que la liste ne soit limitative- le type de
service offert aux clients, la prévision de la demande, les communications liées à la distribution, le contrôle
des stocks, la manutention des matériaux, le traitement des commandes, le service après vente et des pièces
détachées, les achats, l'emballage, le traitement des marchandises retournées, la négociation ou la
réutilisation d'éléments récupérables ou mis au rebut, l'organisation des transports ainsi que le transport
effectif des marchandises, ainsi que l'entreposage et le stockage ».

Enjeux de la Logistique
Alors que l'adage « l'intendance suivra » a souvent justifié dans l'économie de pénurie d'après guerre la
quasi-absence de la préoccupation logistique, la pression concurrentielle croissante que connaissent les
marchés contemporains (concurrence par les prix mais aussi concurrence hors prix) a singulièrement fait
évoluer les esprits2 :

 le progrès technique a permis de concevoir et de fabriquer des produits « techniquement » valides ;


 l'organisation scientifique de la production (via le taylorisme ou le toyotisme) a réduit les coûts de
fabrication ;
 le marketing a contribué à mieux adapter les produits à la demande du marché.

Aujourd'hui, la discipline « Logistique » est apparue comme une occasion de faire mieux correspondre le
service, au sens large du terme, aux besoins et attentes des clients :

 la notion de service devient tellement incontournable qu'il est de moins en moins envisageable
d'offrir un produit hors d'un contexte de service rendu à l'un ou l'autre stade de l'échange (avant,
pendant ou après la vente proprement dite) ;
 le coût de ce service peut être très important et peut fort bien représenter une part non négligeable,
sinon majoritaire, du prix de revient du produit. La maitrise de ce coût n'est pas assurée tant les
différents éléments qui le composent dépendent de fonctions qui agissent indépendamment les unes
des autres, sans coordination ou supervision appropriées.

Finalités de la logistique
Les finalités de la Logistique, selon JC Becour et H Bouquin3, peuvent s'énoncer sous trois aspects : à court
terme, à moyen terme et à long terme.

À court terme

Il s'agit d'optimiser les flux physiques, de l'amont à l'aval, ce qui implique :

 l'exploitation des prévisions commerciales à très court terme et des carnets de commande ;
 la définition des programmes d'approvisionnement et de production ;
 la programmation des livraisons ;
 la régulation de l'après-vente et la distribution des pièces de rechange ;
 la continuité de l'exploitation par la mise en place d'un plan de maintenance.

À moyen terme

À l'horizon des plans d'action et des budgets, la logistique vise à :

 définir les actions qui permettent de contrôler les coûts logistiques des services que l'entreprise a
choisi de développer.

Exemple : Si l'entreprise décide de mettre en place un processus de production fonctionnant selon le


principe de la différenciation retardée, la logistique est censée appréhender et optimiser tous les
paramètres de production et de stockage intervenant dans ce type d'organisation ;

 conseiller les dirigeants pour leur permettre de choisir les opérations que l'entreprise doit assurer en
propre et celles qu'elle a intérêt à sous-traiter.

Exemple : qui doit assurer le service après vente auprès des clients ? Faire nous-mêmes ou sous-
traiter ?  ;

 contribuer fortement à l'optimisation du coût de l'investissement ou du fonds de roulement de


l'entreprise.

À long terme

Dans une perspective de long terme, la finalité de la logistique est :

 d'aider l'organisation à maitriser la complexité, l'incertitude et les délais résultant de la multiplication


des couples produits-marchés ;
 d'actualiser en permanence la connaissance de l'impact que les aspects logistiques ont sur les couts
d'exploitation des clients et de l'organisation ;
 de proposer - le cas échéant - à l'organisation un avantage concurrentiel en offrant à ses clients un
service logistique optimal au coût le plus adapté et acceptable.

Activités et acteurs de la logistique


Articles détaillés : Histoire de la logistique, Gestion de la chaîne logistique, Structure physique et Conseil en
logistique.

Selon leur situation et rôle dans l'organisation

En amont du processus de production

Les activités amont comprennent :

 le développement (création ex nihilo ou modification de l'existant) et la recherche de sources


d'approvisionnement(sourcing), dans ou à l'extérieur de l'entreprise cliente, par la mise en relation
avec :
o des fabricants aussi dénommés producteurs, industriels, fournisseurs (suppliers) ou sous-
traitants (sub-contractors) ;
o des prestataires de services, aussi dénommés sous-traitants ou encore commissionnaires de
transport ou transporteurs ;
 les achats (purchasing) qui impliquent la notion de « contrat » et de « vendeur » (vendor) ;
 l'approvisionnement (procurement) qui induit la notion de « commande » (ouverte ou fermée)
(order), de bons de commandes (à l'extérieur) (purchase order) ou de « demandes, bons ou ordres de
fabrication, de livraison… » (à l'intérieur) et de fournisseurs (supplier) ;
 le transport amont et les opérations de douane4, pour acheminer les marchandises (Produit fini ou
matériaux, minerais, composants…) vers un point de stockage (notion de stock) ou une plateforme
de préparation de commande (notion de Juste-à-temps ou flux tendu).

En aval du processus de production

Les activités aval comprennent :

 le stockage en entrepôt (entreposage) ;


 le suremballage (copacking), la constitution de kits ou de lots (kitting), le conditionnement à façon,
l'adressage, etc. ;
 la préparation de commandes qui peut porter d'autres noms ;
o la « répartition » pour les entreprises du secteur pharmaceutique (en incluant toutefois sous
cette dénomination le « stockage » et le « transport aval ») ;
o « l'éclatement » pour les entreprises du secteur alimentaire frais (qui représente un seul
passage à quai sans stockage, avec répartition et rechargement immédiat de véhicules),
 le transport aval (après le lieu de stockage), qui se décompose en :
o « traction », c'est-à-dire le transport jusqu'à un point de répartition ou d'éclatement ou de mise
en tournée ;
o « passage à quai », pour « éclater », « répartir » ou « mettre en tournée » sur d'autres
véhicules ;
o « distribution », c'est-à-dire le transport du « dernier kilomètre » (s'agissant généralement
d'entreprises de livraisons avec des véhicules légers (véhicules de moins de 3,5 t de poids
total en charge et/ou de livraisons urgentes ou de distribution (comme celle du courrier)), vers
une entreprise (Business to business) ou vers un particulier (Business to consumer).

En retour du processus d'utilisation

On entend par « logistique retour » ou Reverse Logistics, la gestion de l'acheminement de marchandises,


généralement hors d'usage, du point de fabrication (en l'occurrence, le consommateur final) jusqu'au point de
réparation, de recyclage ou de destruction définitive et totale.

La gestion des flux retours est potentiellement un marché prometteur, parce qu'elle devrait, d'une part,
permettre à terme, de recycler des matières premières de plus en plus rares (donc chères) et d'autre part parce
qu'elle est source d'emplois.

Elle représente cependant une dépense supplémentaire, à court terme, pour les entreprises et les particuliers.
Pour les inciter à alimenter ces flux retours, les pouvoirs publics de certains pays, comme la France, ont déjà
instauré des taxes :

1. taxe de l'Agence de l'environnement et de la maîtrise de l'énergie (ADEME) (sur les produits


d'emballages, payée par les entreprises) ;
2. écotaxe (sur les produits électroménagers, payée par ceux qui les achètent).

Dans ces deux cas, ce sont les entreprises qui jouent le rôle du percepteur et qui reversent la taxe à l'État,
qu'elles n'aient ou qu'elles n'aient pas répercuté son coût à ses clients et aux consommateurs.

Cependant les circuits logistiques et les circuits de recyclage des marchandises et des emballages sont loin,
en 2007, d'être parvenus à leur maturité. Par exemple, de nombreux déchets qui auraient donné lieu à tri
sélectif seraient malgré tout mixés à l'entrée de certaines centrales thermiques, afin de les alimenter avec des
mélanges de matières combustibles de qualité conforme aux spécifications des fours. Comme il n'est pas
certain que toutes les piles électriques usagées collectées par la distribution soient vraiment traitées par des
structures adaptées.

À défaut d'inciter les consommateurs et les industriels à réduire les quantités d'emballage consommées et de
matière détruites, les « taxes écologiques » ont au moins déjà le pouvoir de contribuer au financement des
interventions de l'État en faveur de l'Écologie.

Selon le type de service apporté

Par catégories des marchandises transportées ou stockées :

 marchandises dangereuses5 ;
 marchandises de forte valeur ou d'intérêt stratégique, dites « sensibles » ;
 marchandises impliquant la mise en œuvre de la chaîne du froid pour la sécurité alimentaire6 ;
 animaux vivants…

Par réglementations applicables aux personnes, aux marchandises, aux biens et aux services pour les
activités réglementées :

 mise sur le marché de produits pharmaceutiques ;


 transport, manipulation, stockage de matières dangereuses ;
 transports, stockage d'aliments ;
 toutes activités de transport…

Par méthodes de gestion rendues obligatoires par la réglementation :

 gestion de la traçabilité et gestion par lots ;


 gestion des dates limites de consommation ,
 gestion des températures de stockage ou de transport.

Selon les moyens mis en œuvre pour l'exploitation

Les systèmes d'exploitation :

 mise en place de systèmes de transitique ;


 suivi des véhicules par satellites ;
 gestion de parcs de matériels, et notamment suivi de la maintenance et des obligations légales (par
exemple : sur chariot élévateur) ;
 préparation de commandes assistées par la voix « À la trace et à la voix »7 ;
 systèmes informatiques de gestion des commandes, des productions, des stocks, des emplacements
de stockage ;
 systèmes électroniques (systèmes anti-vols, reconnaissance par code-barres, identification par
RFID…) ;
 systèmes mécaniques (robotique industrielle, convoyeurs, monte-charge…).

Les outils et les ressources pour exercer l'activité logistique :

 spécialistes en recherche de terrains hébergeant ou pouvant héberger des zones industrielles et/ou
logistiques ;
 spécialistes en immobilier, en construction ou en aménagement d'entrepôts de stockage ou de
messagerie ;
 spécialistes des systèmes informatiques et des modules spécialisés des progiciels de gestion intégrés
ou PGI (Entreprise Resources Planning ou ERP) : « Gestion des entrepôts » - Warehouse
Management Systems / « Gestion du transport » / « Gestion des Achats » / « Gestion des
approvisionnements » ou « Procurement »…
 spécialistes en gestion des ressources humaines, en management ;
 spécialistes en matériel de transport, de l'élément manutention, de stockage, d'emballage…

Lien de la logistique avec le système d'information


La gestion de la chaîne logistique (supply chain management en anglais, SCM) désigne le sous-domaine du
système d'information qui répond aux besoins spécifiques des opérateurs logistiques de gestion de la chaîne
d'approvisionnement, prévision, planification, magasinage, transports, etc.

Pour ce faire, le SCM est évidemment conduit à :

 entretenir à ce titre des liens très forts avec le système d'information de l'entreprise et en particulier
avec le progiciel de gestion intégré (PGI ou ERP en anglais) de l'entreprise s'il existe ;
 mobiliser un grand nombre de données et de flux d'informations associés, convenablement organisés
et mis à disposition par le biais d'un stockage approprié sous forme de BDD ;
 offrir une palette de traitements et d'applications logicielles, en phase avec les besoins particuliers
des opérateurs logistiques (la notion de traçabilité ou de suivi en temps réel fournissant de bons
exemples des exigences à servir).

Les concepts liés à la logistique


Catégories, métiers

 Assemblage,
 Comanufacturing (ou kitting)
 Emballage,
 Suremballage (ou copacking, ou conditionnement à façon)
 Gestion informatique : gestion de la chaîne logistique
 Supply chain management
 Gestion de la qualité
 contrôle de la qualité
 Gestion de la Traçabilité
 Transport,
 Transport Point à point ,
 Groupage-dégroupage,
 Point relais,
 Flux tendu

Certaines universités et institutions académiques forment les étudiants à devenir des logisticiens, proposant
des programmes de licence, master et doctorat. L’une des universités axées principalement sur la logistique
est la Kühne Logistics University à Hambourg, en Allemagne. À but non lucratif, elle est soutenue par la
Fondation Kühne, créée par l’entrepreneur en logistique Klaus-Michael Kühne.

Voies de communication empruntées

 Transports : gestion de flotte


 Transport terrestre
 Transport routier,
 Transport ferroviaire
 Transport aérien, Transport spatial
 Transport maritime
 Transport fluvial
 Transport multimodal

Selon ce qui est transporté

 Transport de marchandises

Transporteur routier de marchandises


Déménageur
Transport vrac
Transport citerne
Transport sous température dirigée :
Froid « positif » (produits réfrigérés)
Froid « négatif » (produits surgelés)

 Transport « messagerie »
 Transport de personnes
 Transport de fonds
 Transport d'objets de correspondance (courriers) : La Poste
 Transport divers

Ressources, moyens et outillages

 Communication, systèmes d'informations et supports d'informations

 code-barres EAN
 reconnaissance vocale
 radio-identification (RFID)
 progiciel de gestion intégré
 Enterprise resources planning
 WMS (Warehouse Management System)
 TMS (Transport Management System)
 WCS (Warehouse Control System)
 SCM (Supply Chain Managment)

 Ressources employées

 Énergie : électricité, gaz, carburant


 Immobilier : entrepôt
 Matériel d'emballage
 Matériel de manutention : transitique
 Matériel de transport : véhicules, navires, wagons, avions
 Matériel de stockage : palettier (ou rack), transstockeur
 Ressources humaines : cercle de qualité, conseil en logistique
 Supports et contenants : palette et carton

Logistique et développement durable


La logistique, et plus particulièrement la gestion de la chaîne logistique, commencent à être étudiées sous
l'angle du développement durable depuis les années 20008.

La recherche de solutions pour une logistique durable passe par des réflexions sur l'organisation des
transports terrestres de marchandises. La France s'est dotée, depuis le début des années 1990, d'un outil de
coordination des incitations pour la recherche et le développement des transports terrestres : le Programme
de recherche et d'innovation des transports terrestres (Predit). Les questions d'énergie et d'environnement
font l'objet du groupe opérationnel 1 de Predit, et les questions de logistique et de transport de marchandises
font l'objet du groupe opérationnel 4 de Predit9.

La logistique et le transport entretiennent des relations étroites avec l'information qui s'avère centrale quand
la logistique s'engage dans une démarche durable. Cela recouvre plusieurs thématiques10 :

 la collecte des données relatives aux transports de marchandises en ville ;


 la promotion du concept de veille logistique durable ;
 l'évaluation carbone de la chaîne logistique et de la relation fournisseurs ;
 l'analyse de l'influence de la qualité des données utilisées dans les systèmes d'information sur la
mutualisation des opérations logistiques de la filière industriels-commerçants-consommateurs ;
 la mesure des émissions de CO2 dans le domaine du transport routier.

Les études de logistique montrent que le coût du dernier km en ville représente plus de 20 % du coût total de
la chaîne11. Il est donc primordial d'optimiser la logistique urbaine (ou logistique de proximité). En France,
le ministère de l'Équipement a lancé en 1993 le programme national « Marchandises en ville » pour explorer
des solutions de logistique urbaine12.

Dans ce cadre, le vélo en général et le vélo cargo en particulier, apparaît de plus en plus comme une solution
adaptée pour le transport de marchandises, en particulier sur le dernier km en ville. À tel point, que l'on parle
même désormais de « vélogistique », néologisme issu de « vélo » et « logistique »13.

Le commerce électronique présente une problématique de logistique spécifique, dans laquelle la livraison
finale tient également une place importante. En France, le Sénat a mis en place en 2004 un groupe de travail
pour étudier la logistique dans le cadre du commerce électronique. En effet, le développement de la vente à
distance, rendu possible par l'Internet, tend à transformer en profondeur les problématiques de logistique14.

En 2013, le programme européen Life + soutient le projet dit "LIFE+ Urbannecy" porté par le Cluster
logistique Rhône-Alpes visant à « démontrer l'efficacité d'une approche intégrée innovante en matière de
logistique urbaine qui implique une coopération entre les acteurs concernés, l’utilisation de nouveaux
programmes de distribution et la mise en œuvre d’un certain nombre de mesures (réglementaires,
organisationnelles, opérationnelles et technologiques). Cela devrait contribuer de manière efficace à la
réduction des effets négatifs sur l’environnement urbain des processus logistiques actuels »15.
Autorité
L'autorité est le pouvoir de commander, d'être obéi1. Elle implique les notions de légitimité, de
commandement et d'obéissance, d'un autre pouvoir qui impose l'autorité. La forme de la légitimité peut
varier selon les circonstances.

L'autorité est considérée comme distincte de l'autoritarisme, qui est un trait de caractère.

La psychologue et philosophe Ariane Bilheran, dans une conférence donnée au Québec en 2009, distingue
l'autorité, qui légitime le pouvoir, de son contraire, le pouvoir injuste, arbitraire, qui s'illustre dans le
harcèlement. Le but de l'autorité bien comprise est de viser l'autonomie du sujet qui la reconnaît. L'autorité
libère lorsque le harcèlement et l'emprise asservissent. En cela, l'autorité n'a rien à voir avec l'autoritarisme
(pouvoir tyrannique) ni avec le laxisme (pouvoir défaillant). L'autorité est l'attribut du pouvoir qui lui
confère un savoir, se porte garante d'un héritage de civilisation2. Ariane Bilheran associe l'autorité à la
temporalité, à la transmission, aux interdits fondateurs et structurants, à l'émergence de la subjectivité
propre, à la possibilité de symboliser et de sublimer dans des œuvres, et à l'humanisation de façon plus
générale.

Notion
Autoritarisme

Au point de vue démarche, l'autoritarisme correspond à l'attitude de la personne qui contraint physiquement
et/ou psychiquement les personnes qu'elle commande.

L'autorité, en ce qu'elle nécessite la légitimité, ne peut lui être associée. Ce distinguo permet de situer
l'autorité au niveau de la valeur ; valeur reconnue par un groupe à une personne, une organisation, une
institution, des mœurs ou des croyances.

Légitimité

L'autorité ne correspond pas à une qualité intrinsèque, mais à une attribution ou une conférence qui légitime
le pouvoir de commander et d'être obéi. En dehors des domaines psychologiques et sociologiques, trois
sources de légitimation de l'autorité sont distingués : les règlements, les structures et les capacités. Ces
sources peuvent se cumuler ou être différenciées.

 L'autorité d'un magistrat tient de la Loi, ainsi que de sa fonction au sein de la justice (règlement,
structure). Mais il peut être reconnu compétent ou non (capacité).
 L'autorité d'un parent tient de sa fonction au sein de la famille (structure). La Loi encadre sa fonction,
mais ne la définit pas (règlement), et il peut être reconnu « bon » ou « mauvais » (capacité).
 Dans un groupe informel, l'autorité d'une personne tient de la reconnaissance de ses attitudes,
connaissances et compétences (capacité) et de rien d'autre (ni règlement, ni structure explicite).

Pouvoir

L'acception du pouvoir qui intéresse la notion d'autorité, relève de la puissance et des moyens, ce qui évoque
l'adage selon lequel « la fin justifie les moyens ».

L'autorité correspond à une valeur reconnue et attribuée ou conférée ; elle diffère donc du pouvoir.
Toutefois, une autorité sans pouvoir ne présente d'intérêt que consultatif (c'est le cas du Parlement européen
face au Conseil Européen, en 2009). Les Nations amérindiennes du Nord établissent nettement ce distinguo,
en n'accordant d'autorité qu'aux personnes reconnues sages (autorité morale) et aux hommes-médecine
(autorité spirituelle), et de pouvoir qu'aux guerriers (pas ou peu d'autorité)3. À l'inverse, les Nations euro-
américaines identifient spontanément autorité et pouvoir, ce qui n'est pas sans poser des problèmes de
compréhension de ces notions, qui occasionnent de nombreuses polémiques en philosophie politique et
définitions en sciences humaines.

Commandement et obéissance

Le commandement est l'action et l'objet de la personne qui commande, c'est-à-dire qui donne un ordre. Dans
le cadre de l'autorité, le commandement est nécessairement légitime ; tant que les personnes reconnaissent le
bien-fondé des ordres reçus (exécutions, planifications, préparations, etc.), elles donnent leur assentiment et
obéissent.

Ce bien-fondé est évalué selon les désirs individuels et les jugements personnels d'ordre public. De leur
concordance, et de l'assentiment ou de la résignation de chacun — tacites ou explicites — le groupe obéit,
conteste ou réattribue l'autorité. Les phénomènes de volonté, d'influence, de charisme, de stratégie politique,
de révolution, de parti, d'idéologie, etc. entrent en compte à mesure que le groupe prend de l'ampleur (de la
famille au Peuple, en passant par le groupe d'amis, l'association, l'entreprise, l'institution ou la Nation).

Là, l'obéissance entre pleinement en compte ; elle correspond à l'attitude de la personne qui se soumet à
l'autorité. Cette soumission peut être vécue comme dégradante ou saine, selon le tempérament de la
personne, selon l'estime qu'elle a pour ce/celui qui fait autorité, et notamment selon la démarche de ce/celui
qui fait autorité (par exemple, s'il ne glisse pas vers l'autoritarisme, s'il est respectueux, etc). Ce sont donc les
différences de tempérament, ainsi que les possibilités et les facultés de juger clairement du bien-fondé des
ordres, qui permettent aux personnes de se situer par rapport à l'autorité (acceptation, résignation, refus,
exécution irréfléchie, etc).

Sources

Elles ont déjà été citées, il s'agit de les clarifier.

Autorité de pouvoir

Elle provient des règlements (lois, etc.). Elle concerne la justice, la police, l'État...

Autorité de fonction

Elle provient des structurations (hiérarchies, etc.). Elle concerne l'entreprise, la famille, l'association...

Autorité de compétence

Elle provient des savoirs, savoir-faire et savoir-être d'une personne ou d'un organisme. Elle peut être
reconnue à quiconque se situe dans une démarche personnelle et positive d'amélioration aux points de vue
attitudes, connaissances et compétences, ainsi qu'à quelque organisme ayant fait preuve de prise en compte
des besoins de la situation et des personnes. On la qualifie parfois « d'autorité naturelle » ou
« charismatique », bien qu'elle tienne des éléments cités.

Aspects
Étymologie

Le mot autorité vient du latin auctoritas. Le Professeur MichelHumbert Humbert4 donne des informations
très intéressantes au sujet de ce dernier mot. Seulement quelques fragments sont retranscrits ci-après.
« La notion d’auctoritas, essentielle en droit privé et en droit public romains, se rattache, par sa racine, au
même groupe que augere (augmenter), augure (celui qui accroît l’autorité d’un acte par l’examen favorable
des oiseaux), augustus (celui qui renforce par son charisme [...celui qui est porteur de l'auctoritas]).
L’auctoritas exprime à son tour l'idée d'augmenter l'efficacité d'un acte juridique ou d'un droit.[...] De même
le Sénat, grâce à son incomparable prestige, a la vertu d'augmenter la portée de tout acte pour lequel il a
donné son accord (son auctoritas).[...] Aucune de ces décisions ne sera prise directement par le Sénat (il n'en
a pas le pouvoir). Mais tous ces projets, enrichis de l’auctoritas du Sénat, sont assurés du succès.[...] Aucun
acte politiquement significatif n'est mis à exécution par un magistrat sans l'accord (et la délibération) du
Sénat. Au point que tout se passe comme si l'inspirateur de la décision était le Sénat, et l'exécutant, le
magistrat. Telle est la force de l’auctoritas : sans elle, pas d'action ; devant elle, pas d'inaction. »

La notion d'autorité vient d'être définie dans un sens plutôt juridique et social. C'est son caractère nécessaire,
voire indispensable à la structure de toute société qui la rend légitime pour le plus grand nombre et qui
permet de l'opposer erga omnes (à condition bien sûr, qu'elle soit régulière juridiquement). On ne doit pas
oublier, non plus, ce qu'on appelle l’autorité naturelle pouvant se dégager d'une personne (et là encore
l'aspect bénéfique est sous-jacent). Sur le plan professionnel, par exemple, on attribuera à une personne une
autorité certaine si elle inspire, de par sa compétence et sa moralité, la confiance qui permettra d'obtenir le
meilleur de chacun et la bonne entente entre les différents individus du groupe.

La philosophe et psychologue Ariane Bilheran, dans son ouvrage L'autorité5, explicite encore davantage
l'étymologie du mot : "« augere » consiste avant tout à poser un acte créateur, fondateur, voire mythique, qui
fait apparaître une chose pour la première fois. Bien évidemment, dans la même racine étymologique,
l’auteur (auctor) est celui qui fonde une parole et s’en donne le garant. Ce terme était particulièrement
employé pour les historiens, l’auteur étant la personne d’où émerge une crédibilité de parole concernant
l’héritage et le passé". Elle définit alors l'autorité selon trois fonctions : la fonction d'engendrement (être à
l'origine de, être l'ascendant de), la fonction de conservation (se porter garant de l'identité, au travers de la
transmission, de la mémoire, du lien passé/présent) et la fonction de différenciation (projet). Elle souligne
que l'autorité s'inscrit dans un rapport au temps, à l'héritage, et qu'elle est vouée, dans son exercice, à
disparaître : contrairement au pouvoir, à la domination, à la contrainte, l'autorité vise l'autonomie
progressive de celui qui en bénéficie. - Toutes choses par quoi Ariane Bilheran s'inscrit dans la lignée de
Hannah Arendt, dans, notamment, la Crise de la culture (certes en nuançant par l'introduction de la
temporalité).

Les autorités

Au pluriel, l'autorité désigne l'ensemble des pouvoirs publics.

Psychologie et psychanalyse

L'autorité est étudiée en psychologie, en ce qu'elle met en jeu des phénomènes de co-influences
interpersonnelles. Les notions d'ascendance et de conférence y sont essentiels, à savoir que :

 l'élément auquel le groupe confère l'autorité (personne, organisme, institution, État, valeur morale,
croyance spirituelle, etc.) exerce une ascendance sur les membres du groupe (fascination,
soumission, obéissance, etc) ;
 la conférence (ou l'attribution) de l'autorité à un élément provient de divers mécanismes
psychologiques, tels que la crainte, le respect, la reconnaissance, la fascination, etc. et a différentes
conséquences, telles que l'obéissance, la paralysie du jugement, le consentement, l'approbation,
l'assentiment, l'exécution, etc.

En psychanalyse, on en revient toujours à cet élément initial, que la personne était d'abord un petit enfant
encadré par ses parents, en quoi le complexe d'Œdipe a un rôle important dans la formation du
comportement inconscient à l'égard de l'autorité, qui ressouviendrait toujours l'autorité parentale.

Précisions psychanalytiques
Elles se cristallisent autour du complexe d'Œdipe. Le petit enfant expérimente une relation fusionnelle avec
sa mère. Dans ce binôme, il revient à la mère d'accorder une place intéressante pour le père — ou du moins
sa « figure », s'il est absent ; ce père même, peut être autre que le géniteur ; dans tous les cas, cependant,
l'intérêt de la place accordée au père est fondamentale pour le développement psychoaffectif et cognitif de
l'enfant6. En effet, c'est le père, ou sa « figure », qui joue un rôle tiers dans le binôme fusionnel mère-enfant.
Ce tiers correspond ni plus ni moins, à la possibilité pour l'enfant (garçon comme fille) de « couper le
cordon » sur un plan symbolique (complexe de castration) : il rencontre un Autre sécurisant, ce qui lui
permet ultérieurement de reconnaître la valeur de la Loi ; car la Loi est tierce par rapport à toute relation
humaine.

Au courant de l'adolescence, le complexe d'Œdipe est plusieurs fois réactivé dans l'esprit du jeune, pour lui
permettre d'intégrer la valeur du tiers (autorité). Dans ce processus, les parents — ou du moins la mère, qui
doit accorder une place à la « figure » paternelle pour l'épanouissement de son enfant — ont un rôle
déterminant. C'est en assurant la place du tiers dans leur discours, que les parents permettent au jeune de
s'épanouir socialement (un père peut apporter ses qualités, connaissances et compétences, ainsi qu'évoquer
des valeurs politiques ou morales, des croyances spirituelles, et tout simplement la législation nationale ; une
mère de même, en plus de légitimer la position du père aux yeux des enfants, etc. tandis qu'un père doit
marquer son amour pour la mère, et la seconder dans ses responsabilités)7.

NB: nombre de polémiques en faveur ou non de l'homoparentalité (sans rapport aucun avec le mariage ou ne
serait-ce que l'union civile) viennent d'interrogations autour de la possibilité, pour un couple homosexuel,
d'assurer l'émancipation et la maturation psychique des jeunes, sans référent primordial de sexe opposé. En
l'absence d'études claires à ce sujet auprès des couples homoparentaux (légaux ou illégaux, selon que le pays
dans lequel ils vivent continue d'interdire ou a déjà légalisé la filiation homoparentale) il est impossible de se
prononcer, et les débats restent idéologiques, non-scientifiques.

Sociologie

Le problème de l'autorité est au centre de la philosophie politique et de la sociologie. Si, depuis Platon, tous
les écrits philosophiques contiennent des discussions de l'autorité, on peut citer comme auteurs
contemporains Max Weber (qui a formulé une célèbre définition de l'autorité charismatique), Alexandre
Kojève qui s'inspirait librement d'Hegel, Carl Schmitt et enfin Giorgio Agamben, qui dénonce l'autorité
comme « mythologème » de la philosophie politique. Et Theodor W. Adorno analysait sur la personnalité
autoritaire anti-démocratique et intolerant à la minorité et la vulnérabilité sociale.

Dans la dynamique des groupes, on distingue deux éléments essentiels : les phénomènes de leadership et les
phénomènes d'autorité. À savoir que le leadership, notion en vogue dans le management contemporain
(années 2000), fait appel à des compétences telles que la séduction et le sens de la mise en scène, de sorte à
provoquer des effets de motivation au sein d'une équipe. Le leadership trouve donc sa place dans le cadre
d'une structure normée aux objectifs prédéfinis. L'autorité, quant à elle, est bien à situer au niveau de sa
valeur reconnue, attribuée et conférée par le groupe, de sorte que des personnes sont reconnues mieux à
même de faire autorité que d'autres. Cela n'est pas sans poser des contradictions, des querelles et des
volontés de pouvoir, notamment lorsque la structure du groupe est informelle. Formelle, la structure garantit
une certaine stabilité à l'autorité, qui n'en est pas moins sujette à contestation, si elle est jugée contre-
productive pour le groupe. En effet, toute société humaine ne saurait s'organiser qu'autour de l'autorité
(personnelle, morale, politique ou spirituelle), car l'autorité est une valeur-référence et une valeur-repère
pour la communauté.

Les buts de l'autorité sont la sauvegarde du groupe et la conduite du groupe vers des objectifs collectifs
consentis.

Religion

Christianisme
Selon un des dix commandements, « honore ton père et ta mère (Deutéronome 5.16 ; Marc 7.8) ». Dieu a
voulu qu’après lui, nous honorions nos parents et ceux qu’il a, pour notre bien, revêtus d’autorité. « Le bien
humain et chrétien de la personne et de la société est étroitement lié à la bonne santé de la communauté
conjugale et familiale (GS 47, § 1) »8.

Les enfants doivent à leurs parents respect, gratitude, juste obéissance et aide. Les parents sont les premiers
responsables de l’éducation de leurs enfants à la foi, à la prière et à toutes les vertus ; ils ont le devoir de
pourvoir dans toute la mesure du possible aux besoins physiques et spirituels de leurs enfants. Les parents
doivent respecter et favoriser la vocation de leurs enfants ; ils se rappelleront et enseigneront que le premier
appel du chrétien, c’est de suivre Jésus. Le respect filial favorise l’harmonie de toute la vie familiale8. Le
devoir des citoyens est de travailler avec les pouvoirs civils à l’édification de la société dans un esprit de
vérité, de justice, de solidarité et de liberté. L’autorité publique est tenue de respecter les droits
fondamentaux de la personne humaine et les conditions d’exercice de sa liberté. Le citoyen est obligé en
conscience de ne pas suivre les prescriptions des autorités civiles quand ces préceptes sont contraires aux
exigences de l’ordre moral. « Il faut obéir à Dieu plutôt qu’aux hommes (Actes des apôtres 5.29)». Toute
société réfère ses jugements et sa conduite à une vision de l’homme et de sa destinée ; hors des lumières de
l’Evangile sur Dieu et sur l’homme, les sociétés deviennent aisément totalitaires8.

Crise et mépris

Emblématiques de ces expressions, les émeutes urbaines, les difficultés de l'éducation (parentale, nationale,
populaire, etc), les contestations politiques, internationales et/ou idéologiques (le socialisme au XIXe siècle,
le communisme, les altermondialismes, les réseaux alternatifs de solidarité, etc.) signalent que l'autorité est
actuellement galvaudée. Il faut situer ces éléments au niveau des crises de la légitimité à plusieurs niveaux
(démocratiques, marchands, entrepreneuriaux, professoraux, parentaux, etc.) qui affaiblissent le droit de
pouvoir commander, d'être obéi. Cette crise de la légitimité place donc l'ensemble des problèmes d'autorité
au niveau de la reconnaissance de sa valeur par le groupe.

L'année 19689 est charnière au plan de l'autorité et, de toute évidence, les historiens ne sont pas au clair avec
ces événements10. À savoir qu'elle fait suite à la guerre d'Algérie et d'Indochine, qu'elle réagit à la guerre du
Viêt Nam et au gaullisme (avec lesquels les historiens ne sont pas au clair non plus), ainsi qu'au
fonctionnement magistral et autoritaire de l'université d'alors.

Trois éléments essentiels orientent les débats publics de Mai :

 la question des rapports d'autorité (contestation des rapports de force) ;


 la question des tabous sociaux et moraux (conformisme) ;
 la question des tabous en matière de sexualité (silences, questions de la contraception nouvelle et de
l'IVG).

Ces débats et ces contestations s'adressent clairement à l'ensemble de la société, et ne sont pas marginaux.
Néanmoins, des incompréhensions, des surenchères ou des dérives marginales très visibles, placent Mai 68
dans le sillage de la Beat Generation et des hippies, et donc dans les problématiques de l'abus, de la violence
et de l'hédonisme. Ainsi, Mai 68 est aussi connoté de pornographie et de consumérisme-roi, tandis
qu'initialement la question des rapports d'autorité seule est au cœur des débats, et donc la question des
rapports des Hommes en société.

Polémique entre secteur privé et public

Cette polémique touche essentiellement à la conférence de l'autorité au secteur privé, par rapport au secteur
public qui se voit accorder toujours moins de prérogatives, au sein des tendances néolibérales, ou libérales-
capitalistes. Le débat fait notamment rage en France, où près de 22 % de la population est fonctionnaire : les
politiques de rigueur y apparaissent réellement comme la « casse » d'un secteur public dont la dimension est
socioculturelle depuis la IIIe République. En France, donc, le secteur public appartient aussi au domaine des
valeurs.
Toutefois, la polémique éclate dans plusieurs régions du monde (Amérique Latine, Europe continentale,
Asie du Sud), où la privatisation croissante des activités interpelle les populations sur la capacité des acteurs
privés à assurer le bien public. La question de l'autorité (légitimité à décider pour le groupe) est bien au cœur
de cette problématique, puisqu'il s'agit d'évaluer la pertinence de l'action à but lucratif, dans un domaine
concernant la cohésion et la cohérence des institutions, des sociétés, des nations et des peuples.
Réglementation
La réglementation (ou règlementation selon les rectifications orthographiques de 1990) est, au sens large,
un ensemble d'indications, de lois, de prescriptions, de règles et règlements, et autres textes juridiques
régissant une activité sociale.

Il peut aussi simplement s'agir de l'ensemble des mesures légales et réglementaires qui régissent une
question.

La réglementation est rédigée par les administrations compétentes ou les personnes mandatées.

But
La réglementation étant constituée de textes divers, elle peut couvrir divers buts.

Un but de la réglementation peut-être de protéger le consommateur du marchand, l'employé de l'employeur,


le prétendant du leader, le faible du fort.

En particulier, la réglementation résultant de la mise en œuvre d'une doctrine de déréglementation conduit à


protéger le prétendant de la position dominante du leader, tout en maitrisant l'arrivée de nouveaux arrivants.

Un but d'une réglementation peut aussi être de maintenir le domaine public, en clarifiant la séparation du
public et du privé, notamment dans la Grèce Antique 1.

Histoire
Dans la Grèce antique la réglementation de l'urbanisme concernait notamment l'alignement et les
empiètements privatifs sur le domaine public, la mitoyenneté, l'alimentation en eau, l'entretien de la voirie,
la propreté, et l'expropriation1.

Le terme de réglementation apparaît en 1789 dans une critique de l'histoire de l'Europe de 1610 à 1789, au
sujet de la protection de l'industrie2. Le terme est alors employé sous un ton critique parlant d'une
réglementation minutieuse et d'un protection tracassière, du système protecteur et de la réglementation
infinie.

Le terme de regulation semble exister en Californie dès 16893.

Le terme de « regulation » existe à Londres dès 17044

Terminologie
Aux États-Unis, la loi est un élément de la réglementation, mais la loi fédérale est scindée en deux codes
dont l'un est dédié à la réglementation par des autorités indépendantes (Code des règlements fédéraux).

En France, la loi est un élément de la réglementation, mais la réglementation ne doit pas être confondue avec
le seul texte réglementaire. Ainsi, les différents codes juridiques regroupent des articles législatifs et des
articles réglementaires5.

Différence avec « Régulation »


En français, règlementation et régulation ne sont pas synonymes. Règlementer veut dire assujettir une
activité à des règlements. Réguler veut dire chercher à donner une certaine stabilité à un système. La
règlementation peut avoir pour but la régulation, mais peut aussi avoir de tous autres buts. Inversement, la
régulation peut se faire à travers des règlements, mais peut aussi se faire d'autres façons. Par exemple, les
guides gastronomiques assurent une certaine régulation du secteur de la restauration, en établissant de facto
des standards de qualité et en sanctionnant la conformité à ces standards.

Différence avec « regulation » en anglais

Le terme anglais «  regulation  » (= réglementation) a un sens différent : en anglais le terme « regulation »


est utilisé pour nommer un règlement administratif qui clarifie les droits et les responsabilités. Il se distingue
à la fois de la législation issue d'un corps législatif élu, et de la norme jurisprudentielle. Ces règlements
peuvent être d'origine diverses: textes juridiques ou législatifs issus d'une autorité gouvernementale, auto-
réglementation d'une industrie à travers une association commerciale, normes sociales, «  co-regulation », ou
« market regulation ». On peut considérer que ce règlement peut imposer des sanctions, tel qu'une amende,
selon les attributions conférées par la loi locale. Il s'agit alors d'une action administrative qui met en œuvre
une loi déléguant les modalités pratiques à des aspects réglementaires.

Ces règlements imposés par des États veulent produire, empêcher, accélérer ou ralentir des évènements. Il
s'agit à ce titre d'éléments politiques. Ce type d'artefact est communément utilisé pour contrôler les entrées
de nouveaux venus sur un marché, les prix, « wages », les approbations de développements, les effets
polluants, le travail, les règles de production de certains biens, les forces militaires et les services. Le terme
francisé régulation va donc au-delà de la simple réglementation, même lorsqu'il est utilisé en français (voir
Régulation (économie)).

Économie
Article connexe : Libre échange.

Pour certains économistes non-orthodoxes, les réglementations sur la fabrication des produits ou celles
cherchant à garantir la concurrence sont une entrave à la circulation des marchandises et à l'entrée dans le
marché de nouveaux acteurs. Ainsi, selon Israel Kirzner en 1978 : « L'orthodoxie aujourd'hui chancelante
sur laquelle l'approche interventionniste reposait jusqu'à une période très récente reflète certaines
incompréhensions quant au fonctionnement des marchés ; et ce sont des malentendus qui présentent une
similitude remarquable avec ceux qu'avait identifiés Mises et, après lui, Hayek. Ces erreurs, dont les racines
sont profondes, semblent responsables de le l'étonnement et du désarroi ressentis en comprenant que
l'intervention de l'Etat pourrait bien être elle-même le problème, et non la solution qu'elle avait si
évidemment paru constituer6. »
Marketing
Une réorganisation et une clarification du contenu paraissent nécessaires. Discutez des points à améliorer en
page de discussion ou précisez les sections à recycler en utilisant {{section à recycler}}.

Le marketing — ou esprit marketing ou concept de marketing ou optique marketing ou bien encore


orientation client — est une culture organisationnelle (d’entreprise, d’association, etc.), un état d’esprit, qui
cherche à privilégier les attentes et les besoins des parties prenantes de cette organisation (marchande ou
non-marchande) par rapport aux attentes et besoins des membres de cette-ci.

Il ne faut pas confondre le marketing, ainsi entendu, avec le marketing management, souvent appelé lui
aussi, par commodité, « marketing » et qui est, lui, la gestion de l’ensemble complexe des méthodologies
permettant à l’organisation d’être et de rester compétitive dans un univers concurrentiel dynamique.

Cette culture organisationnelle présente deux dimensions fondamentales : les clients (au sens large) et
l’entreprise, dimensions qu’elle doit chercher à prendre en compte simultanément de façon équilibrée1.

Marketing vs marketing management


Le marketing est un état d'esprit, une culture générale de l'organisation, une façon de penser, du ressort, in
fine, de la Gestion des ressources humaines.

Le marketing management est un ensemble de méthodologies, de façons de faire spécifiques à chacun des
services ou produits offerts par l'organisation.

Article détaillé : Marketing management.

Les différentes définitions du marketing

Philip Kotler

Christian Grönroos en 2011

Le marketing a donné lieu depuis sa création à de très nombreuses définitions dont certaines ont même
évolué considérablement au fil de temps.

Il faut distinguer les définitions proposées par les grands auteurs tels que : Christian Grönroos, Philip Kotler
et Delphine Manceau (Marketing Management), Jacques Lendrevie et Jean Lévy (Mercator. Tout le
marketing à l'ère numérique.), Theodore Levitt, etc. de celles élaborées par les grandes associations, anglo-
saxonnes : l'American Marketing Association, Chartered Institute of Marketing, etc., et francophones :
l'Académie des Sciences Commerciales, l'Adetem, l'Association Française du Marketing, etc.
Les définitions des grands auteurs

Éric Vernette

Éric Vernette, ancien président de l'Association française du marketing et professeur de marketing à l'IAE de
Toulouse, après avoir recensé cinq possibilités de définition du marketing , en présente une qui cherche à en
faire la synthèse :

 Définition no 1. Le marketing […] est la mise en œuvre de toutes les techniques de l'entreprise qui
dirigent le flux de biens et services vers le consommateur.
 Définition no 2. Le marketing est un état d'esprit, largement fondé sur l'intuition et l'imagination, qui
mobilise tous les moyens possibles pour communiquer avec le consommateur.
 Définition no 3. Le marketing, c'est [le fait de] détecter les besoins des consommateurs pour réaliser
le produit adéquat, ce qui facilite la vente.
 Définition no 4. Le marketing, c'est [le fait de] conquérir des marchés rentables, en utilisant des
méthodes scientifiques.
 Définition no 5. Le marketing, c’est [le fait de] créer une relation, durable avec le consommateur en
lui offrant un lien, et pas seulement un bien.
 Définition no 6. Définition synthétique (courte). Le marketing est la conquête méthodique et
permanente d'un marché rentable, réalisée par un produit ou un service capable de satisfaire
durablement les consommateurs visés 2.

Jacques Lendrevie et Julien Lévy

Pour Jacques Lendrevie et Julien Lévy, co-auteurs du Mercator, « Le marketing est un [des] moyen[s]
d'action qu'utilisent les organisations pour influencer en leur faveur le comportement des publics dont elles
dépendent. »

Le marketing est, pour eux, et plus précisément, « l'effort d'adaptation des organisations à des marchés
concurrentiels pour influencer en leur faveur le comportement des publics dont elles dépendent, par une
offre dont la valeur perçue est durablement supérieure à celles des concurrents » 3.

Les définitions des grandes associations

L'American Marketing Association

L'American Marketing Association définit — dans une traduction française 4 — le marketing comme
recouvrant « l’activité, l’ensemble des institutions et les processus visant à créer, communiquer, délivrer et
échanger des offres qui ont de la valeur pour les clients, les consommateurs, les partenaires et la société au
sens large ».

Cette définition met en exergue la création de valeur comme centrale dans la démarche marketing, la valeur
du point de vue des clients étant  définie comme « la perception de ce qu’ils obtiennent (bénéfices perçus:
produit principal, performances, qualité, services associés etc.) pour ce qu’ils donnent (coûts perçus : prix,
efforts, temps, coût de changement, risque perçu) »5

L'Académie des Sciences Commerciales

L'Académie des Sciences Commerciales6 définit le marketing comme « un système de pensée »7 en le
définissant comme : « État d'esprit d'une entreprise, ou d'un organisme, ou d'une personne, qui s'impose de
concevoir sa politique, sa planification, ses activités, ses décisions, dans la voie du progrès, en tenant compte
impérativement des attentes et des besoins des destinataires de ses biens ou de ses services».
Elle adopte par ailleurs une orientation plus managériale autour de la démarche marketing et de ses outils
avec les deux autres définitions qu’elle propose :

 Le marketing est une démarche qui anime complètement une entreprise, oriente ses politiques et ses
planifications, ses activités, ses décisions afin de répondre, d'une part, aux attentes et aux besoins que
l'entreprise aura identifiés, prévus, suscités ou même créés, des destinataires finals de ses biens ou de
ses services vendus, et, d'autre part, à l'intérêt des échelons intermédiaires éventuels de la distribution
  Le marketing est un ensemble des méthodes, des techniques permettant rentablement à une
entreprise de conquérir ou de créer des marchés, de les conserver, de les développer en concevant et
en adaptant en permanence, en promouvant des biens ou des services vendus qui satisfassent les
besoins et les attentes identifiés, stimulés, ou à créer des destinataires finals de ces biens ou de ces
services vendus, et les intérêts des échelons intermédiaires éventuels de la distribution ; et cela en
tenant compte de l'environnement et du potentiel de l’entreprise.

L'Adetem

Pour l'Adetem le marketing est une [des] fonction[s] de l'entreprise dont le rôle est d'assurer le futur de celle-
ci.

L’Association Française du Marketing

L'Association Française du Marketing8 distingue le marketing du marketing management.

Le marketing est « une vision spécifique des échanges qui doivent être équitables et impliquer la création de
valeur pour chacune des parties prenantes (individus, organisations, institutions) ».

Le marketing management est le regroupement des «  pratiques marketing mises en œuvre par les
organisations, de façon coordonnée, pour atteindre leurs objectifs », ces pratiques comprenant :

 L’étude des différents publics, de leurs besoins, usages, désirs et aspirations,


 La création d’offres de produits, de services et d’expériences
 La diffusion de ces offres dans une perspective marchande ou non marchande ».

« Ceci implique:

 l’établissement de relations équitables avec leurs différents partenaires, dans le respect des
réglementations,
 la prise en compte des conséquences futures de ces pratiques sur l’ensemble des parties prenantes et
sur la société au sens large ».

L'Éducation nationale

Pour l’Éducation nationale, le marketing est : « l’ensemble des techniques et des actions grâce auxquelles
une entreprise développe la vente de ses produits et de ses services en adaptant, le cas échéant, leur
production et leur commercialisation aux besoins du consommateur »

Terminologie
Le terme mercatique gagne du terrain à partir des années 80.

Années 1980/90 : fiches de fonctions et de poste en mercatique par l'APEC, l'Association Pour l'Emploi des
Cadres.
2003 : dénomination de la fonction mercatique et de ses praticiens, les mercaticiens, par l'APFA,
l'Association pour le Français des Affaires.

L'éducation nationale reçoit une injonction du Ministère de l’Industrie et des Finance en 2011 pour utiliser
ce terme[réf. souhaitée].

Histoire et évolution du concept


L'émergence d'une discipline

Dans la foulée du New Deal — en 1937 – nait « l' American marketing association» (AMA) et le «Journal
of marketing». Dans un contexte marqué par les travaux de Keynes qui pointe le rôle de la « demande
effective » dans le dynamisme de l'activité économique générale, le marketing gagne ses lettres de noblesse
en préconisant de placer le consommateur au centre des affaires. Entre 1944 et 1957, un auteur comme
l'économiste italien Giancarlo Pallavicini œuvre dans ce sens.

Neil Borden et Jerome McCarthy

En Amérique, ce sont les travaux de pionniers comme Neil Borden, Jerome McCarthy ou Wroe
Alderson (en) qui contribuent à faire du marketing une discipline à part entière :

La notion de marketing mix notamment, idée de Neil Borden, mise en application par Jerome McCarthy,
intègre le marketing dans la sphère managériale9 et lui ouvre un large champ d'évolution complémentaire
avec le concept de segmentation débouchant sur l'optimisation des « couples produits-marchés »

Theodore Levitt

- L'article de Theodore Levitt - intitulé Marketing myopia (en) reçoit le Mc Kinsey Award en 1960
pour avoir introduit la question fondamentale : « Dans quelle activité êtes-vous vraiment ? » . La
question montre le lien du questionnement marketing avec la démarche stratégique et introduit l'idée
essentielle selon laquelle les activités iraient mieux si elles se concentraient sur la rencontre des
besoins du consommateur plutôt que sur la vente d'un produit.

Tendances historiques

Depuis les années soixante10, les réflexions et propositions n'ont pas manqué qui affectent le contenu ou la
diversité de la discipline. Certains continuent à préconiser une approche unifiée du marketing quels qu'en
soient les domaines d'application11 et d'autres auteurs tiennent fermement à la spécificité des certains
domaines d'application comme le « Marketing industriel12 ou le «Marketing des services»13.» D'autres écoles
de pensée entendent compléter la pratique ou renouveler la réflexion comme l'École du consumer research
(représentée par Morris B. Holbrook, notamment), l'École de marketing postmoderne (en) (Stephen Brown),
l'École de la modélisation (DeSarbo).

1970. Le marketing gagne la France

1969-1973. Le mot et la chose s'implantent en France. 1969. Innovation et marketing de Levitt. 1969.
Fondation de l'Institut National du Marketing par Pierre Doré. 1971 : parution de Marketing management de
Philip Kotler. 1973 : Parution des Concepts de base du marketing de Pierre Doré avec une définition de la
pratique du marketing.

Les révolutions des marketings depuis 1960


1960. Le Produit, premier des 4 « P ».

2006. L'Apple store de la 5e avenue à New York. Une stratégie de réenchantement.

Le paradigme14 du marketing utilisé aujourd’hui le plus couramment date environ de la fin des années
cinquante. Il avait été conçu pour procurer un cadre d’analyse simple de la commercialisation des produits
de grande consommation alimentaire15 en supermarché16 dans la région de Minneapolis. Ce cadre d’analyse,
à l’origine plan chercheur doctorant de l’Université du Minnesota, se résumait à : Produit, Prix, Place,
Promotion, 4 « P » mnémotechniques dont la prégnance va assurer la pérennité du paradigme envers et
contre toutes les évidences17 et l’invention des études qualitatives de marché donnent naissance à un
deuxième paradigme: celui du Concept marketing, la primauté de la connaissance des besoins du marché.

Depuis 1960, l’environnement a changé du tout au tout : invention de l’hypermarché, Wal-Mart aux États-
Unis, Carrefour en France ; invention de la conteneurisation qui va permettre la mondialisation; invention du
code-barres; invention du paiement par carte bancaire ; invention d’internet; invention du numérique ;
intervention de nouveaux entrants (au sens de Michael Porter) : Chine, Corée du Sud, Singapour, etc. ;
invention du téléphone intelligent ; invention des réseaux sociaux ; le marketing personnalisé rendu possible
par les Big Data ; etc. et fait que le paradigme mnémotechnique de Jerome McCarthy18 n’est plus adapté et
est en passe, après avoir été remplacé par le marketing relationnel, puis par le marketing serviciel d'être
supplanté par un business-model, le SSP.

Christian Grönroos, professeur de marketing relationnel à la Hanken School d'Helsinki va jusqu’à dire que
le concept même de marketing est une erreur épistémologique19.

La vraie nature du marketing


Le marketing n'est ni du commerce, ni de la communication publicitaire, ni de la vente, ni de la promotion
commerciale. Comme Raymond Aron l'a fait remarquer dans son allocution introductrice au Forum sur le
marketing de combat organisé en 1975 à Paris par les Anciens de l'Institut de Contrôle de Gestion, sur un
marché donné « le marketing est un duel à plusieurs.».

Une méthodologie stratégique concurrentielle créative

Le marketing management est une méthodologie20 qui tire son efficacité — évaluée en parts de marché21—
de la primauté donnée à la prise en compte préalable des attentes des clients et des partenaires stratégiques et
commerciaux, et, de façon créative, des stratégies potentielles des concurrents, à la gestion de l'architecture
de marque sous lequel est présentée l'offre et au développement du capital marque, de la maîtrise de la
communication publicitaire et des techniques relationnelles de suivi de la promesse faite par celle-ci22.

L'application de cette méthodologie est du ressort de la direction générale et plus particulièrement de la


direction marketing23 et des chefs de produit.
Marketing stratégique et marketing opérationnel

Cette méthodologie peut être scindée en deux grandes parties24: d’une part, le choix des marchés-cibles :
l’automobile, l’œuf frais, etc., et, d’autre part, l’imagination-élaboration des plans opérationnels (markéting
mix) d’attaque des marchés choisis.

La première partie se confond avec l'analyse stratégique de l'entreprise25 et sera appelée marketing
stratégique, du ressort du directeur de la stratégie. Ses outils sont l’analyse Pestel, l’analyse SWOT,
l’analyse de portefeuille, etc.

La seconde sera appelée marketing opérationnel, du ressort des chefs de produit ou de marque, ou des
directeurs de magasin ou de rayon dans le secteur de la distribution. Ses outils sont: le marketing-mix ou le
traffic-mix26.

L'esprit marketing

Tony Hsieh, P-DG de Zappos, un bon exemple de culture organisationnelle marketing formalisée dans un
petit livre remis à chaque employé.

L'esprit marketing est l'application généralisée et l'intériorisation — jusqu'à en devenir une culture réflexe
— de cette méthodologie au sein de toute l'entreprise au niveau opérationnel ou terrain, qu'elle soit de
distribution, de prestation de service, de service ou de production ou une organisation non-marchande. Ceci
est du ressort de la direction générale et des ressources humaines.

La « Marketing Matrix » de Levitt (1969)

Inventée par Theodore Levitt pour évaluer l'esprit marketing[réf. nécessaire]. Très semblable à la grille du
management de Blake et Mouton, de 1,1 à 9,9. Avoir l'esprit marketing, ce n'est pas seulement être orienté
client. C'est être orienté client et entreprise également27.

Le marketing management

Usain Bolt expose ses chaussure en or, confectionnées par Puma, aux caméras du monde après sa victoire
aux Jeux olympiques d'été de 2008 alors que l'équipementier officiel des JO est Adidas. Un exemple
d'ambush marketing
Encadré par cette méthodologie et imprégné de cet esprit, le marketing se déploie ou s'implémente dans
deux dimensions : le style de management et le domaine d'application :

Au plan du style de management, en fonction du degré d'agressivité de la concurrence, d'un


marketing de conquête28 — ce sont le Marketing warfare (en) de Ries et Trout, le marketing de
combat, la guérilla marketing, l'ambush marketing, etc — à un marketing humaniste — ce sont le
marketing relationnel et le marketing 3.029,30 — en passant par des conceptions fédératrices : la
coopétition, le marketing holistique31.
Au plan du domaine d'application, des œufs frais aux avions gros porteurs, des produits d'entretien
(les savons et lessives) aux beaux projets humanitaires (Les Restos du cœur, etc.) en passant par la
culture et le mécénat.

Le marketing est pluriel. En effet, la méthodologie peut s'appliquer partiellement et au coup par coup, à tout
autre chose qu'à ce pourquoi elle avait été conçue à l'origine, la commercialisation des produits alimentaires
et produits d'entretien en grande surface. On a donc : un marketing B-to-B, un marketing des services, un
marketing du luxe, un marketing digital, un marketing immobilier, un marketing international, un cause
marketing, etc.

Le brand management

Le logo de Renault, le losange, et son logotype ou monogramme, les 7 lettres de son nom composées d'un
seul tenant.

Muji. Pas de marque, mais une enseigne.

L'efficacité du marketing est subordonnée à l'existence de la marque, définie par l'American Marketing
Association comme : « un nom, un terme, un signe, un symbole, un dessin ou toute combinaison de ces
éléments servant à identifier les bien ou services et à les différencier des concurrents »[1] [archive] . La
marque apporte une valeur financière et constitue un actif immatériel. Elle apporte une valeur forte au
consommateur (facilitation de l'acte d'achat, assurance dans son achat, valorisation...) et permet à l'entreprise
notamment des marges accrues, une plu forte efficacité publicitaire ou encore une meilleure valorisation sur
les marchés financiers32. La prise de conscience récente de cette évidence a conduit à ajouter le naming et le
branding à la panoplie du marketeur.

Les métiers du marketing


Il existe de très nombreux métiers dans le marketing. Ils peuvent faire appel à des compétences très
diverses33 : vision globale, réactivité, analyse et force de proposition (chef de produits), à une maitrise des
chiffres (Chargé(e) d'études marketing quantitatif), à une forte créativité (métiers de la publicité, etc.). Les
métiers du marketing digital (communauty manager, chargé de communication web, chargé(e) de
Référencement, Rédacteur web, etc.) sont très demandés34.
Directeur du marketing

Article détaillé : directeur marketing.

Chef de produit

Article détaillé : chef de produit.

Les enjeux du marketing


D'après J. Lendrevie et J. Lévy35 sa mise en œuvre doit être pensée et organisée autour des idées-forces
suivantes :

1. Le marketing est un moyen à la disposition des organisations de toute nature


2. Le marketing est un effort constant d'adaptation à la dynamique des attentes des clients et aux
stratégies des concurrents et l'évolution de leur environnement. Cet effort s'inscrit dans la durée et
dans des univers concurrentiels qui offrent une totale liberté de choix aux clients
3. Le marketing a pour rôle de réaliser une création de valeur supérieure à celle des concurrents.
4. Le marketing met en œuvre des stratégies de communication et accorde une place importante à la
notion de marque, à sa création, naming et à sa gestion branding.
5. La finalité du marketing est la conquête de parts de marché (sur les marchés existants) et la création
de nouveaux marchés.

La démarche marketing
La démarche marketing est une attitude de recherche, d'analyse, d'écoute du marché et de son environnement
censée permettre :

1. du côté de la demande, une meilleure écoute et une plus grande satisfaction du consommateur final
ou du consommateur intermédiaire.
2. du côté de l'offre, un meilleur pilotage de la conception, de la mise sur le marché, de la valeur
ajoutée, du cycle de vie et de la rentabilité des produits et services offerts par une organisation.

Dans les grandes lignes, la démarche applicable peut se résumer en trois grandes étapes :

1. L'identification, le repérage et l'analyse des consommateurs concernés avec l'appui le cas échéant
d'étude de marché de nature quantitative et/ou qualitatives.
2. Il est ensuite d'usage de segmenter la réflexion par le repérage des différents types de clientèles à la
lumière des données opérationnelles ou de la stratégie marketing.
3. Selon la liste des composants du mix-marketing choisie –(voir l'article mix-marketing où plusieurs
façons d'envisager les constituants du marketing-mix sont présentées)-, il s'agit d'arrêter les choix et
décisions pertinentes.

À titre d'exemple, le mix-marketing représenté sous la forme mnémotechnique de la "règle dite des 4P36 liste
les dispositions à prendre selon 4 dimensions :

1. Produit (en anglais  : product) : ou la modélisation de l'offre (produit, service ou idée) afin qu'elle
réponde aux attitudes et motivations des consommateurs ou usagers.
2. Promotion / Publicité (communication) : ou les méthodes pour rendre publics l'existence, l'intérêt et
la disponibilité de l'offre. Elle sert aussi à accroître le désir des consommateurs envers le
produit/service.
3. Prix (en anglais : price) : ou les conditions d'obtention (leurs niveaux par rapport aux autres offres).
4. Place / Distribution : ou les modèles, moyens et infrastructures de mise à disposition de l'offre.
Les études de marché

Les études de marché permettent de recueillir des informations afin de mieux connaître la cible convoitée et
l'environnement (juridique, politique, social, règlementaire, économique, culturel...) de cette cible. Ceci
permettra d'adapter les méthodes de marketing opérationnel et stratégique en conséquence.

Article détaillé : étude de marché.

La stratégie marketing

Article détaillé : stratégie marketing.

Cette stratégie vise à mettre l'entreprise concernée en adéquation avec les exigences implicites ou explicites
du marché sur lequel elle agit. Les bases de cette stratégie sont de découvrir et surtout d'influencer les
besoins des consommateurs potentiels et de définir les produits et services. La politique de communication,
la publicité, la promotion et l'organisation de la vente des produits n'est quant à elle que la partie la plus
visible du marketing auprès du grand public.

La stratégie marketing est la démarche d’analyse et de réflexion pour réaliser l’adéquation offre-demande
qui s'inscrit dans la stratégie globale de l'entreprise. Il s'agit d'un travail de long terme structuré
essentiellement autour du marketing opérationnel et pas autour des activités (DAS). C'est une stratégie
tournée délibérément plus vers les économies d'échelles (la vente) et moins vers les synergies
organisationnelles du fait de la segmentation des leviers (les 4P) de l'analyse.

Le marketing opérationnel est la concrétisation sur le terrain des décisions d'orientation prises au niveau de
la stratégie marketing et aboutit à l'élaboration d'un plan marketing. Le service marketing d'une société devra
prendre en compte un maximum de paramètres sur le marché du produit ou du service à vendre, ceci afin de
mettre en place une stratégie commerciale pour l'entreprise.

Comme au sein des organisations, la prise de décision en marketing ne se fait pas toujours de manière
descendante : de la stratégie marketing vers le marketing opérationnel. Il est possible d'imaginer que des
décisions critiques puissent être prises directement par des agents dits opérationnels, ou que la stratégie
s'établisse après avoir reçu les résultats d'opérations.

Les décisions de stratégie marketing peuvent aussi se prendre à la suite d'études quantitatives ou d'études
qualitatives.

Les orientations marketing dans l'entreprise Les orientations marketing dans l'entreprise se décompose
en trois phaases37:

 L'audit Marketing qui est l'analyse de la situation actuelle


 Les études de marchés qui consistent en la recherche d'informations sur le marché.
 Le marketing mix qui est la phase de persuasion du potentiel acheteur.

Le marketing mix revisité

Article détaillé : Mix-marketing.

Le marketing opérationnel est la concrétisation sur le terrain des décisions d'orientation prises au niveau du
marketing stratégique (même si, en pratique, toutes les décisions ne sont pas toujours prises à ce niveau).
C'est une politique à court terme, qui doit être constamment adaptée aux variations de la situation du
marché. Le marketing opérationnel est le stade intermédiaire entre l'action de terrain, qui doit s'adapter en
permanence, et la stratégie marketing, qui concerne les orientations générales, il conduit à l'établissement
d'un plan d'action, appelé plan marketing, pour une période donnée (un an par exemple). Ce plan doit être
cohérent avec les plans concernant les autres domaines d'actions de l'entreprise (recherche et
développement, production, finance, ressources humaines, système informatique, etc.) et la politique
générale de l'entreprise.

Le marketing opérationnel par souci de simplification est segmenté en quatre principaux domaines appelés
marketing mix. Cette segmentation est arbitraire et a pour simple objectif de simplifier la prise de décision
au niveau marketing. Chaque partie du marketing mix n'est pas définie de manière stricte et peut donc a
priori couvrir tous les domaines concernant le marketing.

Le « Modèle des 4P », désigné usuellement comme le « marketing mix » (plan de marketing opérationnel)
avait été introduit en 1960 par Edmund Jerome McCarty comme plan de thèse pour traiter de la
commercialisation des boites de conserve de maïs Green Giant en supermarché

1. Le produit (product)
2. Le prix (price)
3. La distribution (place)
4. La communication (promotion)

Certains proposent parfois d'ajouter d'autres éléments :

P pour pouvoirs publics lorsque la législation et la réglementation sont importantes.


P pour opinion Publique (Public opinion) si le poids de l'image au sein de la société civile est
importante à gérer. Par exemple : "Assureurs : Voleurs"
P pour packaging (« emballage ») lorsque celui-ci est considéré comme une composante majeure du
produit.
P pour personnel, dans la mesure où la mobilisation des ressources humaines est souvent un facteur
clé de succès, entre autres, au niveau du service après-vente.
M pour marque.

Aujourd'hui, on voit également apparaître le « Modèle des 5C » soit une autre segmentation proposée afin de
réussir l'analyse la plus exhaustive possible :

1. La société (company) : Gamme de produits - Image au sein du marché - la Technologie - la culture


de l’entreprise - les objectifs.
2. Les clients (customers) : la taille du marché et sa croissance – segments du marché - les sources
d'information sur le client - facteurs saisonniers - processus d’achat (par impulsion ou par prudence).
3. Les concurrents (competitors) : direct, indirect - parts de marché – les forces et les faiblesses des
concurrents.
4. Les collaborateurs (collaborators) : distributeurs - fournisseurs - détaillants, etc.
5. Le contexte (context) : facteurs de macro environnement.

xPérience

ÉProuvée par le client

Article détaillé : Marketing expérientiel.

Produit (product mix)

Article détaillé : politique de produit.

Le concept de produit ne se limite pas au produit lui-même :

il doit tenir compte : du cycle de vie du produit générique ou de l'activité, de la gamme de produit
dans laquelle il s'insère, de l'image de marque ou de l'historique de l'entreprise ;
il doit définir clairement les caractéristiques, les fonctionnalités, les services associés constituants de
l'offre faite au client ;
il doit -surtout préciser si le produit est destiné à être distribué en libre-service- optimiser
l'emballage, le conditionnement, le design, etc. ;
il tire parti des normes, des Label de qualité pertinents, pour rester dans le cadre du développement
durable un objet valide « du berceau jusqu'à la tombe ».

Prix

Article détaillé : politique de prix.

Le prix (pour le client) peut être vu simultanément comme la somme des coûts, de la marge du vendeur et
des taxes diverses ou comme le montant qu'un client est prêt à payer pour ce produit ; prix psychologique, il
s'agit du prix d'acceptation optimal (selon les théories de l'école autrichienne). La demande est généralement
élastique : le nombre d'achats évolue par rapport à l'évolution du prix. Si le prix augmente, la demande
baisse et inversement. En conséquence, différentes politiques de prix sont possibles, comme la politique
d'écrémage, qui cherche à vendre moins de produits, mais plus cher, et donc ainsi à dégager un plus grand
bénéfice. Le prix peut également être vu de manière qualitative (fixe-variable), de manière dynamique
(politique de solde) ou relationnelle (politique de fidélisation). Une grande méconnaissance des acheteurs est
à signaler dans le secteur des services : le prix des services est généralement sous-estimé par rapport aux
prix des produits. D'où l'importance d'un marketing beaucoup plus pédagogique et donc plus coûteux pour
ce secteur. Cependant, de nombreuses législations interdisent la vente à perte (notamment en Belgique ou en
France, depuis 1997 et la loi Galland).

Distribution (Place mix)

Le marketing oriente les ventes mais doit veiller à ce qu'elles assurent les économies d'échelle (amortissent
les coûts fixes).
Articles détaillés : distribution (management) et merchandising.

La distribution comprend les activités qui rendent les produits disponibles et accessibles sur le marché par
un merchandising attractif.

Exemples de modes de distribution fonction de la taille :

Grande distribution (et autres grandes enseignes liées)


Grands Magasins (ou GMS - Grandes et Moyennes Surfaces, GSS - Grandes Surfaces Spécialisées)
Détaillant

Canal : Voie d'acheminement constituée d'une succession verticale d'intermédiaires, la somme des canaux
constituant un circuit.

Grossiste, Semi-grossiste ou centrale d'achat

VPC (vente par correspondance)


Réseau : Circuit et individus l'animant.

Force de vente (FDV : les commerciaux se déplacent parfois pour aller au contact des clients avec le
produit)
Franchise
Courtier (et autres réseaux...)

Marque

Plus d'œufs vendus en vrac. Vendre des œufs suppose avoir une marque.
Article détaillé : marque (marketing).

Communication (Promotion mix)

Campagne Apple : Think different


Article détaillé : stratégie de communication.

La communication représente l'ensemble des activités qui font connaître le produit et ses avantages en vue
d'inciter les clients ciblés à l'acheter. Exemples: publicité, promotion des ventes, sponsoring, etc.

L'essor des technologies de l'information et de la communication couplée aux changements des modes de
consommation (nomadisme, mobilité...) conduit les marketeurs à repenser leurs campagnes de
communication en combinant de manière optimale les différents messages et canaux. L'étude "enjeux autour
des données dans la relation client cross-canal"38 menée par un cabinet d'étude indépendant montre que le
développement de campagnes de communication multicanales est une tendance de fond dans les stratégies
marketing actuelles. Alors que le téléphone, le courrier et le face à face étaient encore prépondérants il y a
quelques années, ils sont progressivement remplacés par le web et l’e-mail. En 2012, chaque canal
(téléphone ; face à face ou courrier ou fax ; web ; courriel, etc.) devrait peser pour un poids à peu près
équivalent des interactions clients39.[Passage à actualiser]

 Communication mass-média : TV, Presse, Affichage, Cinéma, Radio, Internet, etc.


 Communication hors média : PLV (Publicité sur le lieu de vente), Communication institutionnelle,
T-shirts, Techniques de Marketing Direct, Relations publiques, Message non publicitaire (de type
informationnel) destiné au grand public via des mass-médias, Organisation d'événements (parfois
désigné "événementiels") accompagnant la promotion de produits et/ou services, Tirer profit d'un
évènement culturel, Promotion des ventes (On cherche à augmenter de façon significative le chiffre
d'affaires sur une période déterminée. Plusieurs techniques pour cela : primes, jeux, baisses de prix,
essais gratuits, dégustation ou échantillons, animation...)
 Force de vente : Information directe via les commerciaux en visite chez les clients

Bibliographie
1960

 (en) Jerome McCarthy, Basic Marketing. A Managerial Approach, Richard D. Irwin, 1960.
 (en) Theodore Levitt, Innovation in marketing, 1962.
 Theodore Levitt, Innovation et marketing, Les Éditions d'Organisation, 1969.

1970

 Philip Kotler, Marketing-Management. Analyse, Planification, Contrôle. Paris, Publi- Union, 1971.
 Théodore Levitt, L'esprit marketing, Les Éditions d'Organisation, 1972.
 (en) Peter Drucker, Management. Task, Responsabilities, Practices, Heinemann, 1973, p. 63 sq.
 Pierre Doré, Les concepts de base du marketing, Nathan, 1973.
 (en) Theodore Levitt, Marketing for Business Growth, McGraw-Hill, 1974.

1980

 (en) Al Ries et Jack Trout, Marketing Warfare, McGraw Hill, 1985.


 Theodore Levitt, L'imagination au Service du Marketing, Economica, 1985.
 Al Ries et Jack Trout, Le marketing guerrier, McGraw-Hill…

1990

 Bernard Cathelat, Socio-styles-système: les styles de vie, théorie, méthodes, applications, Éditions
d'Organisation, 1990.
 Jean-Louis Swiners et jean-Michel Briet, Warketing ! Une autre vision de la stratégie, ESF éditeur,
1993.
 (en) Steven Silverman, « An Historical Review and Modern Assessment of the Marketing Mix
Concept », 7th Marketing History Conference Proceedings, Vol. VII, 1995.
 (en) James F. Moore, The Death of Competition: Leadership and Strategy in the Age of Business
Ecosystems, Harperbusiness, 1996.
 (en) Barry J. Nalebuff, Adam Brandenburger, Co-opetition, Profile Business, 1997.

2000

 Daniel Michel, Robert Salle, Jean-Paul Valla, Marketing industriel. Stratégie et mise en œuvre,
Économica, 2001
 Naomi Klein, No Logo, Éditions J'ai lu, 2002.
 (en) Philip Kotler, Fernando Trías De Bes, Lateral Marketing. New Techniques for Finding
Breakthrough Ideas, Wiley, 2003.
 Élizabeth Reiss, Le marketing éthique, Village Mondial, 2004

2005

 (en) Al Ries et Jack Trout, Marketing Warfare, édition 20e anniversaire, McGraw Hill, 2005.
 Élizabeth Reiss, Le marketing durable, Eyrolles, 2006.
 Gérard Cliquet, André Fady, Guy Basset, Management de la distribution, 2e éd., Dunod, 2006
 Pettigrew et Turgeon, Marketing, Montréal, 2008.
 Eric Vernette, L'essentiel du marketing, Eyrolles, 3e édition, 2008.
 Christophe Sempels et Marc Vandercammen, Oser le marketing durable : concilier marketing et
développement durable, Pearson Éducation, 2009.
 Michel Chevalier et Pierre Louis Dubois, Les 100 mots du marketing, PUF, Que sais-je ?, 2009.
 (en) Christian Grönroos, « Marketing as promise management: regaining customer management for
marketing », dans : Journal of Business & Industrial Marketing, Vol. 24 Iss: 5/6, 2009, p. 351 - 359.
2010

 Anne- Laure Frossard et Pascale Guceski, Le tour du Marketing en 12 étapes, Dunod, 2010.
 Malcolm McDonald, Les Plans Marketing. Comment les établir ? Comment les utiliser ? 2e édition,
De Boeck, 2010.

2011

 Philippe Moati, La Nouvelle Révolution commerciale, Odile Jacob, 2011.


 Michel Chevalier et Gérard Mazzalovo, Management et Marketing du luxe, 2e édition, Dunod, 2011.
 Tony Hsieh, L'entreprise du bonheur, Dunod, 2011
 Marc Lebailly, Laurent Benarbia, Le marketing culturel. Exploitez votre culture d'entreprise et
transformez vos clients en adeptes, Pearson, 2011
 Emmanuelle Le Nagard-Assayag & Delphine Manceau, Le marketing de l'innovation. De la création
au lancement de nouveaux produits, 2e édition, Dunod, 2011
 Vineet Nayar, Les employés d'abord, les clients ensuite, Éditions Diateino, 2011.

2012

 Philip Kotler, Kevin Keller, Delphine Manceau, Marketing Management, Pearson Education, 14e
édition, 2012.
 Helfer & Orsoni, Marketing, 12e édition, Vuibert, 2012
 Jean-Jacques Lambin et Chantal Moerloose (de), Marketing stratégique et opérationnel. Du
marketing à l'orientation-marché, 8e édition, Dunod, 2012.
 François Scheid, Grégoire de Montaigu, Renaud Vaillant, Le marketing digital. Développer sa
stratégie à l'ère numérique, Eyrolles, 2012.,
 Philip Kotler & Hermawan Kartajaya, Marketing 3.0 : Produits, Clients, Facteur Humain, De
Boeck, 2012.

2013

 Hubert Kratiroff, Fonction : chef de produit marketing, 6e éd. , Dunod, 2013.


 Guénaëlle Bonnafoux, Corinne Billon, L'essentiel du plan marketing opérationnel, Eyrolles, 2013.
 (en) Charles W. Lamb, Joe F. Hair, MKTG 7, Cengage, 2013.
 (en) Timothy Baines, Howard Lightfoot, Made to Serve. How manufacturers can compete through
servitization and product service systems, Wiley, 2013.
 Pierre-Louis Dubois, Alain Jolibert, Marie-Laure Gavard-Perret, Christophe Fournier, Le Marketing.
Fondements et Pratique, 5e édition, Économica, 2013.

2014

 Jacques Lendrevie, Jean Lévy, Mercator. Tout le marketing à l'ère numérique (1990), 11e édition,
Dunod, 2014.
 Guy Couturier, Guide pratique des Marketing. « Séduire, convaincre et persuader », Société des
Écrivains, 2014.
 Philippe Villemus, Magic marketing ! Réinventer la croissance, Dunod, 2014.
 Patricia Brun, Marketing international, Ellipses, 2014.
 (en) Dawn Iacobucci, Marketing Management, Cengage Learning, 2014.
 (en) Carlo Vezzoli, Cindy Kohtala, Amrit Srinivasan, Product-Service System Design for
Sustainability, Greenleaf, 2014.
 Jean-Marc Ferrandi, Marie-Christine Lichtle, Marketing, Dunod, 2014.

2015
 Philip Kotler, Kevin Keller, Delphine Manceau, Marketing Management, Pearson Education, 15e
édition, 2015.

Вам также может понравиться