Академический Документы
Профессиональный Документы
Культура Документы
- La diversification
Comme il est déjà dit, le risque global d’un portefeuille se mesure par l’écart-type
gaussien des rentabilités successives des actifs qui le composent. Naturellement, le
premier objectif d’un investisseur est de maximiser sa rentabilité tout en minimisant
son risque. Pour ce faire, il faut qu’il y ait une faible corrélation entre ces actifs. En
d’autres termes, il faut diversifier le portefeuille de façon à ce que l’ajout d’une action
à forte volatilité n’augmente pas le risque global du portefeuille. La diversification du
portefeuille vise, donc, à minimiser le risque global. Cela correspond à l’expression
de Markowitz qui dit que « le risque total d’un groupe de titres différents est inférieur
à la somme des risques de ces titres individuels », autrement dit, ne pas mettre tous
ses œufs dans le même panier.
En effet, Markowitz a introduit une nouvelle notion à sa théorie pour la construction
d’un portefeuille optimal : « la loi de la covariance moyenne ». Cette dernière stipule
que le risque global d’un portefeuille est la somme de la variance moyenne des titres
qui le composent divisée par le nombre de titres, et la covariance moyenne des titres
multipliée par [(N−1) / N], (avec N : le nombre d’actions du portefeuille).
En effet, la diversification permet de réduire le risque global du portefeuille,
c’est-à-dire le risque lié à une forte volatilité. Ainsi, plus le portefeuille est bien
diversifie, plus la volatilité est moins forte. En d’autres termes, la diversification
permet de réduire le risque spécifique d’un actif. Toutefois, la diversification ne peut
en aucun cas diminuer le risque systématique relatif au marché boursier comme, par
exemple, le cas d’un krach boursier où le marché devient illiquide, d’où la baisse des
cours des actifs.
Ainsi ;
FP : Fonds propres
Vi : valeur totale (dettes + capitaux propres)
Cfp : Coût des fonds propres
D : Dettes financière
Cd : Coût des dettes
Ra: Rentabilité d’actifs
Exemple :
Soit deux sociétés A et B ayant les structures financières suivantes :
A : FP = 70% et D = 30% / B : FP = 50% et D = 50%
Avec un CD = 9% et un Ra = 15%
CFP A = 15 + (15 – 9)* 0.3/0.7 = 17,57% et CMP A = 0.7/1 * 17,57% + 0.3/1 * 9% =
15%
CFP B = 15 + (15 – 9)* 0.5/0.5 = 21% et CMP B = 0.5/1 * 21% + 0.5/1 * 9% = 15%
Cfp = Ra + (Ra-Cd)*D/FP*(1-t/IS)
Les travaux de Fama sont regroupés dans l’ouvrage « Les Grands Auteurs de la
Finance », en trois sections :
La modélisation de la relation Rentabilité/Risque ;
L’efficience informationnelle ;
Les décisions de gestion.
I- LA MODÉLISATION DE LA RELATION RENTABILITÉ RISQUE :
Fama a été amené pour comprendre la relation entre le couple rentabilité risque, à
produire un bon nombre de travaux sur le modèle d’évaluation des actifs financiers
(MEDAF). Ensuite,
il a proposé avec French, le modèle à trois facteurs. Ces deux modèles sont
continuellement présentés ci-après.
1) Le MEDAF :
Fama fait une démonstration de la relation de linéarité pour n’importe quel
portefeuille dominant entre son risque systématique (β) et la rentabilité espérée (E
(RM)). Le fameux
apport de Fama est certainement la méthodologie de test du MEDAF en coupe
instantanée,où il examine le cas d’un investisseur dont les choix ne se limitent pas à
une seule période.
Fama et Schwert exposent un thème modifié du MEDAF pour tenir compte d’un actif
dit non négociable : le « capital humain », et présentent un test sur des données de
l’économie des
États-Unis.
Le taux de rentabilité sur le « capital humain » est faiblement corrélé avec la
rentabilité des actions, ce qui signifie que le fait de prendre en compte les salaires par
exemple, n’améliore pas la capacité de l’explication du MEDAF. Ce modèle a été
étendu
théoriquement par Fama en 1970.
2) Le modèle à trois facteurs :
Le modèle Fama-French à trois facteurs est une explication empirique du rendement
attendu d’un actif financier. Les appréciations effectuées par Fama et French montrent
que le modèle arrive à expliquer une grande partie (environ 90 %) de la variation du
rendement mensuel des actions des bourses du NYSE, AMEX et NASDAQ. Ces deux
auteurs ont constaté que les entreprises de croissance sont moins risquées que les
valeurs de substance (ou de rendement).
II- L’EFFICIENCE INFORMATIONNELLE :
Arrivant à la deuxième section, il ressort que le concept de Fama de l’efficience n’a
pas vraiment évolué depuis le début des années soixante, puisque la plupart des
auteurs s’intéressant à la problématique de l’efficience renvoient à Fama la définition
classique : un marché dans lequel les cours « reflètent complètement » l’information
disponible est dit efficient.
1) Efficience et rational pricing :
En plus de détail, Fama attribue le caractère efficient (informationnellement) au
marché, où une prévision profitable est impossible pour quiconque. Réellement au
sens de Fama, on peut
faire des prévisions mais de manière non profitable. Par ailleurs, mener un test
d’efficience est une action véritablement délicate, vue la diversité des hypothèses
prises en comptes dans
l’expérience de ce test. Ces points-là sont contenus dans la valeur fondamentale des
cours, le caractère de la prévision (profitable ou non) et la diversité des hypothèses.
a) Les cours et la valeur fondamentale
La valeur fondamentale et les cours sont déterminés par deux aspects : la répartition
de l’information parmi les investisseurs ; la capacité du marché à agréger les
informations individuelles et à produire des cours les reflétant.
Fama explique que dans un contexte d’un marché quelconque (exclusion du
monopole), un désaccord sur l’interprétation d’une information ne remet pas en cause
l’efficience, à condition que les investisseurs ne bénéficient pas d’un avantage
informationnel.
Pour Fama, dans un marché efficient, les cours varieront de manière aléatoire autour
de leur« valeur fondamentale ». Le coût de l’information et les conditions de diffusion
(incertitude et
informations imprécises) engendrent des écarts entre la valeur fondamentale et les
cours.
b) La prévision de la profitabilité :
Pour Fama, les anomalies de long terme ne permettent pas de falsifier l’hypothèse
d’efficience, car les surévaluations sont aussi fréquentes que les sous-évaluations.
Le fait de ne pouvoir prévoir de manière profitable les cours futurs ne pourrait être
totalement satisfaisant, puisque des écarts d’évaluation importants, engendraient une
baisse de l’efficience allocationnelle et de la performance du marché. → C’est le
contraire pour Fama.
c) Les hypothèses jointes et les tests empiriques de l’efficience :
Un test de l’hypothèse d’efficience doit être mené à l’aide d’une autre hypothèse
jointe qui porte sur le modèle d’équilibre. Les recherches sur l’efficience
informationnelle et celles sur les déterminants des taux de rentabilité sont contenues
dans le travail scientifique de Fama,intitulé « Two pillars of asset pricing »
Le test de volatilité stipule que sur un marché efficient, la variance des prix de l’actif
doit être bornée par une valeur théorique qui ne dépend que de la variabilité des
déterminants fondamentaux du prix. Shiller (1981).
MYRON SCHOLES:
Myron Scholes est nommé, en 1970, professeur assistant au département finance de la
Sloan Scholes of Management du MIT, où il fait rapidement la connaissance de
Fischer Black, alors consultant chez Arthur D. Little à Cambridge. Ensemble, ils se
lancent dans une fructueuse collaboration sur de très nombreux sujets, dont la
fameuse formule d’évaluation des options.
Robert Merton rejoint leur groupe au MIT et tous les trois s’intéressent aux
déterminants du prix des actifs financiers et à l’évaluation des options, des produits
dérivés et à l’extension de celle-ci aux instruments de financement par Dette des
entreprises. En 1972, Fischer Black est nommé professeur à Chicago et Myron
Scholes le suit.
À partir de 1973, Scholes s’investit totalement dans le CRSP, qui développe une vaste
base de données boursières historiques américaines, où il fait fructifier ses
compétences informatiques et dirige de nombreuses recherches, qui feront de Myron
Scholes l’un des chercheurs empiriques les plus prolifiques de son temps.
Le résultat le plus important et le plus connu des travaux de Black est l’établissement
d’une formule d’évaluation d’une option d’achat (européenne, c’est-à-dire ne donnant
lieu à exercice qu’à l’échéance). Elle est présentée dans un article écrit avec Myron
Scholes (Black et Scholes,1973) dans le Journal of Political Economy. Cette revue
n’était pas tournée vers la formalisation mathématique rigoureuse des modèles
économiques.
Il faut cependant mentionner que les auteurs ne partaient pas de rien. Un travail
préparatoire avait été accompli par Black lui-même, qui s’était plongé dans la
littérature des options (ou plutôt des warrants) dès 1965. En effet, la recherche d’une
évaluation des warrants avait été très active dans les années soixante et plusieurs
auteurs avaient abouti à des formules.
Celle que Sprenkle (1961) avait établie dans sa dissertation doctorale à Yale était
presque identique à celle de Black et Scholes, mais elle comportait un paramètre
inconnu difficile à évaluer et qui la rendait pratiquement inutilisable.
L’incontournable Samuelson (prix Nobel d’économie en 1970) avait lui-même
produit une théorie des warrants aboutissant à une formule
semblable et, déjà, il s’appuyait pour cela sur une annexe mathématique écrite par
Henry McKean, alors professeur au MIT puis professeur à l’Institut Courant de
l’Université de New York ; cette annexe s’intitulait A Free Boundary Problem for the
Heat Equation...
La limite de ces approches lui semblait tenir à la recherche d’une formule par
application d’une technique basée sur l’actualisation (la valeur actuelle nette) qui
demandait l’estimation d’un taux d’actualisation inconnu et qui supposait la
connaissance de l’espérance de rentabilité du titre sous-jacent.
L’idée-clé pour Black (il la tenait de Jack Treynor) fut de décider que la formule du
prix d’un warrant ne devait dépendre que du prix du sous-jacent observé à l’instant de
l’évaluation, du délai d’éloignement de la maturité, et d’autres facteurs observables à
cet instant.
Un warrant est un produit dérivé, généralement émis par les banques. Ce produit
possède un effet de levier qui donne à l'investisseur la possibilité d'avoir des gains
élevés mais en augmentant fortement le risque.
D’une certaine manière, près de quarante ans plus tard, le succès des fonds trackers
(Exchange Traded Funds ou ETF) dans le monde, qui, comme leur nom l’indique, ne
cherchent pas à battre l’indice, mais simplement à le suivre, valide leur prédiction.
Il est intéressant de noter aussi dans cet article l’introduction de différents types
d’acteurs sur les marchés. À côté des investisseurs rationnels qui croient à l’efficience
et suivent les prescriptions de la théorie, il faut introduire les joueurs (gamblers) qui
aiment l’investissement risqué, les « allumés » (fools) qui croient opérer sur la base
d’informations pertinentes et qui ne font que produire d’inutiles transactions.
-Fonds et gestion de portefeuilles:
Ayant commencé sa carrière de financier confronté à des problèmes de mesure de
performance,Black restera en contact avec ce domaine de la recherche durant toute sa
carrière. Entre 1970 et
1995, il produit des dizaines d’articles et notes sur la gestion des portefeuilles. On a
cité précédemment l’article écrit avec Scholes (Black et Scholes, 1974) et dans lequel
ils examinent
la possibilité d’un fonds appliquant les préceptes de la théorie financière (mixage d’un
actif sans risque et du portefeuille de marché et gestion passive).
De façon récurrente, Black étudie les impératifs que l’efficience postulée des marchés
fait peser sur les gestionnaires de fonds et s’interroge fréquemment sur les minces
possibilités de battre
le marché. Pourtant, les gestionnaires se montrent assez systématiquement
sur-confiants dans leur habileté à battre le marché. Black s’est interrogé à plusieurs
reprises sur cet excès de trading (cf. son discours de président de l’AFA, de 1993,
évoqué précédemment). Mais son expérience pratique l’amènera à ne pas rejeter de
façon définitive la possibilité de stratégies
d’investissement actives selon des modalités plus élaborées.
Dans la veine de ces préoccupations, il faut signaler aussi le regard qu’a porté Black
sur l’information comptable, qui est la principale source d’information sur laquelle les
analystes
fondent leurs anticipations et dispensent leurs recommandations aux gestionnaires.
-Portefeuille international et couverture des risques de change:
Black s’intéresse aussi à la théorie de l’investissement transfrontière et à la couverture
des risques liés à la fluctuation relative des monnaies dans les portefeuilles
internationalement
diversifiés.
Il démontre une propriété de couverture appelée universal hedging (chaque
investisseur couvre chacun de ses investissements dans les différentes monnaies dans
la même proportion).
Ses projets de recherche intéressent plusieurs fondations qui financent ses travaux en
même temps qu’il enseigne la
politique économique au All Souls College d’Oxford. Il obtient un poste de
professeur-assistant (1966-1967) à l’université de Yale.
D’abord professeur associé, c’est à l’âge inhabituel de 27 ans qu’il devient titulaire de
son poste (1970-1974). Il va continuer sa carrière en étant successivement professeur
à Stanford (1974-1976), Oxford ((1976-1979) et Princeton (1979-1988). Il reçoit, en
1979, la médaille John Bates CLARK (délivrée par l’American Economic Association
pour récompenser le meilleur économiste américain de moins de 60 ans).
En 1988, il revient à Stanford. En 1993, il devient le président du Conseil des
consultants économiques du président Bill CLINTON. De 1997 à 1999, il est
économiste en chef de la Banque mondiale.
Depuis 1999, il est professeur à la Columbia Business School, à New York. Ancien
conseiller à la Maison blanche sous l’administration Clinton, Joseph Stiglitz a
récemment exercé à la Banque Mondiale au redoutable poste d’économiste en chef. Il
a quitté ses fonctions en novembre 1999, officiellement pour se consacrer à
l’enseignement.
L’Américain Joseph Stiglitz, remis conjointement à deux de ses compatriotes, pour
des recherches sur le poids de l’information des individus dans les processus
économiques.
Les trois lauréats du prix de sciences économiques à la mémoire d’Alfred Nobel,
Joseph Stiglitz (58 ans), George Akerlof (61 ans) et Michael Spence (58 ans), ont été
récompensés pour leurs travaux sur les marchés avec asymétrie d’information
c’est-à-dire sur les différences d’informations détenues par certains agents
économiques par rapport à leurs contreparties.
Entre-temps, Stiglitz s’impose comme étant un grand théoricien et fait siens des sujets
comme les causes et conséquences des inégalités, la persistance du chômage, la
fréquence des crises financières. Cependant, Joseph Stiglitz oriente plus son attention
vers l’asymétrie d’information. Un thème qui fera de lui un des fondateurs de
l’économie de l’information.
-La genèse d’une pensée:
La genèse de la pensée de Stiglitz s’enracine dans une analyse fine de questions
économiques étudiées lors d’un séjour au Kenya, de 1969 à1971, alors qu’il était tout
jeune professeur visitant à l’Université de Nairobi, et auxquelles le modèle
néoclassique ne lui semblait pas apporter de réponse satisfaisante.
Accueilli par l’Institute for Development Studies, Stiglitz démarre un projet de
recherche sur l’analyse du métayage.
Remarquant que, dans la relation entre le propriétaire du champ et le métayer, il existe
une asymétrie d’information portant sur le niveau d’effort déployé par le métayer
génératrice d’un aléa moral, il développe un modèle principal-agent qui conclut que le
contrat de métayage est la combinaison d’un contrat de location et d’un contrat
d’assurance par lequel le propriétaire accorde un rabais au métayer en cas de récolte
faible. La part de contrat d’assurance intégrée au contrat de métayage vient suppléer
dans le contexte d’un pays en développement l’impossibilité d’assurer le risque de
fluctuation. Des récoltes, ce qui l’amène alors à s’interroger sur les raisons fondant
l’absence ou les échecs de marchés.
Asymétrie d’information, antisélection, aléa moral, incitations, échecs ou
dysfonctionnements de marchés, tels sont les concepts qui seront au cœur des
recherches de Stiglitz, qui le conduiront à développer un paradigme alternatif au
modèle néoclassique 1 et qui aboutiront à ce qu’il soit distingué en 2001, en même
temps que George Akerlof et Michaël Spence, par le jury du Prix de la Banque de
Suède en sciences économiques en mémoire d’Alfred Nobel.
-Le paradigme informationnel:
Le paradigme informationnel a modifié en profondeur les résultats acquis de la
finance moderne. Alors que la structure financière était supposée ne pas avoir
d’impact sur la valeur de la firme, les décisions financières (dividendes, choix de
structure financière, choix de modalités contractuelles) sont prises par des agents
économiques informés, conscients qu’elles seront aussi interprétées par d’autres
acteurs du marché, moins
informés, et ont une incidence, dès lors, sur la valeur de la firme. Alors que
l’hypothèse d’information parfaite aboutit à ce que la frontière des portefeuilles
efficients soit la même pour tous les acteurs du marché financier, l’invalidation de
cette hypothèse détruit le modèle d’évaluation des actifs financiers.
La richesse du paradigme informationnel construit par Stiglitz se mesure à l’aune de
l’importance de ces remises en cause et de ces questionnements. Avec Stiglitz et ses
coauteurs émergent les concepts (anti-sélection, aléa moral, échecs de marché,
rationnement) qui participeront à la construction d’un paradigme nouveau.
Par l’analyse qu’il développe du marché de l’assurance et celui du crédit, Stiglitz
apporte des contributions majeures à la finance. Il démontrera, dans la lignée des
travaux d’Akerlof, que des marchés à forte asymétrie d’information fonctionnent mal,
voire ne fonctionnent pas. Il sera à l’origine de la compréhension des déséquilibres sur
un marché du crédit caractérisé par une trop forte asymétrie d’information. Ces
déséquilibres ne sont pas temporaires, fruits de chocs externes qui, en se résorbant,
s’accompagneraient d’un rééquilibrage validant la loi de l’offre et de la demande.
Stiglitz montre ainsi que la loi de l’offre et de la demande peut être durablement
invalidée et que l’équilibre qui en résulte est paradoxalement un déséquilibre
persistant. Sur le marché de l’assurance, Stiglitz montrera que les assureurs peuvent
extraire de l’information en offrant des contrats séparant, associant par exemple un
certain niveau de franchise à la prime d’assurance, et structurés de telle manière que
le choix d’un contrat donné dans un menu révèle à l’assureur l’information utile pour
une tarification actuariellement équitable du contrat.
-L’asymétrie d’information:
Avant l’avènement de modèles d’informations imparfaites et asymétriques, les
néoclassiques traditionnels prétendaient que les marchés sont efficaces, mais cette
efficacité était limitée par certaines défaillances du marché connues et étudiées. Des
travaux plus récents réalisés par Stiglitz et d’autres économistes 4 remirent en cause
cette affirmation, afin d’avancer que l’efficacité des marchés n’est qu’exception et
non commune situation.
L’asymétrie d’information permet d’analyser des comportements et des situations
courantes de l’économie de marché. Le plus clair du temps, on constate que sur un
marché, un des deux acteurs dispose d’une meilleure information, il en sait plus que
l’autre sur les conditions de l’échange (qualité du produit, travail fourni…). Cela peut
mener à des abus de position, des problèmes d’anti-sélection et des risques moraux.
L’asymétrie d’information vient totalement contredire le modèle de la concurrence
pure et parfaite (CPP). Effectivement, dans le modèle de la CPP, nous émettons
l’hypothèse que les agents économiques sont parfaitement informés (qualité des biens
/ des travailleurs, prix ainsi de suite). Or, sur les marchés réels, que ce soit le marché
du travail,le marché des biens ou encore le marché des services, l’information est
imparfaite. Des individus rationnels qui maximisent leur utilité, sont donc prêts à
avoir des comportements opportunistes qui risquent de compromettre le
fonctionnement efficace du marché.
En effet, on peut distinguer deux situations d’information asymétrique : d’une part
l’anti sélection, appelée aussi sélection adverse, où le marché est perturbé par le fait
qu’une partie connaît mieux les caractéristiques du bien échangé au moment de la
signature du contrat et d’autre part, l’aléa moral qui est une situation dans laquelle une
des parties ne peut contrôler l’action de l’autre partie.
Richard Roll: La critique du modèle d’équilibre des actifs financiers
RICHARD ROLL: Biographie.
Richard Roll ,né le 31 octobre 1939, est un économiste américain, principalement
connu pour ses travaux sur la théorie des portefeuilles et la tarification des actifs, à la
fois théoriques et empiriques.
Il a obtenu son baccalauréat en génie aéronautique de l'Université Auburn en 1961 et
son M.B.A en 1963 à l'Université de Washington alors qu'il travaillait pour Boeing à
Seattle (Washington). En 1968, il a obtenu son doctorat. de la Graduate School of
Business de l’Université de Chicago en économie, finance et statistiques.
Son doctorat «Le comportement des taux d’intérêt:
application du modèle de marché efficace aux bons du
Trésor américains», a remporté le prix Irving Fisher du
meilleur mémoire américain en économie en 1968.
L’un des fondateurs des études d’événements (Fama et al., 1969), Roll a co-écrit la
première étude sur les événements qui visait à analyser la manière dont les cours des
actions réagissaient à un événement en 1969 en utilisant les données de prix de la
nouvelle base de données CRSP disponible. Roll a co-écrit des articles importants
avec Stephen Ross, Eugene Fama, Michael Jensen et Kenneth French.
Roll a occupé le poste de professeur adjoint à l'Université Carnegie-Mellon en 1968, a
été professeur à l'Institut européen des hautes études en gestion en 1973 et au Centre
d'enseignement supérieur des affaires en 1975. En 1976, Roll a rejoint la faculté
d'UCLA où il reste titulaire de la chaire Alumni du Japon, professeur de finance. En
1987, Roll a été élu président de l’American Finance Association. Il a publié plus de
80 articles
professionnels.
Parmi ses meilleurs articles, on trouve:
- “A Critique of the Asset Pricing Theory’s Tests”, (Roll, 1977),
- “Orange Juice and Weather” (Roll, 1984).
- “The Hubris Hypothesis of Corporate Takeovers” (Roll, 1986)
La Critique du MEDAF
Appelé « Capital Asset-Pricing Model» le modèle d'équilibre des actifs
financiers(MEDAF) de Sharpe (1964), Lintner (1965), Mossi (1966) et Black (1972)
est l'un des résultats centraux de la théorie financière moderne il constitue l'un des
paradigmes
dominants de la finance moderne depuis sa validation empirique par Black, Jensen et
Scholes (1972) et par Famad et Macbeth (1973). Ce modèle est incontestablement le
modèle d'évaluation le plus connu et utilisé menant à une conclusion facilement
compréhensive, à savoir la rentabilité moyenne d'un actif financier est d'autant plus
importante que le bêta est élevé. Il existe donc une relation linéaire entre les
rentabilités espérées excédentaires (par rapport au taux sans risque) de chaque titre et
la rentabilité
espérée excédentaire du marché. Ce portefeuille du marché dont la construction relève
des modèles de décision de portefeuille a pour représentation approximative, l'indice
boursier. Le MEDAF est un Modèle qui explique les taux de rentabilité des différents
actifs, en fonction de leur risque.
Le modèle d'évaluation des actifs financiers MEDAF.
Les critiques adressées au MEDAF
Le modèle pose des hypothèses trop simples (possibilité d'investir et d'emprunter au
taux sans risque ; existence d'actifs uniquement financiers ; fiscalité homogène entre
actifs ;
pas de coûts de transaction...)
Apports:
1) Le chercheur en finance de marché :
L’orientation initiale, en finance de marché, des travaux de Jensen a été très fortement
influencée par la réalisation de sa thèse5 « Risk, the Pricing of Capital Assets, and the
Evaluation of Investment Portfolios », soutenue en 1967, sous la direction de Eugene
Fama, à l’Université de Chicago. Cette thèse vise à construire un modèle d’évaluation
des actifs financiers, à préciser et à tester l’hypothèse d’efficience des marchés
financiers et à proposer des outils de gestion aux gérants de portefeuille.
NB: les contributions exclusivement attribuables à Jensen, dans ce champ de la
recherche financière, peuvent cependant être considérées comme secondaires
comparativement aux apports fondateurs des pionniers précités.
Les contributions potées par Jensen s’inscrivent principalement dans les trois axes
évoqués : la théorie de l’évaluation des actifs, la théorie de l’efficience
informationnelle et la mesure de performance des portefeuilles.
1.1. La contribution à la théorie de l’évaluation des actifs financiers :
La thèse de Jensen (Jensen, 1969), même si elle avait pour objectif de proposer un
modèle d’évaluation de la performance des portefeuilles composés d’actifs risqués,
comportait également des
développements originaux portant sur la construction du modèle même d’évaluation
et la notion d’efficience. En particulier, sur le premier point, Jensen proposait une
extension du Modèle d’équilibre des actifs financiers - MEDAF (traduction
approximative de CAPM, le Capital Asset Pricing Model
proposé par Sharpe et Lintner) dans un cadre multi périodique. Dans cette extension,
les horizons des investisseurs étaient hétérogènes et les transactions supposées se faire
en continu. Toutefois, lacontribution la plus connue de Jensen à la théorie de
l’évaluation est le travail qu’il a réalisé avec
Black et Scholes et qui a servi, comme référence en matière de conduite de tests
empiriques du MEDAF pendant plusieurs années, jusqu’à la critique dévastatrice
publiée par Roll (1977).
Cependant, leur objectif était de présenter des tests de MEDAF échappant aux
critiques adressées aux tests existants et prenants mieux en compte, notamment, la
structure réelle des taux de rentabilité des actifs financiers.
Le travail réalisé, de nature économétrique, visait en particulier à réduire les effets des
nombreux biais statistiques qui s’opposaient à un véritable test du modèle théorique.
Sans entrer dans le détail des procédures utilisées, nous précisons que les tests avaient
porté sur les taux de rentabilité mensuels de
1952 titres, sur une période de 35 ans. Les résultats conduisaient à rejeter le MEDAF:
l’explication de ces résultats, proposée par les auteurs, était liée à une mauvaise
spécification théorique du modèle théorique (non-existence de la possibilité
d’emprunter au taux sans risque, absence de prise en compte de certains types d’actifs,
traitement fiscal différent des dividendes et des plus-values). Même si le caractère
testable du MEDAF a été fortement contesté, les solutions proposées pour remédier à
certains biais restent d’actualité et sont toujours retenues dans de nombreuses études
empiriques.
1.2. La théorie de l’efficience informationnelle :
La théorie de l’efficience informationnelle, selon laquelle les cours des titres
financiers reflètent l’ensemble d’information disponible et pertinente pour la décision
d’investissement, a été au cœur de la révolution financière de la fin des années 60.
Rappelons que si cette théorie est vérifiée, les cours boursiers suivent un
cheminement aléatoire. Dans ce cas, les efforts consacrés à la prévision boursière sont
inutiles puisque les cours n’évoluent que par la survenance d’événements
imprévisibles. Elle conduit également à contester la possibilité pour les gérants de
portefeuille de battre les performances du marché, une fois pris en compte les coûts
d’information et de gestion. Sur le plan de la définition, Jensen a apporté de
nombreuses précisions au concept d’efficience en liaison avec le MEDAF et, il l’a
clarifié sur le plan opérationnel, en précisant que sa mesure devait être faite après
prise en compte des coûts de gestion et de transaction stricto sensu supportés par les
gérants. La définition explicite qu’il en pose se fonde sur l’impossibilité de réaliser un
profit d’arbitrage en tenant compte de ces coûts.
Les tests qu’il a effectués (Jensen, 1968) sur un échantillon de 115 fonds mutuels
américains sur la période 1945-1964 montrent qu’après prise en compte des coûts de
gestion et de transaction, les performances réalisées sont inférieures à celles qui
seraient obtenues par une simple stratégie passive
d’achat-détention. Les travaux de Jensen sur la théorie de l’efficience ne se sont pas
cependant limités à cette contribution. Il a également effectué un autre test de
l’efficience des marchés, sous sa forme faible, en apportant une preuve
supplémentaire de l’incapacité de l’analyse technique, à constituer un outil permettant
de battre le marché. Toutefois, l’apport le plus important qu’il a réalisé en ce domaine
est de nature instrumentale et est constitué par l’invention de la « méthode des études
d’événements » (event studies) afin de tester l’efficience des marchés. Cette méthode
a été utilisée pour la premièrefois dans un article collectif, qui visait à proposer un
nouveau test de l’efficience des marchés en étudiant le mode d’ajustement des cours
boursiers lors de l’arrivée d’une nouvelle information. Dans
l’article considéré cette nouvelle information était constituée par les divisions
d’actions. La méthode des études d’événements permet de proposer une mesure de la
réaction du marché, en évaluant le comportement anormal de ce dernier, à travers
l’évolution des taux de rentabilité. Les conclusions de
l’étude étaient favorables à l’hypothèse d’efficience, dans la mesure où elles
montraient que les cours s’ajustaient très rapidement à la nouvelle information.
1.3. La mesure de performance des portefeuilles :
La préoccupation pragmatique, souvent présente dans l’œuvre de Jensen, l’a conduit à
centrer sa thèse sur l’évaluation de la performance des portefeuilles. La mesure de
performance proposée, repose directement sur le MEDAF et la théorie de l’efficience
des marchés. Elle permet de juger de la capacité des gérants à prévoir les prix des
actifs financiers et à réaliser, ex post, une performance supérieure à celle prédite par le
MEDAF. Le travail de Jensen a permis également de préciser le lien unissant les
notions de performance et d’efficience. Ce premier travail sur la mesure de la
performance des fonds a été poursuivi dans l’objectif d’analyser plus précisément la
performance des gérants en
séparant les deux principales dimensions de la gestion: la capacité de prédiction et
l’aptitude à sélectionner les titres les plus performants (le stock picking).
2) Le chercheur en finance d’entreprise et en gouvernance :
Si les premiers travaux de Jensen étaient situés dans le champ de la finance de marché,
ses principaux apports relèvent de la finance d’entreprise. Dans ce domaine, ses
premières contributions
s’inscrivaient dans le paradigme économico-financier traditionnel, et visaient à
développer les implications du MEDAF, pour élaborer des critères normatifs de choix
d’investissement. Dans l’article
copublié avec Meckling en 1976, se trouvent les fondements du paradigme que
constitue la TPA, qui allait profondément modifier la façon d’analyser les problèmes
en finance d’entreprise et, plus
généralement, dans le champ de l’économie des organisations et des sciences de
gestion.
Avant de décrire les principaux apports faits par Jensen à la compréhension des
décisions financières des entreprises, resituons tout d’abord la place de la finance dans
le projet de recherche très ambitieux
qu’il a formulé conjointement avec Meckling.
2.1. La finance vue sous l’angle de la théorie des organisations :
L’article de 1976, s’inscrivait dans un projet beaucoup plus large: créer une théorie du
comportement des organisations reposant sur l’hypothèse de rationalité des acteurs,
notamment des dirigeants fondée à l’origine sur la théorie des droits de propriété, et
sur la notion de relation d’agence empruntée àl’approche principal-agent. Cette
théorie se veut une théorie de la coordination et du contrôle au sein des organisations,
centrée sur les dirigeants. Elle s’applique, en particulier, à l’architecture
organisationnelle et à la gouvernance des entreprises. Cette théorie s’est enrichie au
cours des années, de telle sorte qu’aujourd’hui Jensen présente la TPA comme une
théorie « intégrée » des organisations visant à réunir deux courants de recherche
distincts : (1) la recherche de tradition économique, centrée sur le fonctionnement des
marchés, (2) celle associée aux champs de la psychologie, de la sociologie,
du comportement organisationnel, de l’anthropologie et de la biologie, dont l’objectif
est d’expliquer le comportement humain, tant sur le plan individuel que social.
2.2. Les apports à la finance d’entreprise :
Le projet d’inscrire la finance dans le cadre de la théorie des organisations allait
conduire à accorder une place centrale à la notion de gouvernance des dirigeants, pour
étudier les décisions financières. Si le problème canonique de la « corporate
governance » est lié au fait que les dirigeants, dans les entreprises managériales(c à d
les grandes firmes les dirigeants ne détiennent pas une part significative du capital),
réalisaient une performance inférieure du point de vue des actionnaires, il revenait
cependant à Jensen et Meckling d’imposer le cadre de la gouvernance pour analyser
les problèmes financiers. L’article de 1976, en est la plus belle illustration. Dans ce
dernier Jensen et Meckling,partent d’une situation où le dirigeant est le seul
propriétaire. En introduisant successivement les coûts d’agence liés au financement
par fonds propres externes, puis ceux associés à la dette financière, ils parviennent à
expliquer la structure de financement (dette contre fonds propres) où plutôt, la
structure de « propriété», opposant les propriétaires internes (les managers) aux
investisseurs externes (actionnaires non-dirigeants et créanciers financiers) qui ne
jouant pas de rôle direct dans la gestion.
Jensen a resitué le rôle du marché des prises de contrôle à l’intérieur de la grille de la
gouvernance.
Le marché des prises de contrôle s’analyse ainsi comme un mécanisme permettant de
mieux discipliner les dirigeants de sorte qu’ils utilisent au mieux les ressources de
l’entreprise et créent le maximum de valeur. Cette attention privilégiée portée aux
prises de contrôle allait également se retrouver au centred’un des plus célèbres articles
écrits par Jensen (1986 a), dont l’influence allait également être très importante, dans
la mesure où il donnait naissance à la théorie du « Free Cash-Flow » qui veut dire
des fonds excédant le montant nécessaire pour financer l’ensemble des projets
rentables, Ces fonds leur permettent de disposer d’une marge de manœuvre
supplémentaire en n’étant pas obligés de se
soumettre au contrôle des investisseurs externes pour se financer. Cette politique de
croissance est également favorable à l’ensemble des salariés dans la mesure où elle
facilite les promotions : Il y a
donc conflit d’intérêts entre, d’une part, les dirigeants ou, plus généralement
l’ensemble des salariés,d’autre part, les actionnaires. Vue que les dirigeant sont
réticent à verser les fonds ‘’ les free cash-flow’’ aux investisseurs, il est donc
impératif de trouver une autre solution pour se financer qui est le financement par
endettement la discipline par la dette est plus efficace dans la mesure où les créanciers,
si le service de la dette n’est pas honoré, peuvent exiger la mise en règlement
judiciaire de la société.
3) Le chercheur en théorie des organisations :
Le domaine de la finance ne constitue cependant qu’un des nombreux champs
d’investigation de la TPA. Or, cette dernière, cherche notamment à expliquer
l’architecture organisationnelle interne et la répartition des activités économiques et
sociales entre les différentes formes organisationnelles.
3.1. L’architecture organisationnelle :
Jensen et Meckling (1992) proposent une théorie de l’architecture organisationnelle
fondée sur l’allocation des droits décisionnels à l’intérieur des organisations en vue de
permettre une utilisation
optimale de la connaissance. Au sein des organisations, cette allocation intervient via
la politique organisationnelle. Les droits sont répartis par les dirigeants (cette
répartition est faite par des arbitrages managériaux effectués entre les coûts liés à une
mauvaise utilisation de la connaissance spécifique et
les coûts d’agence associés aux conflits d’intérêts) et leur respect est garanti par les
systèmes incitatifs et de contrôle également mis en place par la hiérarchie, en tenant
compte de la nature de
l’environnement institutionnel. La théorie de l’architecture organisationnelle s’articule
ainsi autour de deux dimensions qui constituent la base de la « taxinomie » centrale de
la TPA : (1) l’allocation des droits décisionnels à l’intérieur de l’organisation ; (2) la
conception du système de contrôle, La cohérence et la complémentarité entre ces
dimensions sont censées déterminer le niveau d’efficience organisationnelle.
3.2. La répartition des formes organisationnelles :
Fama et Jensen proposent de s’appuyer également sur le rôle central de la
connaissance spécifique et la minimisation des coûts d’agence pour expliquer la
répartition des activités économiques et sociales entre les différentes formes
organisationnelles.
4) L’idéologue et le méthodologue :
Concernant l’idéologie : Jensen insistait fortement sur le caractère instrumentaliste
des théories. Une bonne théorie est une théorie qui permet aux dirigeants de prendre
de meilleures décisions, de créer davantage de valeur : « The choice among
competing theories will be based on which is expected to yield the highest value of
objective function when used for decision making ».
Pour la méthodologie : même si, dans ses travaux consacrés à la finance de marché, il
avait déjà fait un apport important en élaborant la méthode des études d’événements,
Jensen, à travers la TPA, a su également proposer une méthode de recherche originale
dans le champ de la finance et de l’économie organisationnelle, en prônant le recours
aux études cliniques comme mode de recherche à part entière.
Il s’agit d’un des aspects qui séparent le plus profondément la TPA d’une part, de la
théorie principal-agent fondée exclusivement sur la modélisation quantitative, d’autre
part, des approches économétriques traditionnelles. Il insistait également sur la nature
analytique mais non mathématique de la modélisation dans la TPA et sur les variables
considérées comme centrales, différentes de celles de la théorie principal-agent.
René M. Stulz: Latitude managériale et politique financière
BIOGRAPHIE:
René M. Stulz, né le 31 juillet 1944 à New York, qui, après avoir obtenue une licence
en sciences économiques à l’Université de Neuchâtel (Suisse) en 1975, il fait un
séjour d’études d’une année à la London School of Economics dans une optique
d’échange académique.
Toute de suite après il entame un doctorat d’économie au prestigieux Massachusetts
Institute of Technology (MIT) qu’il complète en 1980.
S’ensuit sa carrière universitaire en tant que professeur assistant en finance et en
économie à l’Université de Rochester de 1980 à 1983. Il prend ensuite un poste de
professeur associé à Ohio State University qu’il occupe pendant deux ans avant de
devenir professeur de finance dans cette même université et d’y occuper différentes
postes de responsabilité, comme Everett D. Reese
Chair of Banking and Monetary Economics. Il est également, depuis 1995, directeur
du Dice Center for Research in Financial Economics de cette université. Tout au long
de sa carrière académique, il a aussi été professeur-visitant dans les universités les
plus prestigieuses comme le MIT, l’Université
de Chicago et la Harvard Business School.
Ensuite, au bénéfice d’une bourse du Fonds national suisse de la recherche
scientifique, René Stulz est parti parfaire sa formation à la London School of
Economies en tant que visiting graduate student.
Si, depuis 1985, il est rattaché à l’Ohio State University en tant que professeur de
finances, il a parallèlement transité par diverses universités de haute qualité. Ainsi, il a
enseigné aux universités de Rochester, de Chicago, au Massachusetts Institute of
Technology et bien qu’étant toujours rattaché à l’Ohio State University, il a enseigné
l’an dernier à la Business School of Harvard University.
En parallèle à ce parcours académique prestigieux, René M. Stulz dispense depuis un
bon nombre d’années de nombreux séminaires en Europe et participe en Suisse à
l’école doctorale d’économie politique construite alors par la Banque nationale suisse
qui siège traditionnellement à Gerzensee. Il est à noter qu’il agit toujours en tant que
consultant dans de nombreuses sociétés américaines.
N’étant pas une fin, René M. Stulz ne se contente pas d’être un enseignant et poursuit
sa quête de la recherche du savoir d’où le fait qu’il est l’auteur de nombreuses
publications scientifiques et économiques dans de nombreux thèmes.
Jusqu’ici, l’auteur a publié une centaine d’ouvrages et articles dans le domaine de la
finance internationale qui lui a assuré une renommée mondiale dans ces domaines.
Il est en effet considéré au niveau scientifique et pratique comme un des meilleurs
spécialistes des produits dérivés. Sans avancer des spécificités, on se contentera de
mentionner que les travaux de René M. Stulz concernent une variété de domaines de
la finance avec une préférence pour la finance internationale (évaluation d’actifs dans
un cadre international, taux de change,
propagation des informations à travers les différents marchés internationaux).
Le sujet de la finance d’entreprise est aussi extrêmement présente, qu’il s’agisse des
questions liées à la structure du pouvoir à l’intérieur des firmes ou de la manière de
gérer les risques de l’entreprise (risque de change, risque de taux, fluctuations des
matières premières, etc ...).
Puisque le comportement des déposants vis-à-vis le retrait de leurs fonds est inconnu
(peut être une consommation rapide ou retardée), seuls les déposants qui détiennent
cette information. La limitation des retraits excessifs se fait par La rédaction d’un
contrat bancaire (aucune des parties ne peut prendre une décision unilatérale). D’une
autre part, l’assurance des dépôts suppose qu’un gouvernement est toujours apte à
lever les taxes nécessaires pour financer les demandes de liquidité. Ce qui permet de
sauvegarder la richesse de chacun en évitant les ruées bancaires.
Les conclusions économiques importantes à retenir de ce travail sont les suivantes : •
les banques qui reçoivent des dépôts et accordent des crédits présentent un modèle
économique efficace pour partager le risque entre les différents agents qui
consomment aléatoirement à différentes périodes.
Deuxièmement il existe un équilibre indésirable où l’ensemble des agents retirent
leurs dépôts conduisant ainsi à une ruée bancaire, même si certains d’entre eux
préféreraient conserver l’argent sur leurs comptes s’ils n’étaient par concernés par une
faillite possible de la banque. Troisièmement les ruées bancaires créent des problèmes
économiques considérables, car des banques saines peuvent faire faillite causant le
remboursement anticipé des crédits et l’arrêt de production des actifs illiquides.
Douglas a souligné que la banque est lancée dans une variété de services, mais elle
occupe trois rôles qualifies essentiels : Service Actif – Service Passif -Service de
Transformation. La combinaison de ces trois services permet de maîtriser le risque
des ruées bancaires.
1-Contrats et Firmes :
Le cadre de réflexion de Hart pour la théorie de la firme a commencé par la critique
de la pensée néoclassique qui considère la firme comme une boite noire dans un
marché financier libre de toute transaction, avec une vision qui exclut tout conflit
d’intérêts et qui manque de tout aspect de la gestion interne de l’entreprise, telles que
les décisions de rémunération, ou de financement de ses activités, mais aussi la nature
des contrats entre les parties prenantes de la firme soit interne ou bien externe.
C’est avec Coase en 1937, qu’on a remis en cause la théorie néoclassique avec la mise
en œuvre d’une théorie de la firme basée sur les couts de transaction, mais ce
développement reste limité, car il ne donne pas une explication satisfaisante sur la
différence entre les couts des transactions réalisés au sein de l’entreprise ou
Par l’intermédiation du marché qui nécessite l’élaboration d’un contrat entre les
parties prenantes.
Williamson en 1971, vient pour approfondir ses recherches pour améliorer la théorie
de la firme, en étudiant la relation entre les deux parties prenantes de l’investissement,
qui rédigent un contrat à long terme, d’ailleurs elle peut être rigide à toute
renégociation par la suite. Williamson, pour résoudre ce problème dit « hold-up »,
favorise l’investissement au sein de l’entreprise par l’internalisation des taches
nécessaires à
l’activité de l’entreprise et que la négociation sera remplacée par l’autorité. La théorie
de Williamson en s’appuyant sur l’incomplétude des contrats va réaliser d’importante
avancée dans la théorie de la firme, et va constituer une base de recherche pour
l’économiste mathématicien O. Hart.
Avant de présenter l’apport de Hart sur la théorie de la firme, il faut d’abord
s’appuyer sur ses apports concernant l’incomplétude des contrats.
a. Contrats incomplets :
On procède à la signature d’un contrat à long terme entre les parties prenantes
concernées, à travers une situation présente, cependant dans un cadre qualifié de long
terme et d’incertain, on ne peut pas prévoir les circonstances futures ni les conditions
particulières de la production de ce projet, ce fait, rédiger un contrat complet qui
prend en considération toutes les contingences futures devient difficile. Les parties
prenantes peuvent renoncer à cet investissement à cause de ce problème, et ça peut
créer un sous-investissement. En lus de ça, même en prévoyant la situation future du
contrat, on ne peut pas parfaitement estimer les couts engendrés de cet investissement
de manière complète dans le contrat. Hart et Moore en 1998 montrent que lorsque le
contrat ne peut être renégocié, des contrats complexes avec l’introduction des
messages entre les parties prenantes n’améliorent pas leur investissement.
Pourtant Maskin et Tirole en 1999 contestent à la pensée de Hart en proclamant que
même si les circonstances futures ne peuvent pas être déterminées, la capacité des
parties prenantes à déterminer leur profit donne au contrat un caractère complet. Hart
et Moore répondent dans la même année, que ce constat, n’est pas valide lorsque les
parties contractantes ne peuvent pas renégocier le contrat.
Toutes ces observations se sont basées sur l’hypothèse que les acteurs sont rationnels.
Plus récemment, la pensée de Hart relâche cette hypothèse, et utilise les aspects de
l’économie comportementale des agents pour étudier les contrats incomplets.
Hart et Moore incitent les parties contractantes de signer des contrats incomplets afin
d’éviter les mauvaises surprises dans le futur.
Grâce aux travaux des deux chercheurs, "nous avons maintenant les outils pour
analyser non seulement les termes financiers des contrats, mais aussi l'allocation
contractuelle des droits de contrôle, des droits de propriété, et des droits de décision
entre les parties.
La théorie des contrats incomplets a un rôle inédit sur la pensée économique, elle
constitue jusqu’aujourd’hui un débat acharné entre les théoriciens, elle a permis
d’expliquer la structure de propriété optimale d’une entreprise, la nécessité de
contrôler les dirigeants et les inciter à prendre des initiatives.
b.théorie de la firme :
Comme nous avons vu ci-dessus, les deux théoriciens Williamson et Coase, remettent
en cause la pensée néoclassique de la firme et celle des contrats complets, mais ils
laissent plusieurs aspects sans réponse dont la source d’autorité et les couts de
l’intégration d’un investissement.
Crossman et Hart viennent en 1986 pour étudier ces deux aspects, en expliquant que
le droit de propriété d’un bien ou investissement revient à la partie prenante qui
détient un contrôle résiduel lors de la signature d’un contrat incomplet, c’est-à-dire un
contrôle qui porte sur des décisions non spécifiées dans ledit contrat. Crossman et
Hart montrent que la source de l’autorité dans un contrat découle de la propriété du
bien ou d’investissement qui fait objet du contrat. Donc une entreprise peut au lieu de
secontracter pour un investissement, essayer de l’intégrer dans son patrimoine
physique interne pour garantir son contrôle.
2- La finance d’entreprise :
Les travaux de Hart dans la finance d’entreprise a permis de mieux comprendre les
contrats d’endettement et leur impact sur l’activité au sein de l’entreprise, ainsi que
l’allocation des droits de contrôle et la prise de contrôle des entreprises.
a. Contrats de dettes :
Hart et Crossman ont focalisé leurs études sur les contrats de dettes et leurs influences
sur la gestion et les décisions des dirigeants. Ils modélisent l‘idée que l’endettement
peut permettre à des dirigeants d’exercer une discipline et une autorité sur les
dirigeants, en s’assurant que l’activité de l’entreprise va permettre sa solvabilité. Dans
le cadre des contrats de dettes incomplets, c’est-à-dire qu’ils ne permettent pas de
savoir le les contingences futures du profit.
Hart et Moore développent une théorie d’allocation optimale de la structure financière
de l’entreprise, notamment l’allocation entre les dettes à court et à long terme. Ils
proposent aussi une théorie d’une structure financière basée sur la limitation des
dettes à court terme et favoriser les dettes à long terme pour inciter les dirigeants à
mieux gérer les firmes pour le profit des actionnaires.
b. Allocation contingente entre des droits de propriété, contrats financiers et loi sur les
faillites :
Hart développe avec son étudiant Bolton l’importance de l’allocation contingente des
droits de contrôle en mettant en place une théorie pour combattre les situations de
faillites, en partant de l’idée de convertir les dettes en actions ou en options d’achat
d’actions et de revendre ces actions après déduction de dettes, selon Hart, ce
processus est efficace rapide et encourage les dirigeants à tenir des risques et
maximiser la valeur de l’entreprise.
c.Prises de contrôle et droits de vote des actionnaires :
Généralement dans une société où le capital est dispersé entre plusieurs actionnaires
qui détiennent tous des droits de vote et de contrôle du dirigeant, se pose le problème
de manque de gouvernance de ces actionnaires, les actionnaires minoritaires comme
majoritaire ne souhaitent pas prendre la responsabilité du contrôle. Face à cette
situation, un acheteur potentiel va prendre ce droit de contrôle, et en améliorant le
contrôle de gestion de l’entreprise ainsi que sa performance, il peut revendre ses
actions à un prix plus élevé que celui de l’achat.
Cependant pour Crossman et Hart, ce cas est valide que si cet acheteur devient un
actionnaire majoritaire, c’est-à-dire il doit acquérir en moins la moitié des actions de
l’entreprise.
Le résultat de Crossman et Hart repose sur deux hypothèses :
- Les actionnaires connaissent les capacités et les stratégies du dirigeant.
- L’actionnariat est dispersé.
Les résultats obtenus de leur recherche montrent que la présence d’un actionnaire
important augmente la valeur de la firme. Si un actionnaire est majoritaire, il va
vouloir contrôler seul le dirigeant, ce qui peut donner un effet facilitant le contrôle
dans l’entreprise
d.Droits de contrôle et allocation des revenus :
La relation entre le droit de contrôle exprimé par les droits de votes, et l’allocation des
revenus de ces actions semble être complexe. Généralement, un droit de vote est
attribué à chaque action, on trouve des cas particuliers où les entreprises ne donnent
aucun droit de vote ou donnent un double vote par action. Dans le cas où le capital de
l’entreprise est dispersé, la répartition d’un droit de vote par action serait optimale,
mais dans le cas où le capital est concentré dans les mains d’un ou deux dirigeants,les
actionnaires sans droit de vote ne vont pas être intéressés que par la valeur de la firme.
Donc la règle d’un droit de vote par action n’est pas toujours optimale.
3- Réglementation et intermédiation :
Les répercussions de la théorie des contrats incomplets, vont jusqu’à la sphère
publique et la réglementation financière.
a. Privatisation des services :
La problématique soulevée dans la théorie de Hart concernant la privatisation
d’entreprises et de services étatiques est la suivante : Est-il préférable qu’un service.
soit fourni par une entreprise privée ou publique ?
Hart et Al. Donnent l’exemple de l’Etat et la prison ; L’Etat peut offrir à une
entreprise privée la mission de la gestion d’une prison et fixer par contrat les services
que cette entreprise doit fournir, bien que ce contrat est de nature incomplète, car les
couts et les bénéfices de la privatisation peuvent varier ; l’entreprise peut par exemple
décider d’engager des cadres et des gardes moins qualifiés que ceux désirés par l’Etat.
Pour Hart, la privatisation de certains services par l’Etat est une mauvaise solution,
car elle diminue leur qualité.
b.Réglementation financière :
Grâce à la crise de « Surprimes » de 2008, Hart s’est focalisé dans sa recherche sur la
réglementation financière, cette dernière est pour lui difficile à justifier que d’autres
types de réglementations, il part de la critique de la réglementation Sarbanes-Oxley
mise en place en 2002 en Etats-Unis, que ses arguments ne sont pas pertinents, car
cette réglementation était due juste à une pression politique provisoire dans les
Etats-Unis.
Hart et Zingales proposent un mécanisme basé sur le prix des Credit Default Swap
(CDS), sont des produits dérivés de crédit qui jouent le rôle d’assurance. Ils
permettent de se protéger contre le non remboursement d’une dette à long terme, ainsi
ils appréhendent le risque de faillite de la banque de manière plus adéquate. Cet agent
qui constitue le cœur du circuit économique.
Luigi Zingales: Une vision partenariale, politique et sociale de la gouvernance
Parmi les préoccupations majeures de l’auteur ZINGALES c’est le domaine de la
gouvernance des entreprises à travers sa thèse, ou on trouve que ce penseur a
contribué significativement dans ce domaine par la mise en œuvre de plusieurs
réflexions relatives à la
structure financière et les contraintes financières des firmes, le rôle du financement
dans la croissance, la décision d’introduction en bours., ainsi qu’il a développé une
réflexion politique sur le rôle des institutions et les évolutions de capitalisme.
ZINGALES a apporté une pensée novatrice dans deux domaines, le premier
synthétise ses apports à la compréhension de la gouvernance d’entreprise, le second
présente ses réflexions
sur le système financier et e capitalisme.
1. Le chercheur en gouvernance et en finance d’entreprise :
Cet auteur a apporté des nouvelles réflexions qui sont liées à la finance d’entreprise,
parmi ses contributions au niveau de cette discipline est celle de dépasser le modèle
centré sur la relation
entre actionnaires et dirigeants, mais il a traité aussi des questionnements liés aux
décisions financières de la firme.
Ces réflexions menées par ZINGALES sont présentées comme suit :
1.1 Un modèle partenarial de la gouvernance des entreprises :
Le modèle théorique proposé par ZINGALES s’inscrit dans une trajectoire de travaux
consacrés à l’entreprise managériale, contrairement aux travaux des autres auteurs qui
restent
trop centrés sur la relation entre actionnaires et dirigeants.
-Trois nouveaux facteurs impliquent de dépasser ce cadre :
Le déplacement des sources de rentes qui sont désormais plus fortement reliées au
capital humain et à l’innovation qu’aux actifs physiques et à l’intégration verticale.
L’émergence de nouvelles formes organisationnelles qui en découlent.
La prise en compte de nouveaux éléments dans les travaux de recherche en théorie
des organisations et en finance et gouvernance.
Dans cette perspective, ces travaux ont porté essentiellement sur l’origine de la rente
organisationnelle générée et à sa répartition entre les facteurs contribuant à la
formation de cette rente, ainsi que l’approche partenariale trouve son origine dans la
représentation de la firme comme équipe de facteurs de production dont la
combinaison est à l’origine de la rente organisationnelle.
Dans cette vision de la firme, le capital humain joue un rôle central contrairement aux
approches antérieures fondées essentiellement sur le capital physique, ce qui lui a
conduit à promouvoir un système de gouvernance partenariale qui intègre un système
de pouvoir qui va intégrer sa vision de la transformation des firmes en répertoires
d’investissement spécifiques qui restent cependant inscrite dans le paradigme
contractuel.
I. La finance comportementale :
Nous avons choisi de porter notre attention sur l’explication psychologique des
marchés financiers, souvent appelée finance comportementale, non parce que cette
théorie rencontre un intérêt étonnant chez les financiers, qu’elle fait l’objet d’un
nombre croissant de publications dans les revues de premier rang, qu’elle a été
propulsée au-devant de la scène par l’éclatement de la bulle Internet en 2000, ou
encore qu’elle a définitivement acquis ses lettres de noblesses par l’attribution du prix
nobel d’économie, lundi 9 octobre, à l’Américain Richard H. Thaler,de l’université de
Chicago, pour ses travaux sur les mécanismes psychologiques et sociaux à l’œuvre
dans les décisions des consommateurs ou des investisseurs, l’attribution à toucher
d’autres économiste telle que Daniel Kahneman et Vernon Smith en 2002 pour leurs
travaux dans ce domaine, mais parce que la finance comportementale est bien plus
qu’une théorie alternative à la finance classique. C’est une façon révolutionnaire
d’appréhender le processus décisionnel que tout humain doit constamment effectuer.
Conçue à l’origine pour
fournir une meilleure explication des marchés financiers, l’approche comportementale
a en réalité un potentiel insoupçonnable. L’étude de Thaler porte principalement sur le
comportement des investisseurs lors de leurs prises de décisions.
Richard H. Thaler a montré comment certaines caractéristiques humaines, comme les
limites de la rationalité et les préférences sociales, « affectent systématiquement les
décisions individuelles et les orientations des marchés », tout en illustrant combien
l’aversion aux pertes peut expliquer pourquoi les individus accordent une plus grande
valeur à une chose s’ils la possèdent que s’ils ne la possèdent pas, un phénomène
appelé ‘ l’aversion à la dépossession ’.
Chose importante c’est que Thaler a notamment théorisé le concept de comptabilité
mentale expliquant la façon dont les individus simplifient la prise de décision en
matière financière, en créant des cases séparées dans leur tête, en se concentrant sur
l’impact de chaque décision individuelle plutôt que sur l’effet global.
2) Synthèse du passage :
Travaux sur la remise en cause de l’efficience des marchés :
Malgré l’obtention de son prix Nobel en économie la même année qu’Eugene Fama
en 2013 ; Robert Shiller a une vision carrément différente que ce dernier en ce qui
concerne l’efficience des marchés.
Car, au contraire de ce que dit Fama, Shiller montre que les prix des actifs financiers
dévient systématiquement de la valeur fondamentale découlant des bénéfices futurs
anticipés.
Son premier papier sur la question, sorti en 1979 dans le Journal of Political Economy,
concerne le marché obligataire. Les résultats empiriques de ce papier mettent à mal
les modèles explicatifs de la structure à terme des taux d’intérêt fondés sur les
anticipations
rationnelles en montrant que la volatilité observée sur ce marché est bien supérieure à
ce que prédisent les modèles.
Shiller continuent de remettre en cause l’efficience en s’intéressant des marchés
d’actions en s’intéressant aux calculs des valeurs espérées des dividendes avec leur
valeurs réels ;
c’est la qu’il constate que la variance de l’indice est bien supérieur a celle de
l’espérance des dividendes espérés.
En 1987, Shiller retestent les modèles d’anticipations rationnelles à nouveau sur les
actions et obligation mais cette fois en utilisant un modèle de cointegration ; Les
résultats obtenus sont conformes à ceux de Shiller obtenus en 1979.
Cette volatilité excessive observée sur les marchés d’actions et sur les marchés
d’obligations est considérée par Shiller comme la preuve empirique de l’inefficience
des marchés.
*Facteurs psychologiques:
Shiller consacre deux chapitres de la dernière édition de son ouvrage « Irrational
Exuberance » (2015) aux facteurs explicatifs des bulles spéculatives qui sont d’ordre
psychologique ou social. Il est difficile de rendre compte de toute la profondeur de
l’analyse de Shiller en quelques lignes. Nous allons donc nous focaliser sur les
éléments les plus significatifs et/ou les plus originaux de l’approche de Shiller.
Les 2 facteurs psychologiques les plus important selon Shiller sont : Le phénomène
d’ancrage et le comportement moutonnier des investisseurs qui veut dire la tendance
d’imitation entre
investisseurs et donc le choix des mêmes investissements et actions ce qui est un
facteur psychologiques très important.
Biographie:
Andrei Shleifer d’une nationalité américaine, est né en 1961, dans l’ancienne Union
Soviétique. Ses parents étaient tous deux ingénieurs. Il émigra à Rochester aux
États-Unis en 1976. Il commença son cursus universitaire par un Bachelor of Arts en
mathématiques, obtenu à l’Université de Harvard en 1982, études au cours desquelles
il se lia d’amitié avec Bradford
DeLong, l’économiste financier bien connu, et assista à l’occasion, dans certains
travaux,Lawrence Summers futur secrétaire d’État au Trésor, alors
professeur-assistant au MIT, et qui jouera, ultérieurement, un rôle important dans la
carrière de Shleifer.
Ayant pris goût à l’économie, en particulier à travers les cours de macroéconomie
dispensés par Olivier Blanchard à Harvard, Shleifer abandonna les études de
mathématiques pour faire
une thèse en macroéconomie au MIT sous la direction de Peter Diamond (prix Nobel
d’économie en 2010). Sa thèse, soutenue en 1986, porta sur le thème The Business
Cycle and the Stock Market (Le cycle d’affaires et la bourse).
Sa carrière universitaire allait débuter par un poste de professeur-assistant en
économie à l’Université de Princeton (1986-1987).
Il quitta Princeton pour l’Université de Chicago, où il fut successivement
professeur-assistant en finance et en économie d’entreprise à la Graduate School of
Business de 1987 à 1989, puis professeur de 1989 à 1990. Lors de son séjour à
Chicago, il collabora étroitement avec Kevin Murphy et Robert Vishny, avec lesquels
il allait cosigner ultérieurement de nombreuses publications. En 1991, il allait
rejoindre l’Université
de Harvard comme professeur d’économie. Il poursuit actuellement ses activités
d’enseignement et de recherche dans cette même université.
Au-delà de ses activités universitaires, Andrei Shleifer a également été, de 1991 à
1997, conseiller auprès du président de la Russie Boris Yeltsin, dans le cadre d’une
équipe déléguée
par l’Université de Harvard et mandatée par le gouvernement américain pour aider au
développement de la Russie. Il intervint notamment auprès du vice-premier ministre
Anatoli Tchoubaïs, responsable des privatisations.
Enfin, Shleifer a fondé, en 1994, avec Josef Lakonishok, de l’Université de l’Illinois
et de Robert Vishny de l’Université de Chicago, un fonds d’investissement à Chicago,
LSV Asset Management, à destination des investisseurs institutionnels. Il a, par la
suite, cédé les parts qu’il détenait dans ce fonds.
Introduction :
L’auteur a élaborer des apports en matière de macrogouvernance, qui traitent des
différences entre systèmes nationaux et qui ont le plus contribué à la notoriété de
Shleifer, sont directement issus de ce questionnement.
L’autre grande catégorie d’apports s’appuie sur les travaux consacrés à l’inefficience
des marchés financiers en liaison avec la finance comportementale.
Dans cette perspective, l’essentiel des différences entre SNG trouve leur origine dans
les systèmes juridiques nationaux qui fixent les obligations légales des dirigeants
vis-à-vis des apporteurs de capitaux et régissent les conditions de leur exercice à
travers le fonctionnement des tribunaux et la capacité à faire exécuter les jugements
rendus.
L’intensité de la discipline exercée sur les dirigeants dépend prioritairement de la
qualité du système légal et cette qualité est une condition préalable pour assurer le
financement des
entreprises et le développement de l’économie. Cette perspective est à l’origine de
l’approche juridico-financière de la gouvernance – le courant Law and Finance – ou
théorie de l’origine
légale des SNG.
Jeremy C. Stein: La prise en compte des interactions des acteurs sur le marché
dans la finance comportementale
Notice biographique :
Jeremy Chaim Stein né le 17 Octobre 1960, il a obtenu une licence en économie en
1983 de l’Université de Princeton, en 1986 il a obtenu son doctorat en économie du
MIT. Il
commence sa carrière dans le secteur privé au sein de la banque Goldman Sachs avant
de se lancer au terme d’une année dans une carrière universitaire comme
professeur-assistant à
l’Université de Harvard. Ensuite il est devenu professeur au MIT (Sloan School of
Management) pendant 10ans et finit par occuper le poste de professeur de
management
(J.C. Penney Professor of Management) En 2000, il décide de revenir à l’Université
de Harvard où il est actuellement professeur de sciences économiques. Il enseigne à
tous les niveaux avec une préférence pour le programme de PhD et occupe un siège
au sein du conseil d’administration de l’entreprise Harvard Management Company.
En décembre 2011, Barack Obama a annoncé qu'il envisageait de nommer Jeremy C.
Stein sur le poste d’un des sept membres de la Réserve fédérale américaine. Cette
nomination a
été confirmée en mai 2012, Jeremy C. Stein reste membre du Federal Reserve Board
(FED) jusqu’en avril 2014. Il retrouve ensuite son poste à l’Université de Harvard.
Ces deux années
à la Banque centrale américaine l’ont influencé et incité à poursuivre des recherches
dans le domaine de la régulation financière et de la politique monétaire.
Jeremy C. Stein a été coéditeur des revues suivantes, Quarterly Journal of Economics
etJournal of Economic Perspectives. Il est membre de l’Académie américaine des arts
et des
sciences et chercheur associé au NBER (National Bureau of Economic Research). En
2008, il a été président de l’AFA (American Finance Association) et, en 2009, il a
servi comme
conseiller au Secrétaire du Trésor américain et fait partie du Conseil économique
national.
Il a orienté ses recherches essentiellement dans trois domaines : la finance
comportementale et l’efficience des marchés ; la politique financière des entreprises ;
la politique monétaire et la régulation financière. Qui mettent l’accent à la fois sur le
comportement des agents et leurs interactions. C’est l’apport essentiel de Jeremy C.
Stein à la recherche en finance.
Ces trois domaines représentent les différentes périodes de la carrière de Jeremy C.
Stein.
Alors on va traiter dans un premier temps l’analyse du comportement des
investisseurs sur les marchés, dans un deuxième temps l’analyse du comportement des
dirigeants en termes de politique financière des entreprises, et dans un troisième
temps l’analyse du comportement des institutions financières et des marchés.
Les suivantes font plutôt apparaître des anomalies en série temporelle (anomalies
calendaires, momentum, taux d’intérêt à
court terme et inflation, rendement en dividende, renversement de tendance, dérive
des taux de rentabilité à long terme après une annonce d’information publique). Les
dernières
anomalies sont liées aux comportements de groupes d’investisseurs (individuels,
fonds fermés, investisseurs institutionnels, etc.). Selon ces études, les taux de
rentabilité peuvent être prévisible sans risque supplémentaire ce qui peut générer des
opportunités d’arbitrage.
Ce dernier est une pratique qui consiste à acheter un actif et en vendre simultanément
un autre, afin de profiter d’une incohérence de prix entre les deux et générer un profit
certain.
Par contre Fama a souligné l’existence de facteurs de risque supplémentaires Hong et
Stein soulignent qu’il existe des limites à l’arbitrage qui sont liés à des frictions de
marché (coûts de transaction), des contraintes de liquidités ou des contraintes
institutionnelles (interdiction de vendre à découvert) et au comportement des
investisseurs.
Alors les chercheurs essayent de montrer l’origine de ces anomalies en mettant
l’accent sur le comportement de certains agents économiques, comportement qui ne
serait pas
totalement rationnel.
L’apport essentiel de la recherche de Stein repose sur deux éléments : D’abord, il a
rapidement compris que si les chercheurs souhaitaient faire perdurer le courant de la
finance comportementale, ils devaient se doter d’un cadre théorique général
permettant
d’expliquer tous les phénomènes de marché. Ensuite, il a également saisi (c’est
l’apport essentiel de Stein à la finance comportementale) que sur les marchés
financiers, il n’y avait
pas un seul agent représentatif ayant un ou plusieurs biais cognitif (biais
psychologiques qui
représentent façon rapide de prendre des décisions) , mais une pluralité d’acteurs en
interaction avec une rationalité plus ou moins forte allant d’investisseurs naïfs
incapables
d’inférer l’information jusqu’à des gérants de fonds pratiquant l’arbitrage dans les
limites du possible.
1.1. Une approche comportementale des marchés financiers
De nombreuses études ont mis en évidence les anomalies des rendements basées sur
les
stratégies de transaction élaborées sur les marchés financiers. Le modèle de Hong et
Stein
(1999) montre l’effet momentum et à l’effet de renversement de tendance à long
terme.
«effet Momentum» ou de continuation des rentabilités, se définit comme la tendance
des titres ayant enregistré une bonne (une mauvaise) performance par le passé à
enregistrer une bonne (mauvaise) performance dans le futur sur un horizon de trois à
douze mois. Les premiers à avoir mis en évidence cet effet sont Bernard et Thomas.
« L’effet de renversement de tendance à long terme » a été établit par DeBondt et
Thaler qu’ils ont montré que les rentabilités des titres ont tendance à s’inverser sur des
périodes
d’étude longues (à un horizon de cinq ans), et par conséquent les lauréats passés ont
tendance à devenir des futurs perdants de 25% en moyenne.
Hong et Stein divisent les investisseurs dans le marché financier en deux catégories
qui ne sont pas entièrement rationnels :
les newswatchers ceux qui négocient exclusivement sur la base de l'information
privée relative aux données fondamentales des titres sans prendre en compte tout
l’environnement informationnel. Ils se focalisent sur l’information imparfaite qu’ils
ont reçue alors ils ne sont pas complètement rationnels.
Hong et al ont trouvé une justification de ce phénomène , en effet les investisseurs
font face à une grande quantité d’information qu’ils ne parviennent pas à digérer. Ils
se focalisent sur une petite partie de l’information.
Les momentum traders ceux qui se basent uniquement sur l'évolution récente des prix.
Ils interviennent sur le marché avec des contraintes de rationalité et deréglementation.
Hong et Stein (1999) font l’hypothèse qu’ils exploitent la sous-réaction du marché,
mais en ayant des stratégies d’arbitrage simple fondées seulement sur la variation
des prix passés. Les news watchers rentrent dans le marché en observant une
augmentation des prix sur la base d’une information positive, par contre les
momentum traders vont pénétrer le marché en observant un accroissement des
prix,cette augmentation du prix pour eux représente une conséquence d’une
augmentation de demande.
1.2. L’effet des interactions sociales sur les marchés financiers
L’interaction entre les investisseurs peut prendre différentes formes, soit sur les
marchés directement via les transactions soit via le bouche-à-oreille. L’interaction sur
les marchés peut prendre la forme de mimétisme (l’imitation) des
investisseurs. Froot et al. montrent que les spéculateurs de court terme échangent sur
la base d’une information privée. D’autres suivent ces spéculateurs et déduisent la
même information à partir des prix. Alors les premiers spéculateurs qui vont échanger
peuvent profiter de leurs gains lorsque l’information est complètement intégrée dans
les prix. Cela peut donner des inefficiences car les spéculateurs de court terme se
focalisent sur un ensemble réduit d’informations qu’ils ont déduit à partir des prix.
Pour l’interaction via le bouche-à-oreille peut avoir un effet bénéfique sur les marchés
car elle peut favoriser la participation au marché. Hong et al. ont testé ce modèle
grâce à une
base de donnée du plan santé et retraite, ils prouvent que le voisinage incite les
individus à investir dans les marchés financiers. Stein à son tour a montré à travers
d’un modèle fondé
sur la conversation entre des compétiteurs, que les agents ont intérêt à communiquer
de manière honnête, et à ne pas mentir pour ne pas élaborer ensuite des arguments sur
la base
de mensonges.
DES ENTREPRISES
2.2. L’impact des conflits d’agence sur les décisions financières des entreprises
Les conflits d’agence entre les dirigeants et les investisseurs peuvent être liés à la
divergence de leurs intérêts et peuvent aussi conduire les dirigeants à surinvestir ou
sous-investir dans certaines situations. Stein à identifier ces situations :
Premièrement, les dirigeants peuvent souhaiter construire des empires industriels,
commerciaux ou financiers en surinvestissant pour le but de diversifier les risques. Et
les actionnaires ne sont pas toujours d’accord avec ce genre de stratégie.
Deuxièmement, les dirigeants peuvent aussi chercher une vie sans risque
Troisièmement, les dirigeants peuvent développer une stratégie myope, ce qui peut les
conduire à sous-investir. Selon Stein, les dirigeants parfois ont ont une vision
court-termiste de l’entreprise, cette stratégie consiste à gonfler artificiellement le
résultat trimestriel à court terme au détriment de la valeur de long terme à travers la
réduction des charges. Ça peut être incohérent avec les objectifs des actionnaires.
Stein montre, cependant, que le
comportement myope des dirigeants peut appauvrir les actionnaires sur le long terme.