À procura de textos e pretextos, e dos seus contextos.

09/06/2009

Une proposition pour repenser la « constitution » des marchés financiers

Jacques-Olivier Charron

Sous des dehors parfois complexes, la régulation des marchés financiers repose sur une idée simple : il faut et il suffit que tous les investisseurs soient correctement informés pour que tout aille bien. Par « aller bien », on entend que les actifs financiers s’échangent à leur valeur fondamentale. Cette idée, qui fonde en quelque sorte la « constitution » des marchés financiers, est basée logiquement sur les deux présupposés suivants :

- il existe une vérité objective de la valeur des actifs financiers, que l’on qualifie de « valeur fondamentale ». « Vérité objective de la valeur » signifie ici une valeur parfaitement indépendante de ce que pensent et décident les investisseurs, ces derniers étant définis comme les acteurs qui prennent effectivement les décisions d’achat et de vente de titres.

- il existe un ensemble fini d’informations, que le régulateur est capable d’identifier et de délimiter, qui permet d’estimer la valeur fondamentale définie en ce sens.

Les problèmes que posent ces hypothèses découlent avant tout de la nature même de ces biens très particuliers que sont les actifs financiers : ce sont des promesses de revenus futurs. Dire qu’ils ont une valeur objective, c’est dire que le futur, en tout cas tout ce qui dans le futur aura un impact sur ces revenus, est objectif. A la suite d’André Orléan, nous considérons cette « hypothèse d’objectivité du futur » comme intenable.

A partir de là, comment refonder la régulation des marchés financiers sur des bases différentes ? Cette régulation existe avant tout pour s’assurer que ces marchés respectent une forme de bien commun. On peut repartir de l’argument le plus général que l’on donne pour justifier l’existence des marchés financiers : la négociabilité des risques. Il consiste à dire qu’en rendant liquides, donc négociables sur un marché, des biens tels que des titres de propriété, des parts d’emprunt, ou des produits dérivés sur ces biens, on réduit le risque pour les détenteurs de ces biens. Le point que nous soulignons alors est qu’en même temps que la négociabilité de ces titres est instaurée, est instaurée aussi la façon dont leurs prix sont produits, sur la base d’un mode d’interdépendance liant les investisseurs entre eux. Nous proposons, à partir de là, une dissociation entre négociabilité et valorisation.

Il peut exister en effet des biens qui soient formellement négociables mais dont le prix soit fixé par une autorité extérieure. Dans le cas des actifs financiers, on aurait le droit d’en acheter ou d’en vendre, mais à la condition de trouver une contrepartie qui accepte de conclure la transaction à ce prix fixé par cette autorité. Leur négociabilité, réductrice de risques, serait préservée ; en revanche la volatilité de leur valorisation, importante source de risque, serait fortement diminuée.

Notre proposition se fonde sur l’idée que la valeur des actifs financiers présente deux caractéristiques remarquables :

- c’est un enjeu pour la collectivité, pour la société dans son ensemble.

- il n’y a pas de vérité objective ou scientifique de cette valeur.

Les objets présentant ces deux caractéristiques sont des objets politiques. L’autorité dont nous parlons serait donc une instance politique, soit directement élue, soit désignée par des élus. En même temps sa procédure de décision inclurait l’écoute des arguments des différentes parties prenantes, le recours à une expertise ou à différentes formes d’expertise. Elle serait plus proche d’une procédure judiciaire que d’une procédure parlementaire. Il s’agit en somme de concrétiser sous une forme institutionnelle le fait que la valorisation d’un actif financier résulte d’un jugement, et que ce jugement a des conséquences pour la collectivité.

Le développement de notre idée part d’une discussion de la théorie de l’efficience informationnelle, qui constitue le fondement académique de l’ « idée simple » dont nous parlions au départ. Après une critique de cette théorie menée dans le cadre de sa propre épistémologie, nous avancerons une réflexion sur ce qui fait qu’on y a toujours recours en pratique, avant de développer un peu plus notre proposition alternative sur la régulation.

L’efficience informationnelle comme « constitution » de la finance : critique théorique, compréhension pratique, proposition d’alternative

Essai sur le fondement théorique de la régulation des marchés financiers

Introduction

Le fondement théorique principal de la régulation des marchés financiers est la théorie de l’efficience informationnelle. De façon générale il réside dans le raisonnement suivant lequel la diffusion de l’information pertinente aux investisseurs leur permet d’estimer la valeur fondamentale des actifs, et que c’est ce qui permet in fine à la valeur cotée sur les marchés de ces actifs financiers de ne pas s’éloigner durablement de cette valeur fondamentale. Cette idée se décline en particulier dans ce que nous avons appelé par ailleurs l’idéologie de la transparence (Charron, 2004) qui renvoie à la fois à l’idée que la diffusion de l’information est destinée aux investisseurs pour leur permettre d’accéder à la vérité de la valeur des actifs financiers, et que cette vérité de la valeur, cette valeur fondamentale ou intrinsèque a un caractère objectif (1).

L’efficience informationnelle est une des deux principales acceptions de l’hypothèse de marchés efficients, l’autre étant l’efficience technique que l’on peut résumer par l’idée qu’un investisseur ne peut pas « battre le marché », ne peut obtenir un rendement supérieur à celui du marché, en tout cas pas de façon durable et significative (Bourghelle, Brandouy, Orléan, 2005) (2).

L’hypothèse d’efficience informationnelle, seule, permet de fonder théoriquement la politique des régulateurs. L’efficience technique ne peut pas jouer ce rôle puisqu’elle n’établit pas de lien entre information, valeur fondamentale et évolution des cours : elle se contente de poser que cette évolution obéit à certaines caractéristiques statistiques. C’est donc la théorie de l’efficience informationnelle qui sert en quelque sorte de « constitution » aux marchés financiers (3).

Il en résulte que les crises financières sont aujourd’hui pensées par les régulateurs, mais aussi bon nombre d’économistes et de responsables gouvernementaux, comme résultant de problèmes de transmission d’informations.

Ces crises sont des périodes de remise en cause de la valorisation des actifs financiers : les actions d’Enron ou de WorldCom, les actions des start-up ou plus largement des entreprises de haute technologie, les produits dérivés issus de la titrisation de différentes formes de crédit et par ricochet les valeurs financières et immobilières ont été plus ou moins soudainement considérés comme grossièrement surévalués. Tout cela ne serait pas arrivé, pense-t-on, si l’information permettant la valorisation correcte de ces titres avait été diffusée à tous.
Cette façon d’appréhender les crises financières n’est en un sens pas nouvelle. Les présenter en expliquant que les investisseurs ont été trompés ou abusés est très classique, et cela renvoie implicitement à l’idée qu’ils n’ont pas eu la bonne information, celle qui leur aurait révélé la vérité objective de la valeur. Ce qui est plus récent, c’est la justification théorique de ce cadre interprétatif et la façon dont cette théorie est traduite et mise en œuvre par des institutions et dans des réglementations. C’est ce qui donne sa force et sa prégnance particulière à des versions formalisées et rigoureuses de cette vieille idée.

Il semble qu’après chaque crise les régulateurs et les membres de la communauté financière (gérants, brokers, analystes, investisseurs institutionnels…) font des hypothèses sur les informations qu’ils auraient dû avoir et qui, pensent-ils, auraient pu permettre de l’éviter ; les autorités de régulation édictent des recommandations et mettent en œuvre des réglementations qui découlent de ces hypothèses, jusqu’à l’arrivée d’une nouvelle crise qui amène à se reposer les mêmes questions, parfois sous des formes différentes. Il s’avère, en somme, qu’encore une fois les investisseurs n’avaient pas l’information qu’ils auraient dû avoir…

Nous examinerons d’abord la question de la validité scientifique de la théorie de l’efficience informationnelle, avant de se pencher sur le rôle que lui font jouer les acteurs qui font vivre les marchés financiers et sur ce qui peut expliquer ce rôle. Nous conclurons en essayant d’esquisser de quelle façon la régulation des marchés financiers pourrait être repensée sur la base des impasses auxquelles semble se heurter son fondement théorique traditionnel.

1. Les limites de la théorie de l’efficience informationnelle

Une différence majeure entre efficience technique et efficience informationnelle est que la première n’est qu’un modèle descriptif alors que la seconde est un modèle explicatif. La première nous dit essentiellement que l’évolution des cours est imprévisible et suit une marche au hasard, ce qui implique que tout pari directionnel est voué à l’échec ; il s’agit d’une caractérisation statistique, donc d’une description de l’évolution des cours. La seconde nous dit que l’évolution des cours reflète celle de la valeur fondamentale des titres via la prise en compte de l’information, qui permet d’estimer cette valeur fondamentale ; l’évolution de cette dernière est donc le facteur explicatif unique de l’évolution des cours. Walter (1996) a relevé chez Fama (1965, 1970) ce passage du descriptif (déjà présent chez Bachelier (1900)) à l’explicatif.

En situation d’efficience informationnelle, les cours reflètent à tout instant l’information disponible et, dans la mesure où cette propriété est vérifiée, ils sont aussi à tout instant les meilleurs estimateurs de la valeur fondamentale des titres.

Cette hypothèse a été déclinée par Fama (1970) sous trois formes différentes, suivant le type d’information qui est instantanément intégré dans le cours : dans l’efficience faible, seule l’information sur l’historique de cours est instantanément intégrée ; dans l’efficience semi-forte, toute l’information publique sur les titres est elle aussi instantanément intégrée ; enfin, dans l’efficience forte, absolument toute l’information, même privée et confidentielle, est instantanément intégrée. Une information qui n’est pas instantanément prise en compte, intégrée dans le cours, est une information dont un investisseur peut tirer parti. Elle seule permet en effet d’anticiper l’évolution de la valeur fondamentale et donc de tirer profit d’un pari directionnel puisqu’il existe dans ce cas un écart temporaire entre cours et valeur fondamentale.

Ce qui fonde la validité d’une hypothèse de ce type, c’est la possibilité de la tester de façon concluante. C’est particulièrement vrai dans le cas qui nous occupe. En effet, la position épistémologique de Milton Friedman, dans le sillage duquel se sont situés les fondateurs de la théorie de l’efficience, était de type instrumentaliste, inspirée du positivisme logique du Cercle de Vienne, ce qui implique notamment que la validité scientifique d’une théorie ne repose pas sur le réalisme de ses hypothèses mais sur sa capacité à fonder des prédictions testables. C’est ce qui fonde l’ « économie positive » friedmanienne. La discussion de la validité scientifique de la théorie de l’efficience informationnelle est donc une discussion de son mode de test.

On pourrait penser spontanément que la meilleure façon de tester l’efficience informationnelle serait de comparer directement évolution du cours et évolution de la valeur fondamentale pour un actif financier (ou une classe d’actifs financiers) donné(s). C’est ce qu’a tenté de faire en particulier Shiller (1981), qui a réalisé ce test avec trois définitions différentes de la valeur fondamentale. Il ressortait clairement de cette recherche que, dans tous les cas, la volatilité des cours était beaucoup plus marquée que celle de la valeur fondamentale, en tout cas à un degré qui semblait permettre d’invalider la théorie de l’efficience informationnelle. Une partie importante de l’évolution des cours paraissait clairement décorrélée de la valeur fondamentale.

En pratique, le test de l’efficience informationnelle ne se fait généralement pas de cette façon. On chercher plutôt à identifier des rendements anormaux. Pourquoi ?

Pour comprendre d’où vient le test sur la base des rendements normaux, il faut revenir à la façon dont l’efficience a été formalisée par Fama (1970) en s’appuyant sur des travaux de Samuelson (1965) et Mandelbrot (1966). Ces travaux ont utilisé des modèles de jeu équitable qui sont une généralisation du modèle de marche au hasard initialement développé par Bachelier (1900). Fama définit ces modèles comme suit :

« Most of the available work is based only on the assumption that the conditions of market equilibrium can (somehow) be stated in terms of expected returns. In general terms, […] such theories would posit that conditional on some relevant information set, the equilibrium expected return on a security is a function of its “risk”. And different theories would differ primarily in how “risk” is defined.” (Fama, 1970, p. 384)

Le « rendement d’équilibre espéré » obtenu sur un marché financier par un investisseur rémunère le risque qu’il prend sur ce marché. Ce risque est défini par un modèle de jeu équitable. Fama revient ensuite plus précisément dans une note sur ce qui caractérise ce type de modèle :

“the “fair game” properties of the model are implications of the assumptions that (i) the conditions of market equilibrium can be stated in terms of expected returns and (ii) the information is fully utilized by the market in forming equilibrium expected returns and thus current prices.” (Fama, 1970, p. 385)

On observe ici le type de lien entre modèle de jeu équitable et intégration de l’information : ce type de modèle pose par hypothèse que l’information est pleinement et instantanément intégrée. Par conséquent tester ce type de modèle c’est aussi tester l’intégration instantanée de l’information. Or le test d’un modèle de jeu équitable se fait en observant si des écarts se manifestent par rapport à la rémunération du risque, au « rendement d’équilibre espéré » qu’on appellera par la suite plus simplement rendement normal. La rémunération du risque équivaut par hypothèse à l’intégration complète et instantanée de l’information pertinente ; il en découle que l’observation de rendements s’écartant de cette rémunération, en d’autres termes de rendements anormaux, signifie que de l’information n’a pas été intégrée complètement et/ou instantanément.

L’évolution de la valeur fondamentale est, nous l’avons dit, le seul facteur explicatif de l’évolution du cours dans ce cadre théorique. Pour comprendre comment Fama établit le lien entre explication des mouvements de cours par des mouvements de la valeur fondamentale et intégration de l’information testée à l’aide d’une modélisation du risque, il faut revenir aux textes (Fama, 1965, 1970) pour voir plus précisément comment cette notion de valeur fondamentale y est comprise et reliée à une modélisation probabiliste.

Le fait est que l’efficience informationnelle a été pensée par Fama et ses successeurs comme assurant que le cours représente une valeur fondamentale pensée comme objective, i.e. indépendante du fonctionnement du marché et de ce que peuvent décider ou penser ses acteurs. Si l’information est intégrée (et c’est ce qu’on teste en regardant s’il y a des rendements anormaux), alors le cours reflète la vérité de la valeur, une valeur fondamentale objective. Mais alors c’est ce fait qu’il faut expliquer : pourquoi a-t-on besoin de poser dans ce cadre ce qu’Orléan (2005) a justement appelé l’ « hypothèse d’objectivité de la valeur » ?

Il nous semble que la réponse est liée au passage du descriptif à l’explicatif dont nous avons déjà parlé : les mouvements de cours ayant été décrits par Bachelier (1900) sur le mode d’un phénomène objectif relevant des sciences de la nature et Fama reprenant à son compte ce mode de description, ils ne pouvaient à partir de là être expliqués que par un facteur posé comme tout aussi objectif et « naturel » (4). L’objectivité dont il est question ici est avant tout extériorité totale par rapport aux acteurs : les acteurs sont face à ce phénomène, qui leur est extérieur, ils n’en sont pas partie prenante. C’est parce que Fama a repris à son compte la compréhension, initiée et formalisée par Bachelier, des mouvements de cours de Bourse comme totalement extérieurs aux acteurs qu’il ne pouvait penser un facteur explicatif de ce mouvement que comme tout aussi extérieur aux acteurs : la valeur fondamentale ne peut qu’être objective parce que ce qu’elle explique et qui la reflète est objectif.

L’idée générale exprimée par Bachelier dès 1900 est que les marchés « ne pensent rien », ne sont ni haussiers ni baissiers : il n’y a pas de tendance, les mouvements de cours s’effectuent de façon aléatoire et leur étude relève donc de l’étude du hasard telle qu’elle a été développée et formalisée par les approches probabilistes. C’est l’hypothèse de marche au hasard.

Bachelier part du fait que la fixation du cours pour une transaction sur un marché boursier confronte acheteurs (logiquement haussiers) et vendeurs (logiquement baissiers), et en déduit que le marché en tant que tel n’est ni haussier ni baissier : « pour chaque cours coté, il y a autant d’acheteurs que de vendeurs ». « le marché ne croit, à un instant donné, ni à la hausse, ni à la baisse du cours vrai. » On en déduit que « l’espérance mathématique du spéculateur est nulle. » Bachelier précise : « Si le marché, en effet, ne prévoit pas les mouvements, il les considère comme étant plus ou moins probables, et cette probabilité peut s’évaluer mathématiquement. » (Bachelier, 1900, cité par Walter, 1996, p. 877) (5).

Fama, dans son article de 1965, s’est notamment attaché à montrer que cette approche de la « marche au hasard » était compatible avec l’idée que les cours reflètent la valeur fondamentale des titres.

Le problème qu’il se pose est le suivant : si les déplacements de prix successifs sont indépendants, que peut-on dire sur ce qui détermine ces déplacements ? A cette réponse il ne voit que deux réponses possibles : soit les investisseurs se déterminent au hasard, suivant leur caprice (« whim »), soit ils sont concentrés sur l’estimation de la valeur fondamentale des actifs financiers. Le passage vaut d’être cité en entier :

« Independence of successive price changes for a given security may simply reflect a price mechanism which is totally unrelated to real-world economic and political events. That is, stock prices may be just the accumulation of many bits of randomly generated noise, where by noise in this case we mean psychological and other factors peculiar to different individuals which determine the types of “bets” they are willing to place on different companies. Even random walk theorists, however, would find such a view of the market un-appealing. Although some people may be primarily motivated by whim, there are many individuals and institutions that seem to base their actions in the market on an evaluation (usually extremely painstaking) of economic and political circumstances. That is, there are many private investors and institutions who believe (6) that individual securities have “intrinsic values” which depend on economic and political factors that affect individual companies.” (p. 36)

L’existence de la valeur fondamentale (« intrinsic value ») des titres est ici présentée comme une croyance dont on constate l’existence chez “beaucoup” d’investisseurs et d’institutions. Or, dès la phrase suivante, la valeur fondamentale cesse d’être une croyance observée pour devenir un fait dont l’existence est indiscutable : le problème qui se pose dans la relation entre théorie de la marche au hasard et valeur fondamentale, c’est qu’il faut montrer que la théorie de la marche au hasard est compatible avec l’existence indiscutée de la valeur fondamentale :
“The existence of intrinsic values for individual securities is not inconsistent with the random-walk hypothesis. In order to justify this statement, however, it will be necessary now to discuss more fully the process of price determination in an intrinsic-value-random-walk-market. Assume that at any point in time there exists, at least implicitly, an intrinsic value for each security.” (p. 36)

Nous pouvons ensuite constater que le travail de caractérisation statistique qui consiste dans cet article à tester l’hypothèse de marche au hasard revient à regarder à quelle type de loi obéit la série des déplacements de prix, en considérant en somme cette série exactement comme un phénomène dont l’objectivité est du type de celle qui est censée caractériser les sciences de la nature (variation de température, de pression etc.) (7).

Or on ne voit pas comment un phénomène objectif de ce type pourrait être expliqué par une croyance ou plus généralement par un facteur socialement construit : si le déplacement des cours, statistiquement caractérisé comme une marche au hasard, est considéré comme un phénomène naturel, il ne peut être déterminé que par un facteur tout aussi naturel et objectif que, par exemple, la pression atmosphérique ou la température extérieure.

Il est donc nécessaire, dans la logique de ce raisonnement, que, si le déplacement des cours est déterminé par un facteur quelconque, il faut que ce facteur existe « dans la nature », i.e. de façon totalement indépendante des acteurs et du fonctionnement du marché, antérieurement à l’échange (ex ante). Il faut que la valeur fondamentale de l’actif financier existe aussi sûrement que la température extérieure : le seul problème est de trouver un thermomètre qui fonctionne correctement. C’est parce que le naturel ne s’explique pas par le social que la valeur fondamentale ne peut être qu’un fait objectif et non une croyance observée.

Fama développe ensuite (p. 36 à 39) un raisonnement qui consiste à montrer que les deux propositions suivantes :

(1) les prix des titres suivent une marche au hasard

(2) les prix des titres reflètent à tout instant leur valeur fondamentale

sont compatibles, ce qui est contre-intuitif : on pourrait en effet penser, spontanément, que si les cours suivent leur valeur fondamentale, ils ne se déplacent pas au hasard. C’est de cette compatibilité (« consistent with ») que parle l’auteur lorsqu’à la fin de l’article il introduit la notion d’efficience. En d’autres termes il s’agit de montrer que l’explication (par la valeur fondamentale) est compatible avec la description (marche au hasard).

Le raisonnement est fondé essentiellement sur le rôle de l’arbitrage (8) : l’idée est qu’il existe sur le marché des intervenants plus avisés que d’autres (il parle à plusieurs reprises d’ « astute traders ») qui sont dotés d’une capacité particulière à estimer la valeur fondamentale des titres.

On peut résumer le raisonnement de Fama sur le lien entre cours et valeur fondamentale en trois propositions :

(1) la valeur fondamentale d’un actif financier existe ex ante.

(2) au moins une partie des intervenants sur le marché est capable de l’estimer.

(3) ces intervenants utilisent cette connaissance de la façon suivante : quand ils voient que le cours d’un titre s’écarte de sa valeur fondamentale, ils anticipent son retour à cette valeur et prennent des positions sur le marché en fonction de cette anticipation, ce qui ramène effectivement le cours à sa valeur fondamentale.

La proposition (3) présuppose la proposition (2), qui elle-même présuppose la proposition (1).

Reste que Fama, dans cet article, n’a fait que démontrer la compatibilité de la marche au hasard et de la détermination par la valeur fondamentale. L’article de 1970 ira plus loin en se fondant sur les modèles de jeu équitable (Samuelson, 1965 ; Mandelbrot, 1966) qui sont en fait des généralisations du modèle de marche au hasard sous la forme de modélisations du risque permettant de déterminer un rendement normal, notion servant dès lors de base aux tests d’efficience, comme nous l’avons vu. Ces modèles posent toujours l’intégration des informations, censée expliquer les variations de cours, comme un phénomène aléatoire : « si l’information arrive de manière imprévisible sur le marché, alors il est possible de modéliser les variations des prix actualisés des actifs financiers (la « valeur actuelle » des financiers) comme les résultats de tirages aléatoires indépendants : les prix actualisés des actifs suivent des martingales. » (Walter, 1996)

Fama pose, nous l’avons vu, que ces modèles supposent l’efficience informationnelle, pensée comme assurant que le cours reflète la valeur fondamentale : il n’est plus question de compatibilité mais d’implication. L’important pour lui est de disposer dès lors d’un modèle à la fois explicatif et testable, dans la logique de l’ « économie positive » friedmanienne.

Récapitulons : la valeur fondamentale d’un actif financier est comprise comme objective parce qu’elle est le facteur explicatif d’un phénomène (l’évolution des cours) qui est compris comme objectif via une modélisation du risque. Sur cette base s’est imposé un mode de test qui consiste non pas à comparer directement évolution du cours et évolution de la valeur fondamentale, comme l’a fait Shiller, mais à vérifier si l’évolution du cours obéit bien à une modélisation du risque dont on suppose qu’elle correspond à l’intégration de l’information permettant d’estimer la valeur fondamentale.

Ce mode de test de l’efficience informationnelle pose, nous semble-t-il, au moins deux problèmes.

Le premier avait été perçu dès l’origine par Fama, dans son article de 1970. C’est ce qu’il a appelé par la suite le problème de l’hypothèse jointe : ce qui est testé n’est pas directement l’efficience informationnelle, donc l’intégration complète et instantanée de l’information pertinente dans le cours, mais, de façon jointe, l’efficience informationnelle et un modèle d’évaluation du risque, la rémunération du risque traduite par un rendement normal équivalant par hypothèse à une situation d’efficience informationnelle.

Fama exprime le problème sous cette forme :

“we should note right off that, simple as it is, the assumption that the conditions of market equilibrium can be stated in terms of expected returns elevates the purely mathematical concept of expected value to a status not necessarily implied by the general notion of market efficiency. The expected value is just one of many possible summary measures of a distribution of returns, and market efficiency per se (i.e., the general notion that prices “fully reflect” available information) does not imbue it with any special importance. Thus, the results of tests based on this assumption depend to some extent on its validity as well as on the efficiency of the market. But some such assumption is the unavoidable price one must pay to give the theory of efficient markets empirical content.” (Fama, 1970, p. 384)

En d’autres termes, le modèle de risque utilisé (pour Fama et la plupart de ses successeurs ce fut le MEDAF) n’est pas le seul possible, mais la part d’arbitraire qui consiste à en choisir un parmi d’autres est le prix à payer pour que la théorie des marchés efficients soit testable.

Le deuxième problème est l’absence de définition, de délimitation a priori de l’information pertinente. Que peut-on dire du rapport entre la pertinence de l’information et le mode de test que nous avons décrit ? Concrètement, pour le mettre en œuvre, on regarde si, au voisinage de la date de divulgation d’une information donnée, on observe des rendements anormaux. Et alors, sous réserve qu’on ait correctement contrôlé les autres facteurs, de deux choses l’une :

-soit il n’y a pas de rendements anormaux, en tout cas pas à un degré significatif. Cela veut dire que l’information en question est intégrée dans le cours.

-soit il y a des rendements anormaux. Cela signifie que cette information n’est pas intégrée dans le cours. La théorie des marchés efficients nous explique alors que cette non-intégration est nécessairement provisoire : des investisseurs avisés vont repérer l’inefficience et, en en tirant parti par des paris directionnels, vont la résorber.

Le point sur lequel nous pouvons attirer l’attention est le fait que, dans les deux cas, on suppose que l’information que l’on teste est pertinente. En effet, si elle ne l’est pas, en d’autres termes s’il n’y a pas de raison pour qu’elle ait un impact sur la valeur fondamentale, alors on ne peut pas tirer de conclusion de ce que l’on observe. Que l’on constate ou non l’existence de rendements anormaux au voisinage de la date de divulgation de l’information, il n’y aura de toute façon aucune raison pour que cela soit en rapport avec cette information, et on ne pourra donc rien inférer.

Cela signifie qu’on ne peut rien dire, en toute rigueur, sur la relation entre information et cours si l’on ne définit pas a priori l’information pertinente. Il faut donc, a priori, disposer d’un ou plusieurs critère(s) permettant de distinguer ex ante dans l’ensemble de l’information disponible celle qui est pertinente de celle qui ne l’est pas.

Or la seule définition de l’information pertinente que l’on peut tirer des textes fondateurs de la théorie est que c’est l’information qui contribue à l’estimation de la valeur fondamentale. En d’autres termes, quand on cherche une définition de l’information pertinente, on est renvoyé à la définition de la valeur fondamentale.

Il existe bien sûr plusieurs définitions de la valeur fondamentale d’un actif financier, mais elles peuvent se résumer de la façon suivante : il s’agit de la somme actualisée des flux de revenus futurs générés par cet actif. Estimer la valeur fondamentale repose donc à la fois sur une anticipation (de flux de revenus futurs) et sur le choix d’un taux d’actualisation. Poser cette notion comme objective, comme c’est le cas dans le cadre de la théorie de l’efficience informationnelle, c’est par conséquent poser (au moins) ce qu’André Orléan a appelé « l’hypothèse d’objectivité du futur » (Orléan, 2006) (9). Nous suivrons cet auteur pour considérer cette hypothèse comme logiquement intenable : l’estimation de la valeur fondamentale d’un actif financier est irréductiblement subjective, notamment parce que deux acteurs également rationnels et disposant des mêmes informations peuvent parfaitement retenir des scénarios différents pour le futur et donner deux estimations dont aucune ne peut être considérée comme plus objective, rationnelle ou informée que l’autre. Nous citerons aussi ici l’un des arguments qu’il avance : l’objectivité du futur « is incompatible with the free will of agents as modelled by this very same economic theory. If we believe in individual free will, then the future must be considered to be undetermined and contingent: it is the product of individual decisions, including those taken in the sphere of finance.” (Orléan, 2006, p.8) Elle est aussi incompatible, plus spécifiquement, avec l’idée que les marchés financiers jouent un rôle actif en termes d’allocation des ressources à l’économie. “Clearly, there is a fundamental logical contradiction in assuming simultaneously that the markets reflect a pre existing reality and that their presence is capable of improving, and therefore transforming, the functioning of the economy.” (ibid., p. 8). L’idée d’une valeur fondamentale objective déterminant l’évolution des cours des actifs financiers implique en fait que cette évolution n’a aucun impact sur l’économie dite « réelle » (résultats et dividendes des sociétés cotées, taux de défaut sur les remboursements d’emprunts etc.), qu’elle n’en est que le simple reflet. Il n’est pas besoin d’avoir vécu ou de vivre des situations de crise financière pour considérer cette idée comme intenable.

La valeur fondamentale d’un actif financier n’existe pas ex ante, et il en découle qu’il est impossible de délimiter a priori l’information permettant de l’estimer, donc l’information pertinente, celle sur laquelle doit être testée l’efficience informationnelle.

En résumé, le mode de test de l’efficience informationnelle souffre d’une part irréductible d’arbitraire dans le choix de la modélisation du risque permettant de réaliser le test et d’une impossibilité de séparer a priori l’information pertinente de celle qui ne l’est pas.

L’invalidation du mode de test entraîne, dans son propre cadre épistémologique, celle de la théorie. Il n’en demeure pas moins que cela ne suffit pas, selon nous, à disqualifier cette théorie en tant que fondement de la régulation des marchés financiers. Il convient en effet de distinguer la question de la validité scientifique d’une théorie de celle du rôle qu’elle peut jouer pour fonder logiquement, justifier et légitimer en pratique des règles et des institutions. Si la discussion de la théorie de l’efficience informationnelle n’avait d’enjeu qu’académique, nous pourrions ne pas aller plus loin. Or il est clair que tel n’est pas le cas. Simplement, si l’on veut aborder la question du rôle que joue cette théorie dans le fonctionnement réel des marchés financiers, il faut s’interroger en particulier sur les besoins qu’elle satisfait dans ce cadre ; c’est ce que nous allons maintenant tenter de faire.

2. Pratiques de la théorie financière et modes d’interdépendance

La dépendance envers une modélisation du risque particulière et discutable (10) et l’impossibilité de délimiter clairement a priori l’information pertinente remettent en cause le mode de test de la théorie de l’efficience informationnelle et in fine la théorie elle-même. Il n’en demeure pas moins que, concrètement, les investisseurs sont contraints, le plus souvent, d’utiliser une modélisation du risque et, toujours, de sélectionner dans l’ensemble d’informations dont ils disposent celles qu’ils vont effectivement utiliser pour décider. L’utilisation de modélisations du risque ressort de l’approche distributionnelle des marchés financiers, i.e. de la perception de l’évolution des cours comme relevant d’une forme de hasard probabilisable, qui s’est imposée très majoritairement au cours des dernières décennies chez les investisseurs professionnels, reléguant à la marge l’approche directionnelle qui caractérise en particulier l’analyse technique et qui consiste à percevoir l’évolution des cours comme une succession de mouvements haussiers et baissiers, différents outils et indicateurs permettant de repérer ces tendances et d’essayer d’anticiper les changements de tendance. En pratique il reste possible pour un investisseur de ne pas recourir à une modélisation du risque ; en revanche il est impossible de ne pas sélectionner l’information, particulièrement en un temps où au développement des agences de presse spécialisées (Reuters, Bloomberg), acquis dès les années 80, s’est ajouté le développement d’Internet et les capacités accrues de diffusion rapide d’informations de toute sorte (provenant d’agences, de médias généralistes, de médias spécialisés, mais aussi plus récemment de forums, de blogs etc.) (11). Souligner les insuffisances du cadre théorique qui fonde la régulation des marchés financiers et constitue un des piliers, voire le principal pilier de la théorie financière ne suffit donc pas lorsque cela laisse ouvertes des questions que les investisseurs sont obligés de trancher pour pouvoir travailler.

La théorie financière, en particulier la « théorie moderne du portefeuille » et la théorie de l’efficience, a accompagné le développement de la finance et en a largement structuré les pratiques professionnelles (Bernstein (2000), Rainelli (2003), Mackenzie (2006)). Une critique ne peut fonder une alternative pratique au rôle que joue ce cadre théorique que si elle répond aux besoins des acteurs de la communauté financière, faute de quoi elle est d’avance condamnée à rester dans le champ clos des controverses académiques.

Nous allons donc nous demander à quels besoins de ces acteurs répondent les outils tirés de la théorie financière. Nous le ferons précisément en considérant les investisseurs comme des acteurs et en comprenant leur rôle comme une façon de s’inscrire dans des modes d’interdépendance. Cette approche relève des sciences sociales et plus précisément de la sociologie dans l’acception qu’en donnait Norbert Elias. Dans « Qu’est-ce que la sociologie ? » (Elias, 1993), ce dernier fonde sa définition de la discipline sur une représentation de la société comme un ensemble de modes d’interdépendance ou de configurations, représentation qui se substitue à une perception de la société comme réalité extérieure à l’individu (p. 9-10).

Nous poserons que les investisseurs sont pris dans deux modes d’interdépendance :

-l’interdépendance entre les investisseurs, dont les modalités déterminent l’évolution des cours des actifs financiers. Cette évolution résulte en effet concrètement, sur une période donnée, de l’ensemble des décisions d’achat et de vente prises par les investisseurs. Chaque investisseur pris individuellement a pour objectif de maximiser le rendement de ses placements financiers (12). Ce rendement dépend de l’évolution des cours, et cette évolution dépend d’un ensemble de décisions prises par un ensemble d’investisseurs dont lui-même fait partie. Pour chaque investisseur pris isolément, atteindre ses objectifs dépend de la façon dont ses décisions et celles des autres investisseurs vont interagir. Les investisseurs sont donc interdépendants entre eux, chacun dépendant des autres.

Nous pouvons remarquer ici ce qui nous sépare de la théorie de l’efficience informationnelle en termes de modèle explicatif : à une explication de l’évolution du cours par la variation d’une valeur fondamentale pensée comme objective via l’intégration instantanée de l’information sur cette valeur ainsi considérée se substitue une description factuelle de ce qui provoque les mouvements de cours, à savoir des ordres passés par les investisseurs, sans relier immédiatement ces ordres à un facteur objectif, donc en laissant ouverte une explication donnant aux investisseurs un rôle actif. Plus précisément la relation entre l’information dont disposent les investisseurs et la décision qu’ils prennent n’est pas pensée comme automatique et/ou non problématique, notamment parce qu’on admet chez les investisseurs une capacité à produire du sens à partir de l’information, une capacité interprétative (13). Nous reviendrons ultérieurement sur ce point, ainsi que sur le mode de test qui pourrait correspondre à ce type d’approche.

-l’interdépendance entre les investisseurs et les autres membres de la communauté financière, dont les modalités déterminent la façon dont les décisions d’investissement sont justifiées et légitimées.

Si l’on considère, comme nous le faisons dans ce texte, comme « investisseur » l’acteur qui prend effectivement les décisions d’achat ou de vente de titres, alors cet investisseur est, le plus souvent, un gérant de fonds ; mais, d’une part, il peut être aussi un particulier investissant en direct ou un trader s’il intervient sur compte propre et non pour le compte d’un client, et d’autre part et surtout ce gérant n’est pas un acteur isolé : il s’inscrit dans le cadre d’un ensemble complexe de relations d’interdépendance. Il gère des fonds qui ne lui appartiennent pas, dont la gestion est déléguée par des clients qui sont souvent des investisseurs institutionnels, donc des institutions à qui des particuliers ont confié leur épargne. Il existe aussi des fonds de fonds, i.e. des fonds dont les gérants ne sont pas des investisseurs au sens où nous avons défini ce terme puisqu’ils n’opèrent pas directement sur des actifs financiers : ils confient la gestion de l’argent qui leur a été confié à tout un ensemble de fonds qu’ils sélectionnent. Les gérants de fonds emploient par ailleurs des analystes financiers dits « buy-side » qui sont chargés de leur faire des recommandations (d’achat ou de vente de titres) ainsi que des prévisions (sur les indicateurs censés selon eux avoir un impact sur la valeur fondamentale des titres). Enfin ils délèguent le plus souvent l’exécution de leurs ordres à des brokers (14) qui emploient aussi des analystes financiers, dits alors « sell-side ».

Ce paysage, déjà passablement plus complexe que la vision commune de la théorie financière d’un « investisseur » compris comme un individu isolé gérant son propre argent et confronté à un « environnement » extérieur caractérisé par une forme de risque, est encore simplifié par rapport à la réalité. Il permet néanmoins de comprendre que la prise de décision de l’investisseur est généralement inscrite dans un ensemble de relations d’interdépendance.
Nous nous focaliserons sur la plus déterminante : la relation entre les gérants de fonds et les investisseurs institutionnels (15). Les gérants de fonds, qui sont la majorité des investisseurs réellement existants et en tout cas les plus influents d’entre eux, doivent garder leurs clients et si possible en conquérir de nouveaux. De leur côté les plus importants de ces clients, qui sont les investisseurs institutionnels, s’inscrivent dans une socio-histoire qui les a conduits à déléguer une grande partie de leur gestion et en tout cas à adopter les normes de décision des gérants de fonds professionnels (16). Chaque gérant pris individuellement a pour objectif, en plus de la maximisation du rendement des placements réalisés, de garder ses clients et si possible d’en conquérir de nouveaux. La réalisation de cet objectif dépend pour une part des rendements déjà obtenus (et nous avons vu que dans ce domaine les investisseurs sont interdépendants entre eux) mais aussi de la capacité à inspirer confiance, à convaincre qu’on est capable de dégager ces rendements à l’avenir. Elle dépend des modalités de la relation d’interdépendance entre gérants et institutionnels, ces modalités permettant plus ou moins d’assurer cette capacité à inspirer confiance.

Pour un gérant pris isolément, l’atteinte de ses objectifs, i.e. l’obtention de la faveur du marché (le rendement) tout comme celle de la faveur des clients (leur fidélisation ou leur conquête) dépendent de modes d’interdépendance grevés de fortes incertitudes. Sur ce que vont décider les autres investisseurs, on ne peut faire que des conjectures ; sur ce qui permet d’inspirer confiance aux clients, il n’y a pas non plus de vérité objective. Ce qu’il attendra de la théorie financière et des outils qui en sont issus, ce sont donc avant tout des moyens de réduire ces incertitudes.

Revenons à la question que nous nous posons dans cette partie : quelles sont les attentes des investisseurs à l’égard de la théorie financière ? Nous avons répondu avec la réduction de l’incertitude caractérisant les modes d’interdépendance dans lesquelles s’inscrivent ces investisseurs. Il nous semble que deux auteurs peuvent nous aider à donner un fondement théorique à cette réponse : il s’agit d’Herbert Simon et de Norbert Elias.

Du côté de Simon, notre intérêt s’est porté sur la relation qu’il établit, dans son texte consacré à la rationalité procédurale (Simon, 1976), entre la prise de décision faisant appel à ce type de rationalité et une certaine approche de l’incertitude. L’incertitude dont nous parlons n’est pas extérieure aux acteurs, comme c’est le cas dans les approches probabilistes ; elle ne caractérise pas l’environnement des investisseurs mais les modes d’interdépendance dans lesquels ils s’inscrivent. Cette façon de comprendre l’incertitude s’inscrit dans le cadre plus général de notre démarche de compréhension des marchés financiers : passer de la qualification d’un monde extérieur à un investisseur pensé comme observateur à la qualification des relations dans lesquelles s’inscrivent des investisseurs pensés comme acteurs (17). Or cette conception de l’incertitude était déjà exprimée dans le texte cité en référence, s’opposant à la conception développée dans le cadre de la théorie des anticipations rationnelles. Simon y évoque comme suit le texte fondateur de cette théorie : « In a well-known paper, my former colleague, John F. Muth, proposed to objectify the treatment of uncertainty in economics by removing it from the decision-maker to nature. » (Simon, 1976, p. 142). Or, en lisant cet article de Muth (1961), il s’avère qu’il visait lui-même Simon : le Simon qui avait défini et théorisé en 1958 la notion de rationalité limitée. Il semble que, chez Simon, l’élaboration de la notion de rationalité procédurale soit en fait une réélaboration de la rationalité limitée à la lumière de la critique venue entre-temps de la théorie des anticipations rationnelles. Et l’opposition à cette théorie se formule non pas en partant des limites des capacités cognitives des individus (comme c’était le cas pour la rationalité limitée) mais en posant que l’incertitude ou le risque n’est pas une caractéristique d’un environnement extérieur à l’acteur et sur lequel il n’a pas de prise. L’incertitude n’est pas une caractéristique intrinsèque de l’environnement : ce sont les acteurs qui font de cet environnement quelque chose de plus ou moins certain ou incertain. « As economics has moved from statics to dynamics […] it has become more and more explicit in its treatment of uncertainty. Uncertainty, however, exists not in the outside world, but in the eye and mind of the beholder. » (Simon, 1976, p. 142). L’incertitude existe « dans le regard et dans l’esprit » de l’acteur qui observe son environnement, elle ne caractérise pas cet environnement, pensé comme « naturel » et « objectif » par les théoriciens des anticipations irrationnelles, mais la façon dont cet environnement est considéré par l’acteur, donc la relation entre l’acteur et son environnement. La rationalité procédurale consiste précisément dans la mise en œuvre de procédures (au sens large du terme) qui visent à réduire l’incertitude comprise dans ce sens, l’incertitude qui caractérise la relation de l’acteur à son environnement. Simon l’oppose à la rationalité substantive, mais ne traite pas les deux formes de rationalité sur le même plan; en effet la rationalité substantive n’existe, selon lui, que dans la théorie économique, et la rationalité expérimentalement observable dans le monde réel est, elle, presque toujours procédurale. La rationalité substantive ne peut être réellement appliquée que dans quelques cas-limites, des situations triviales qui ne sont nullement représentatives de celles que vit un décideur économique ordinaire. Les acteurs, notamment parce qu’ils ne peuvent prédire l’avenir, ne peuvent être substantivement rationnels.

Si nous revenons au cas particulier de l’investisseur sur les marchés financiers, son environnement est tout simplement constitué des autres investisseurs et de ses clients, puisqu’il est lié à ces autres acteurs par des modes d’interdépendance dont le fonctionnement détermine l’atteinte de ses objectifs. Pour lui, le recours à la théorie financière et aux outils qui en sont issus peut être compris comme un exercice de rationalité procédurale : ce qu’il demande à cette théorie et à ces outils, c’est de réduire le degré d’incertitude de ses modes de relation à son environnement.

Pour comprendre comment cela s’opère, on peut partir de la façon dont les investisseurs qualifient l’information. Par qualification de l’information, nous entendons la combinaison de deux opérations : l’identification de l’information pertinente, l’interprétation de cette information. La qualification de l’information met en œuvre les capacités réflexives et interprétatives des investisseurs, sous la forme spécifique d’une capacité à produire du sens à partir de l’information. Nous avons vu que la théorie de l’efficience informationnelle ne donne pas de réponse satisfaisante à la question de l’information pertinente. Il n’en va pas de même de l’efficience technique. En effet l’idée générale qu’ « on ne peut pas battre le marché », tout à fait distincte de l’efficience informationnelle qui est le seul fondement théorique de la régulation des marchés financiers, aboutit logiquement à l’idée que le meilleur mode de gestion possible consiste à « répliquer » un indice représentatif du marché sur lequel on investit. Concrètement cela consiste à détenir un portefeuille composé de titres des valeurs composant l’indice, en respectant le poids relatif des différentes valeurs dans l’indice. Cette pratique de la gestion indicielle réduit à sa plus simple expression la qualification de l’information : la seule information pertinente est la composition de l’indice, et il n’y a aucun travail d’interprétation à faire. La gestion benchmarkée, plus répandue que la gestion indicielle et dominante dans les pratiques de gestion d’actifs, reprend la même idée de base mais avec plus de souplesse : elle consiste à détenir un portefeuille de titres composant un panier « de référence » (le benchmark) qui peut correspondre à un indice ou être plus personnalisé, mais en faisant dévier légèrement la poids relatif des titres par rapport à celui qu’ils ont dans le benchmark ; si les titres de la société A représentent 5% de l’indice de référence, on s’autorisera par exemple à en faire varier la part relative dans son portefeuille entre 4,5 et 5,5%. Les analystes financiers se sont d’ailleurs calés sur ces pratiques, ce qui explique pourquoi la plupart de leurs recommandations ne sont pas des recommandations d’achat ou de vente mais des recommandations de « surpondération » ou « sous-pondération » (18). Ici le travail de qualification de l’information est plus complexe, puisqu’il faut prendre en compte tout ce qui peut amener à sous-pondérer ou sur-pondérer, et que ces opérations peuvent être réalisées assez fréquemment ; en même temps la portée de ces opérations est tout de même soigneusement limitée par le recours au benchmark.

L’efficience technique, généralement associée à une modélisation du risque, a inspiré des pratiques qui, pour les investisseurs, réduisent fortement le travail de qualification de l’information et/ou en réduisent les conséquences. Ces pratiques réduisent aussi l’incertitude qui affecte la relation aux autres investisseurs. En effet, se caler sur un indice, c’est se caler sur ce que décident les autres investisseurs sur les titres composant l’indice, et ce, sans même avoir besoin d’observer ce qu’ils font. Cela ne préjuge pas de ce qu’ils vont faire par la suite : c’est simplement un comportement de suiveur de tendance. C’est clairement le cas avec la gestion indicielle, ce l’est à peu de choses près avec la gestion benchmarkée. La réduction d’incertitude dans le mode d’interdépendance entre investisseurs advient dans la mesure où ces modes de gestion deviennent dominants, et c’est ce qui s’est passé historiquement, en particulier, en Europe, dans les années 90 (Kleiner, 2003), et bien avant aux Etats-Unis (Montagne, 2006).

Du côté d’Elias, la notion d’interdépendance est centrale. Elle fonde d’ailleurs, on l’a vu, sa définition de la sociologie. Il l’a d’abord appliquée dans sa compréhension de la société de cour, et c’est ce point que nous allons développer pour repérer de quelle façon on peut en tirer des enseignements dans l’analyse des marchés de capitaux.

La situation dans laquelle sont placés les hommes de cour est la suivante : l’objectif de chacun, pris isolément, est d’obtenir la faveur du roi. Pour cela, il faut d’abord, de façon générale, être bien vu à la cour. Or ce qui permet d’atteindre cet objectif n’a pas de définition objective, stable, substantielle. Dans la compétition pour être bien vu à la cour et obtenir la faveur du roi, les atouts que les hommes de cour peuvent mobiliser ne sont ni l’argent ni bien sûr sur le travail qu’ils effectuent, les nobles admis à la cour n’ayant par définition aucune activité professionnelle (19). C’est cette situation qui, littéralement, contraint les hommes de cour à se concentrer sur la façon dont ils sont vus, dont ils sont perçus : faute de pouvoir relier le fait d’être bien vu à l’accomplissement d’une tâche particulière, à la production d’un bien ou d’un service, à la détention de capital etc., le plus sûr est de s’en tenir au sens littéral d’ « être bien vu ». Leur évaluation repose entièrement sur ce qu’ils donnent à voir, sur leur comportement extérieur, et c’est donc logiquement dans ce contexte que tout ce que l’individu donne à voir va être codifié à l’extrême : les manières de table, les normes de politesse, le vêtement, l’art de la conversation, les normes de pudeur etc. Norbert Elias souligne que jamais dans l’histoire l’activité de codification et de « procéduralisation » du comportement extérieur des individus n’a été aussi intense que chez les acteurs constituant les cours des monarchies absolues entre le XVIème et le XVIIIème siècle : plus précisément, jamais ce comportement ne s’est autant modifié qu’à cette époque et dans ce contexte social bien spécifique (Elias, 1985, 1990a, 1990b). La société de cour a été le lieu où se sont inventées les formes de civilité modernes.

Cette analyse a permis à Elias de parler de la société de cour et des hommes de cour autrement que sur le registre de la condamnation morale du « règne des apparences » ou du « paraître ».

L’importance de l’apparence est expliquée par une particularité structurelle : les caractéristiques du mode d’interdépendance dans lequel s’inscrivent les individus en question.

Si nous revenons au cas de ces investisseurs dominants sur les marchés financiers que sont les gérants de fonds, nous pouvons souligner à nouveau qu’il leur est impossible de définir objectivement ou substantiellement ce qui leur permet d’atteindre leurs objectifs, et cela en raison des caractéristiques des modes d’interdépendance dans lesquels ils s’inscrivent. En ce qui concerne l’interdépendance entre les investisseurs, qui est le fonctionnement du marché dans un sens restrictif, nous avons pu évoquer la réduction d’incertitude que peut apporter le fait de partager des modes de décision d’investissement ; dans le domaine de l’interdépendance avec les clients (dont les principaux sont les investisseurs institutionnels), on peut remarquer, par analogie avec l’approche d’Elias, l’importance du travail d’exhibition de procédures. L’enjeu est de promettre du rendement, et la performance passée, si elle constitue toujours un argument, ne suffit pas : il faut montrer que l’on met en œuvre un process d’investissement qui inspire confiance (i.e. attire et retient des clients). Dans ce but, on va formaliser au maximum tout ce que le client peut voir, en tout cas tout ce qui lui est donné à voir : politique générale d’investissement, procédures de décision, de contrôle et d’évaluation etc. (20) La même tendance se manifeste dans les relations entre sociétés cotées et investisseurs : faute de pouvoir vraiment fonder objectivement ce qui peut soutenir leur cours, les groupes cotés ont tendu de plus en plus à développer la fonction de communication financière, qui vise à être bien vu par les investisseurs. Or ce qui est donné à voir aux investisseurs, ce sont d’une part les comptes publics (bilan, compte de résultat), d’autre part les stratégies, les décisions, les opérations de haut de bilan, tout ce sur quoi une société cotée est tenue de communiquer. Il est toujours tentant, bien sûr, pour ces sociétés, d’embellir les comptes, d’autocélébrer sa stratégie, de chiffrer généreusement les synergies que doit dégager une fusion ou une acquisition, c’est même relativement banal. Simplement, l’incertitude demeure, irréductiblement, quant aux conclusions que vont en tirer les investisseurs. Le plus sûr, finalement, est l’exhibition de procédures montrant qu’on est au service de ces investisseurs : c’est tout le sens du développement de la corporate governance. Les résultats, même quand ils ne sont pas « arrangés », peuvent être trompeurs et relatifs, une stratégie est toujours discutable, les avantages tirés d’une fusion dépendent de bien des impondérables, en revanche la soumission aux normes de corporate governance ne souffre d’aucune ambiguïté dans la volonté d’être bien vu des investisseurs. Un résultat peut être plus ou moins satisfaisant, une stratégie peut être plus ou moins pertinente et annonciatrice de performances financières futures, cela peut toujours se discuter. En revanche on a ou on n’a pas telle proportion d’ « administrateurs indépendants », on a ou on n’a pas un président non exécutif distinct du directeur général etc. (21)

Obtenir la faveur des clients, pour les gérants, ou celle des gérants, pour les sociétés cotées, repose sur la formalisation de ce qui est donné à voir. C’est en ce sens que l’analogie avec la société de cour nous paraît éclairante : les acteurs des marchés financiers et ceux qui en dépendent cherchent à être bien vus par le marché, comme les hommes de cour cherchaient à être bien vus par la cour et in fine par le souverain. C’est ce qui ressort des deux passages où Elias opère lui-même l’analogie :

« Ce mécanisme a une certaine ressemblance avec la Bourse. Là aussi, on assiste à la formation d’opinions changeantes sur certaines valeurs. Mais à la Bourse, il s’agit de valeurs d’entreprises dans l’opinion des bailleurs de fonds, à la cour il s’agit d’opinions sur la valeur des hommes qui en font partie. A la Bourse, les moindres fluctuations peuvent être exprimées par des chiffres, à la cour la valeur d’un homme s’exprimait en premier lieu par des nuances dans les rapports sociaux et mondains qu’il entretenait avec ses semblables. » (Elias, 1985, p. 80)

« La cour est une sorte de bourse. Comme dans chaque « bonne société » on y assiste, dans les échanges entre hommes, à la formation d’une « opinion » sur la valeur de chacun. Mais cette valeur ne se fonde pas sur la richesse du personnage ni sur ses accomplissements ou ses connaissances, elle se fonde sur la faveur que lui témoigne le roi, sur l’influence qu’il exerce sur les autres puissants, sur son poids dans le jeu des cliques et des coteries. » (Elias, 1990b, p. 237)

3. Esquisse d’un autre mode de régulation des marchés financiers

La régulation des marchés financiers repose sur la notion d’efficience informationnelle, qui repose elle-même sur l’idée que la valeur fondamentale des actifs financiers échangés et cotés sur ces marchés existe de façon objective, i.e. de façon indépendante de ce que pensent et décident les investisseurs, et que l’information permet à ces investisseurs de se « caler » sur cette valeur fondamentale de sorte que la valeur de marché de ces actifs, in fine, la reflète.

Dans les faits, la détermination de la valeur fondamentale d’un actif financier, indépendamment du fonctionnement du marché, se heurte à des obstacles théoriques et pratiques que nous considérons, à la suite d’Orléan (2006), comme insurmontables. La seule valeur des actifs financiers qui existe concrètement est leur valorisation par le marché ; elle résulte donc du fonctionnement et des caractéristiques du mode d’interdépendance dans lequel s’inscrivent les investisseurs.

Dans ces conditions, la théorie de l’efficience informationnelle répond-elle bien aux besoins des régulateurs ? Répondre à cette question requiert d’abord de préciser ce que peuvent être ces besoins. Depuis la création de la SEC qui en constitue le modèle, la « philosophie » de la régulation des marchés financiers peut se résumer de la façon suivante : il s’agit de protéger les « petits » investisseurs en faisant en sorte qu’ils disposent de toute l’information nécessaire, afin qu’ils ne soient pas trop désavantagés par rapport aux « grands ». La théorie de l’efficience informationnelle est venue donner une justification et une légitimité académique renforcée à cette « philosophie générale » qui, en fait, lui préexistait. C’est en ce sens qu’elle répond aux besoins des régulateurs. Mais cela veut dire aussi que les problèmes que nous avons soulevés sur cette théorie concernent aussi en partie cette « philosophie ». En particulier l’impossibilité de définir a priori l’information pertinente et le fait que les investisseurs qualifient nécessairement l’information en sapent évidemment les fondements.

Si, partant de là, nous essayons de définir différemment ce que peut être la fonction de la régulation des marchés financiers, nous pouvons d’abord remarquer que cette régulation a au moins une fonction de légitimation des marchés financiers vis-à-vis de la collectivité à laquelle elle se réfère. Elle s’assure que ces marchés financiers fonctionnent « correctement » au regard d’une forme de bien commun. Ce dernier est traditionnellement défini, nous l’avons vu, par l’égale diffusion de l’information pertinente supposée assurer une valorisation correcte, alignée sur une valeur fondamentale objective. Eu égard aux difficultés concrètes que pose la mise en œuvre de cette forme de bien commun, on pourrait reposer la question de ce que les marchés financiers apportent à la collectivité, à l’économie dans son ensemble.

Si l’on rapporte cette question de la fonction des marchés financiers dans l’économie à leur socio-histoire, on peut remarquer qu’ils ont été créés avant tout pour développer la liquidité : leur principe général est de rendre liquides, donc échangeables sur un marché, des biens qui ne le sont pas intrinsèquement : titres de propriétés de sociétés (actions), parts d’emprunts (obligations), devises, ensuite produits dérivés sur ces différentes classes d’actifs (Orléan, 1999). Pour les détenteurs de ces biens, c’est-à-dire, de façon générale, pour les créanciers, l’intérêt de la liquidité réside avant tout dans la limitation du risque individuel : « en rendant les titres négociables, on atténue les risques que fait courir l’investissement, puisqu’il devient alors possible de se défaire d’un titre dès qu’on le juge nécessaire. » (ibidem, p. 33). La présentation que donne par exemple Anton Brender est assez concordante : étant donné l’incertitude pesant sur l’avenir des sociétés ou des emprunteurs, sur leur capacité future respective à dégager des profits suffisants où à être capable de rembourser, la possibilité de se désengager réduit le risque (Brender, 2004, p. 12-13 et 18 notamment). Cela permet aussi de pouvoir faire face à un besoin pressant de liquidité à un moment donné.

Dans cette perspective, la légitimité des marchés financiers repose sur le fait qu’ils réduisent les risques en les rendant négociables. Grâce à eux, des titres représentant des droits à percevoir des revenus futurs incertains sont rendus échangeables. Ce que nous pouvons remarquer c’est que, en même temps que la négociabilité de ces titres (i.e. le droit de les acheter ou les vendre) est instaurée, est instaurée aussi la façon dont leurs prix vont être produits, à savoir un mode d’interdépendance liant les investisseurs entre eux. Nous souhaitons ici attirer l’attention sur le fait que, si ces deux aspects (négociabilité formelle, valorisation déterminée par un mode d’interdépendance entre les investisseurs) ont toujours été concrètement confondus dans et par le fonctionnement des marchés financiers, il est néanmoins possible de les séparer, non seulement analytiquement et théoriquement, mais aussi pratiquement.

Il peut en effet exister des biens qui soient formellement négociables mais dont le prix ne soit pas fixé par le fonctionnement d’un marché mais par une autorité extérieure. Si les actions étaient dans ce cas, par exemple, un investisseur aurait le droit d’acheter ou vendre une action, mais à la condition expresse qu’il trouve une contrepartie (respectivement vendeuse ou acheteuse) qui soit d’accord pour conclure la transaction au prix fixé par cette autorité extérieure, toute transaction à un prix différent étant illégale. La négociabilité, plutôt réductrice de risque, serait préservée ; en revanche une autre source très importante de risque, à savoir la volatilité des valorisations des actifs financiers, serait très nettement réduite.

A la différence des formes de régulation actuelles, la forme de régulation qu’assurerait l’autorité extérieure dont nous parlons ici prendrait acte du fait que l’objectivité de la valorisation est impossible, et en tirerait les conséquences. La valeur d’un actif financier ne peut être le produit d’une procédure établissant une vérité objective, mais seulement celui d’un jugement. Un jugement n’est pas la production d’une vérité scientifique, mais il n’est pas produit au hasard : il requiert, pour être équitable, une procédure qui permette d’entendre les arguments des parties intéressées et de prendre en compte un maximum d’éléments factuels et d’expertise pour aboutir à une décision prise, dans toute la mesure du possible, de façon indépendante des parties. Traiter la valorisation des actifs financiers comme l’exercice d’un jugement suppose l’établissement de procédures de ce type.

La façon dont sont valorisés les sociétés cotées et les emprunteurs publics ou privés à un impact important, parfois décisif, sur leur stratégie et sur leur capacité à se financer. Tout le fonctionnement de l’économie est affecté par la façon dont s’opère cette valorisation. Cette dernière est donc un enjeu qui concerne la collectivité dans son ensemble.

Tout comme l’établissement du degré et du type d’imposition ou la définition et la mise en œuvre des politiques publiques, la valorisation des actifs financiers est à la fois un enjeu collectif et une question qui n’a pas de réponse objective. Notre position est qu’elle doit être traitée de la même façon : comme une question politique, que des instances de nature explicitement politique doivent être amenées à trancher. En même temps, comme, concrètement, il s’agit de valoriser des sociétés ou des institutions qui ont leurs particularités, on peut imaginer que la décision politique s’exerce dans le cadre d’une procédure inspirée des procédures judiciaires : comme dans la décision politique, on tranche sur un enjeu collectif, et comme dans la décision d’un tribunal, chaque cas est spécifique et requiert d’écouter les parties intéressées et les experts les plus à même d’éclairer le cas. L’autorité dont nous parlons serait soit une instance directement élue et dédiée à ce travail de valorisation, soit une instance dont les membres seraient désignés pour une durée limitée par le Parlement. Elle prendrait des décisions de valorisation à des intervalles réguliers.

Nous n’entrerons pas plus avant dans les détails, souhaitant seulement à ce stade défendre le principe d’un tel mode de valorisation des actifs financiers. Nous remarquerons simplement, à titre d’exemple des conséquences que cela pourrait avoir, à quel point cela changerait tout le débat sur la « responsabilité sociale des entreprises » et plus spécialement sur l’ « investissement socialement responsable ». Jean-Pascal Gond (2006), qui a analysé en détail le développement de cette forme d’investissement sur les marchés financiers, a pu souligner à quel point il devait se légitimer par la performance financière, et plus généralement faire tout un travail de légitimation auprès des investisseurs les plus influents. Dans le schéma que nous avons imaginé, ce travail « politique » serait reconnu comme tel et se ferait ouvertement, sans avoir à se justifier au préalable en essayant de s’adapter aux catégories de pensées des investisseurs sur les marchés financiers. Le facteur explicatif des mouvements de cours serait la valeur fondamentale, et le serait réellement dans le sens où cette valeur serait fixée suite à une délibération contradictoire permettant d’entendre des arguments de fond, tranchée par un vote.

Conclusion

Il faut souligner que notre proposition de détermination des prix par une instance politique ne vise que les actifs financiers. Elle ne nous paraît pas justifiée, en effet, dans le cas des biens et services consommables. Dans le cas de ces derniers en effet, il peut être défendu que la loi de l’offre et de la demande garde une certaine validité, limitée et très imparfaite mais réelle. Sur les marchés financiers la valorisation résulte d’un jeu de positions acheteuses et vendeuses, et la loi de l’offre et de la demande ne joue pas (22). Cette absence de force de rappel pose un problème que l’hypothèse d’objectivité de la valeur a tenté de résoudre, sans succès puisque cette hypothèse ne tient pas.

La critique de la théorie de l’efficience, et en particulier de l’efficience informationnelle, n’a rien de nouveau. Les travaux d’André Orléan, qui représentent l’approche conventionnaliste de la finance (23) ont été largement mentionnés dans ce texte, mais le courant de recherche critique de l’efficience qui s’est le plus développé au plan international est sans nul doute la finance comportementale (24). On regroupe sous ce terme un ensemble d’approches qui, s’appuyant au départ sur des travaux de psychologie expérimentale, ont mis en question l’hypothèse de rationalité des investisseurs et se sont attachés à mettre en relation différentes formes d’inefficience des marchés et des modes de décision des investisseurs s’écartant de la rationalité telle qu’elle est comprise dans la théorie financière orthodoxe.

Sur ces approches qui se présentent comme une alternative à la théorie de l’efficience, nous ferons deux remarques :

- dans le cadre de la finance comportementale, la critique a porté sur les hypothèses mais pas sur le mode de test. Il en résulte que les défenseurs de l’efficience peuvent toujours objecter que les constats d’inefficience n’en sont pas puisqu’ils résultent d’une inadaptation de la modélisation du risque utilisée pour le test (25).

- aussi bien la finance comportementale que l’approche conventionnaliste restent sur le terrain de la discussion de la théorie, sans s’aventurer sur celui de l’utilisation de la théorie. En particulier ils ne répondent pas à la question de savoir pourquoi une théorie erronée a su se rendre indispensable aux investisseurs et aux régulateurs.

Ces deux points permettent de faire ressortir les particularités de la démarche que nous avons tenté de mettre en œuvre dans ce texte : sur le plan théorique, critiquer le mode de test, et ensuite intégrer la critique de la théorie dans une analyse des pratiques (26).

Cette démarche débouche sur deux éléments :

- une proposition théorique d’explication de l’évolution des cours à partir du mode d’interdépendance entre les investisseurs, dans lequel on peut prendre en compte en particulier leurs modes de qualification de l’information. Le mode de test correspondant à ce modèle explicatif consisterait dans l’analyse conjointe des opérations de qualification de l’information par les acteurs et des déplacements de cours : il s’agirait de chercher à identifier des relations entre ces deux phénomènes (27).

- une proposition politique de valorisation des actifs financiers par une instance indépendante élue ou désignée par des élus. Cette proposition pourrait s’inscrire dans le projet de « constitution de l’économie » présenté par Paul Jorion (2007).

REFERENCES

F. ABERGEL, La chaire de l’Ecole centrale Paris / BNP Paribas, Revue Banque, avril 2009, Supplément « Formation ».

L. BACHELIER, Théorie de la spéculation, Thèse pour le doctorat ès sciences mathématiques, 1900.

P. BERNSTEIN, Des idées capitales, PUF, 2000. (1ère publication 1992)

D. BOURGHELLE, O. BRANDOUY & A. ORLEAN, Introduction générale, in Bourghelle D., Brandouy O., Gillet R. et A. Orléan (eds), Représentations collectives et croyances sur les marchés financiers, Economica, 2005.

A. BRENDER, La France face aux marchés financiers, La Découverte, 2004.

E. BRIAN & C. WALTER dir., Critique de la valeur fondamentale, Springer, 2007.

M. BRIERE, Formation des taux d’intérêt, Economica, 2005.

I. CHAMBOST, Contribution à l’analyse de la formation du jugement des analystes financiers sell-side, thèse de doctorat en sciences de gestion, CNAM, 2007.

J-O. CHARRON, L’idéologie de la transparence dans l’audit : une approche de sa dimension médiatique, Comptabilité Contrôle Audit, Juin 2004.

J-O. CHARRON, A la recherche de l’opinion du marché, présentation au Congrès annuel SASE, Copenhague, 29/06/2007.

N. ELIAS, La société de cour, Flammarion, 1985 (1ère publication 1936)

N. ELIAS, La civilisation des mœurs, Pocket, 1990 (1ère publication 1939, 1ère publication en français 1973) (en référence : Elias, 1990a).

N. ELIAS, La dynamique de l’Occident, Pocket, 1990 (1ère publication 1939, 1ère publication en français 1975) (en référence : Elias, 1990b).

N. ELIAS, Qu’est-ce que la sociologie ?, Pocket, 1993 (1ère publication1970, 1ère publication en français 1991)

E. FAMA, The behavior of stock market prices, Journal of Business, January 1965.

E. FAMA, Efficient capital markets : a review of theory and empirical work, Journal of Finance, May 1970.

J-P. GOND, Construire la relation (positive) entre performance sociétale et financière sur le marché de l’ISR : de la performation à l’autoréalisation, Revue d’économie financière, septembre 2006.

P. HYME, Des différentes acceptions de la « théorie des marchés efficients », Economie appliquée, décembre 2004, p. 43-57.

P. JORION, L’économie a besoin d’une authentique constitution, Le Monde, 4 septembre 2007.

T. KLEINER, La consécration des gestionnaires d’actifs sur la place de Paris, Actes de la Recherche en Sciences Sociales, mars 2003.

D. MACKENZIE, An engine, not a camera : how financial models shape markets, The MIT Press, 2006.

B. MANDELBROT, Forecasts of future prices, unbiased markets, and martingale models, Journal of Business, Special supplement, January 1966, p. 242-255.

M. MANGOT, Psychologie de l’investisseur et des marchés financiers, Dunod, 2005.

S. MONTAGNE, Les fonds de pension, Odile Jacob, 2006.

J. MUTH, Rational expectations and the theory of prince movements, Econometrica, July 1961, p. 315-335.

A. ORLEAN, Le pouvoir de la finance, Odile Jacob, 1999.

A. ORLEAN, Réflexions sur l’hypothèse d’objectivité de la valeur fondamentale dans la théorie financière moderne, in Bourghelle D., Brandouy O., Gillet R. et A. Orléan (eds), Représentations collectives et croyances sur les marchés financiers, Economica, 2005.

A. ORLEAN, Knowledge in finance : objective value versus convention, in R. Arena & A. Festré ed., Knowledge, beliefs and economics, Edward Elgar, 2006.

A. ORLEAN, La notion de valeur fondamentale est-elle indispensable à la théorie financière ?, Regards croisés sur l’économie : comprendre la finance, mars 2008, p. 120-128.

P-C. PRADIER, La notion de risque en économie, La Découverte, 2006.

H. RAINELLI-LE MONTAGNER, Nature et fonctions de la théorie financière, PUF, 2003.

P. SAMUELSON, Proof that properly anticipated prices fluctuate randomly, Industrial Management Review, Spring 1965, p. 41-49.

R. SHILLER, Do stock prices move too much to be justified by subsequent movements in dividends ?, American Economic Review, 71 (3), 1981, p. 421-436.

A. SHLEIFER, Inefficient markets, Oxford University Press, 2000.

H. SIMON, From substantive to procedural rationality, in S. Latsis ed., Method and appraisal in economics, Cambridge University Press, 1976.

G. SOROS, La vérité sur la crise financière, Denoël, 2008. (Titre original : The new paradigm for financial markets, PublicAffairs, 2008)

Y. TADJEDDINE, Les gérants d’actifs en action: l’importance des constructions sociales dans la decision financière, in F. Eymard-Duvernay dir., L’économie des conventions, méthodes et résultats, tome 2, La Découverte, 2006.

C. WALTER, Une histoire du concept d’efficience sur les marchés financiers, Annales HSS, juillet-août 1996.

—————
Notes :

1 Nous renvoyons ici aux notions de transparence procédurale et de transparence substantielle énoncées dans l’article cité.

2 Pour une présentation et une discussion des différentes acceptions de l’hypothèse de marchés efficients, voir aussi Hyme (2004) et Orléan (2008).

3 La théorie de l’efficience informationnelle justifie aussi toute la profession d’analyste financier comme estimateur du fondamental qui aide les investisseurs et facilite l’alignement du cours sur le fondamental. En même temps le rôle réel des acteurs peut être différent, ainsi les analystes sell-side sont plutôt des « producteurs de liquidité », dans les faits. Sur le rôle réel des analystes financiers, on peut se référer notamment à Chambost (2007). Notre travail doctoral en cours devrait aussi apporter une contribution sur ce point ; cf. déjà Charron (2007).

4 Walter (1996) permet de voir plus précisément ce qui est en jeu. Fama (1970, p. 384) parle des différentes façons d’estimer la distribution des rendements (« many possible summary measures of distribution of returns »). Or cette idée qu’il faut modéliser mathématiquement la façon dont se distribuent les changements de cours (que les rendements ne font qu’exprimer en pourcentage) remonte en réalité à Bachelier.

5 Là se marque, selon les termes de Walter (1996, p. 879), le passage d’une approche directionnelle à une approche distributionnelle.

6 Souligné par nous.

7 Le raisonnement probabiliste s’effectue dans un cadre qui est celui de la « décision contre la nature » (Pradier, 2006, p. 61).

8 L’importance de l’argument de l’arbitrage dans la construction de la théorie de l’efficience est soulignée par de nombreux auteurs, par exemple Shleifer (2000).

9 André Orléan fait découler l’ « hypothèse d’objectivité de la valeur » de l’ « hypothèse d’objectivité du futur », ce qui est logiquement incontestable. De notre côté nous avons essayé de montrer (cf supra.) que l’hypothèse d’objectivité de la valeur a été adoptée pour faire de la valeur fondamentale le facteur explicatif d’une évolution des cours pensée comme objective : c’est l’ « hypothèse d’objectivité de l’évolution des cours » qui a nécessité l’adoption de l’hypothèse d’objectivité de la valeur, sans que soit réellement pensée ou réfléchie l’hypothèse d’objectivité du futur qui en est pourtant, comme le dit justement Orléan, le présupposé logique.

10 Sur cette discussion, voir en particulier Brian et Walter dir. (2007)

11 Remarquons au passage que cet environnement saturé de flux d’informations n’existait pas au temps où Fama écrivait ses articles fondateurs.

12 Dans le cadre de l’approche distributionnelle dominante, cet objectif de rendement est défini relativement à un benchmark. La centralité du rendement comme enjeu se voit par exemple dans les analyses de Gond (2006) qui montre notamment comment la stratégie de légitimation de l’investissement socialement responsable passe par la démonstration de sa performance financière.

13 La désignation des évolutions de cours comme déplacements de cours nous paraît appropriée à cette approche. Elle connote en effet ce phénomène comme résultant de l’intervention d’acteurs ; elle s’oppose à des termes plus neutres comme « évolution » ou « changement » ainsi qu’à la notion de rendement qui, exprimant le phénomène en pourcentage, évoque plutôt un chiffre observé sur un écran et facilite les analogies avec la physique ou la biologie.

14 Le terme est utilisé en français, et il nous paraît dans cette langue moins ambigu que « courtier », mot qui désigne des activités différentes.

15 L’interdépendance avec les analystes financiers nous paraît avoir moins de conséquences. Les investisseurs, dans la mesure où ils suivent les recommandations des analystes ou tiennent compte de leur production ou plus largement de leur réflexion, en sont dépendants, et les analystes, de leur côté, sont dépendants des investisseurs à la fois dans la mesure où ce sont leurs clients (de façon indirecte quand la recherche n’est pas facturée en tant que telle, de façon directe quand elle l’est), des clients qu’ils ont besoin de garder et d’attirer, et dans la mesure où ils tiennent compte des évolutions des cours (qui résultent des décisions des investisseurs) pour former leur propre jugement. Ce dernier point a été solidement argumenté et documenté par Chambost (2007).

16 Nous renvoyons ici aux travaux de Sabine Montagne (2006), qui a exposé, sur la base d’une analyse du développement des trusts dans la finance, comment cette relation a évolué dans le sens de l’imposition des normes des gérants, aboutissant à ce qu’elle a appelé un « pilotage par l’aval ».

17 Nous avons pu relever une illustration saisissante de la première approche dans un article présentant les activités d’une chaire de recherche en finance quantitative. Cet article explique par exemple que l’une des spécificités de la chaire consiste à retenir « la caractérisation des marchés financiers sous la forme d’un système multi-agents complexe » et que cette spécificité est liée à une visée explicative : elle « s’attache à la compréhension et à la simulation des mécanismes qui provoquent » les évolutions des prix sur les marchés financiers (Abergel, 2009, p. 25). Il semblerait donc que l’interdépendance entre acteurs est comprise comme expliquant l’évolution des cours, comme dans notre approche. Or il n’en est rien, et on le comprend dès que cet axe de recherche est décrit de façon plus détaillée : « Une des directions de recherche principales de la chaire est de faire le lien entre la description statistique des phénomènes, et une description « physique » de ces mêmes phénomènes. C’est là que la notion d’ « agents », principe à la base de tout système complexe, intervient de manière naturelle : les agents (intervenants) des marchés financiers sont les particules de la physique statistique. Et si la complexité psychologique d’un agent est, assurément, bien supérieure à celle d’une molécule d’oxygène ou d’une particule de pollen, de nombreux résultats indiquent qu’une vision macroscopique de la multiplicité de tous les agents est possible, et qu’elle passe par une utilisation, amélioration ou création d’outils touchant à la physique statistique et à la théorie des processus stochastiques. » (Abergel, 2009, p. 26) Il apparaît bien ici que, même lorsque ce type de recherche prétend prendre en compte l’interdépendance entre les acteurs, cette prise en compte est en faite traduite pour fonder une forme de modélisation du risque, encore une fois basée sur l’assimilation de l’évolution des cours à un phénomène relevant des sciences de la nature.

18 C’est un point que nous avons pu observer sur le terrain de notre thèse en cours.

19 L’argent et la réussite professionnelle sont les critères de jugement de la bourgeoisie naissante, or une des fonctions des cours des monarchies absolues a précisément été d’isoler la noblesse de la bourgeoisie. Elias développe aussi l’idée que, face au déclin économique et politique de la noblesse aux XVIème et XVIIème siècles, le développement des cours royales était un moyen pour le souverain de redonner un espace à la noblesse pour qu’elle puisse encore servir de contrepoids à la bourgeoisie, de façon à ce que le souverain puisse éventuellement se poser comme arbitre entre les deux.

20 Sabine Montagne (2006) lie cette évolution à la socio-histoire de la gestion d’actifs aux Etats-Unis. On peut ajouter que, si elle se comprend sociologiquement, elle peut aussi se comprendre logiquement : c’est parce que le substantiel est impossible que le procédural ne peut que se développer.

21 Le cas d’Enron avait ceci de remarquable qu’il cumulait un respect formel poussé des normes comptables et de gouvernance et une manipulation des résultats poussée à l’extrême. Pour atteindre leur objectif, qui était la maximisation du cours de Bourse, les dirigeants mobilisaient à la fois l’exhibition de procédures et la falsification des chiffres. C’est la deuxième approche qui les a perdus, et on peut supposer qu’elle est sensiblement plus risquée que la première. Depuis, le développement de nouvelles réglementations dont la loi Sarbanes-Oxley est l’exemple le plus connu a conforté et renforcé l’activité consistant à faire voir que l’on applique des procédures. Le développement des fonctions de déontologie va dans le même sens.

22 Ce qui fait en particulier que le raisonnement de Hayek sur le prix de marché qui transmet de façon synthétique toute l’information, de façon bien plus efficace que n’importe quelle autorité centralisée, ne peut fonctionner sur les marchés financiers. Le prix n’y est pas en effet signal ou reflet de quelque chose : il n’est que la résultante de conjectures interdépendantes.

23 Aussi illustrée par Marie Brière (2005) et Yamina Tadjeddine (2006), notamment.

24 Voir en particulier Shleifer (2000) et Mangot (2005), pour des présentations d’ensemble de courant.

25 « The dependence of most tests of market efficiency on a model of risk and expected return is Fama’s (1970) deepest insight, which has pervaded the debates in empirical finance ever since. Whenever researchers have found a money-making opportunity resulting from trading on stale information, critics have been quick to suggest a model of risk – convincing or otherwise – that would reduce these profits to a fair compensation for risk-taking.” (Shleifer, 2000, p. 6)

26 Nous sommes largement redevables sur ce point, à Marie-France Khalidi qui a très pertinemment critiqué une première version de ce papier présentée au séminaire d’Isabelle Chambost au Cnam le 18 mars 2009.

27 La notion de réflexivité telle qu’elle a été développée par George Soros (2008) peut être liée à cette proposition. Soros présente comme élément central de son « cadre conceptuel » l’idée que « les phénomènes sociaux sont structurellement différents des phénomènes naturels » étant donné que « la chaîne de causalité ne comprend pas seulement les faits mais aussi les opinions des acteurs et les interactions entre ces opinions » (p. 35)

Blog de Paul Jorion - 09.06.09

Sem comentários:

Related Posts with Thumbnails