Dans l’article précédent, je concluais sur le fait que, d’après la théorie des marchés efficients, comprise comme efficience allocative des marchés, y compris financiers, les marchés sont fondamentalement stables à long terme. On fera remarquer que, dans la réalité, les marchés, en particulier financiers, ne semblent pas précisément très stables. Pourquoi y-a-t-il des crises financières, dans ce cas ? Nous avons fait remarquer que les hypothèses de validation de la théorie des marchés efficients étaient fortes. Essayons maintenant de relâcher quelques-unes de ces hypothèses pour en évaluer les conséquences, à court terme, puis à long terme.
Nous pouvons dans un premier temps relâcher la première hypothèse (flexibilité de l’offre). Cette hypothèse, nous l’avons vu, implique que les facteurs de production circulent librement, à commencer par le capital. Or, pour diverses raisons, cette condition (qui est une condition de la concurrence pure et parfaite) peut ne pas être remplie. Les mouvements de capitaux et du travail peuvent être entravés. Certains marchés impliquent des barrières à l’entrée « naturelles », car les coûts fixes sont très élevés (par exemple les télécoms) ou parce que les ressources sont rares et localisés en des endroits précis (exemple du pétrole). Sur ce type de marché va avoir tendance à se former un « monopole naturel », ou un cartel (ex. OPEP) qui impose des barrières à l’entrée. Si nous reprenons notre exemple des producteurs de blé, un cartel dans le secteur peut décider que, face à une hausse des prix, il ne va pas augmenter les quantités vendues, mais au contraire les réduire ou les maintenir, pour augmenter artificiellement ses marges. Les ajustements ne se produiront pas.
On peut aussi relâcher l’hypothèse de substituabilité des biens. Cela peut se faire de plusieurs façons, dont la force critique à l’encontre de la théorie des marchés efficients n’est pas la même. Une première façon de le faire est de noter que tous les biens et services ne se valent pas, donc que l’élasticité-prix des différents biens et services est variable. Un bien comme le pain est considéré comme nécessaire dans de nombreux pays. Donc sa consommation varie peu quand le prix varie (le bien est faiblement élastique au prix, son élasticité-prix est proche de zéro). C’est aussi le cas des dépenses pré-engagées à court terme : loyers, assurance, internet, etc. En général ces biens sont peu substituables. A l’inverse, les biens de luxe (dits biens de Veblen) ont une élasticité positive : la consommation est associé à un certain statut ; lorsque le prix baisse, la demande baisse car le prestige associé au produit diminue ou disparaît, et inversement quand le prix augmente (exemple : parfum). Dans ce cas, les consommateurs ne vont pas se comporter comme prévu : par exemple si le prix du bien augmente, ils ne vont pas réduire leur consommation (dans le cas des biens de luxe leur consommation va même augmenter).
Mais ce ne sont pas là des critiques très fortes de la théorie. On peut en effet y répondre soit par l’horizon temporel, soit par l’horizon concurrentiel. Par l’horizon temporel, il suffit de faire remarquer, comme nous l’avons déjà fait, que ce qui est vrai à court-terme ne l’est pas nécessairement à long terme : à long-terme tous les biens et les actifs, incluant les biens de nécessité, peuvent être considérés substituables. Si le pain est durablement trop cher, les consommateurs achèteront de la brioche. Même l’eau peut être remplacée par du Coca, elle l’est d’ailleurs fréquemment sur les tables de nombreux pays du monde. Par l’horizon concurrentiel, on peut aussi rétorquer que les marchés de monopole naturels sont des marchés très particuliers et que si l’Etat n’y intervenait pas, ils seraient déjà plus concurrentiels (cas des télécoms français avec la laborieuse attribution d’une licence supplémentaire à Free, qui eut des conséquences immédiates sur les prix), où encore que la concurrence pure et parfaite est un modèle descriptif « idéal » n’ayant pas vocation à décrire le monde réel (d’autant plus que pour Walras, fondateur de ce genre de raisonnement, l’équilibre en CPP impliquait l’existence d’un « commissaire-priseur » centralisant les offres et les demandes, pour éviter les biais de marché du type échanges bilatéraux, ententes…). Surtout, ce genre de critiques est particulièrement faible dans le cas des marchés financiers : la concurrence y est notoirement très forte (y-a-t-il des cartels sur les marchés financiers ?) et les actions et les obligations, biens purement immatériels qui ont un intérêt presque uniquement financier pour son possesseur, sont nettement plus substituables que les biens matériels comme le pain et la brioche.
Il faut donc chercher des critiques plus radicales de la théorie des marchés efficients, en relâchant différemment les hypothèses sous lesquelles elle est valide. Nous examinerons trois façons de le faire. La première est celle de la flexibilité de l’offre, différenciant marchés financiers et marchés de biens et services. Si les facteurs de production circulent librement, avons-nous dit, une variation du prix fera varier à terme l’offre de biens et de services. Mais ce n’est pas le cas sur les marchés financiers. Non parce que le capital y circulerait moins bien, mais pour deux autres raisons. PNG en donne une : « la Bourse n’est qu’une source de financement négligeable pour les entreprises prises dans leur ensemble. Elle sert à autre chose : à les « évaluer » et aux changements de propriétaire, c’est-à-dire aux fusions-acquisitions par OPA ou OPE ». Ainsi une hausse des cours n’incite pas les « offreurs d’actions », c’est-à-dire les entreprises émettrices, à en émettre davantage, et une chute des cours à en diminuer le nombre. Une autre raison explique ce comportement : les actionnaires d’une entreprise sont généralement opposés à l’émission de (trop de) nouvelles actions par la même entreprise, car cela revient pour eux à « diluer » les actions de cette entreprise en augmentant le nombre de propriétaires potentiels de l’entreprise, donc en diluant les dividendes potentielles. Finalement, quand le cours d’une action monte (baisse), la « production d’actions » ne monte (baisse) pas. « Sur tous ces marchés, par conséquent, une hausse (et respectivement une baisse) des prix n’entraîne pas d’effet correcteur rapide et automatique par augmentation (et respectivement réduction) d’une production. » (PNG).
La seconde façon consiste à relâcher l’hypothèse de substituabilité de manière plus radicale. Elle repose sur la mise en évidence des asymétries d’informations. Nous avons dit que la théorie des marchés efficients au sens second supposait que les acteurs, investisseurs sur les marchés, consommateurs et producteurs, agissent de façon rationnelle en comparant les actifs entre eux, et que cela impliquait qu’ils disposent des bonnes informations. En particulier ils doivent avoir deux types d’informations : l’information actuelle (il faut que la circulation de l’information sur les marchés soit rapide) et l’information future (il faut que le futur soit anticipable, au moins probabilisable).
Posons d’abord que la circulation de l’information actuelle n’est pas parfaite. C’est-à-dire que nous supposons que les marchés ne sont pas efficients au sens premier (absence d’efficience informationnelle). Supposons que le prix d’une action, c’est-à-dire son cours, monte. D’après la théorie des marchés efficients, une hausse du cours d’une action sans que son risque soit modifié devrait inciter une partie des investisseurs à se retirer prudemment du marché, le prix de l’action devenant trop cher par rapport à son bénéfice estimé, c’est-à-dire par rapport aux perspectives de croissance future de l’entreprise, qui vont déterminer les dividendes qu’elle va verser (ces perspectives représentant ici les fondamentaux de l’action). A terme, le prix de l’action retournait à son prix fondamental. Mais si l’information actuelle ne circule pas parfaitement, les agents économiques n’ont pas au même moment les informations sur les prix et les évènements en cours. Ceux qui ont l’information en premier sur la hausse des cours vendent cette action, si elle devient trop chère par rapport à une autre action de même type (nous l’avons vu précédemment avec A et B). Mais les autres réagissent avec retard, voire dans un cas extrême de lenteur de circulation de l’information, ne réagissent pas du tout, ce qui fait que les ajustements prévus sont lents, ou bien ne se produisent pas. Lors du jeudi noir, le 24 octobre 1929, les téléscripteurs avaient jusqu’à deux heures de retard, si bien que les opérateurs de marchés ne savaient pas exactement à quel prix s’échangeait les titres, les vendeurs paniqués ne sachant pas à quel prix il l’avait cédé. Ce qui a accru la panique et amplifié le krach.
On pourrait objecter à juste titre que dans un contexte moderne de circulation rapide de l’information via les réseaux informatiques, un tel problème ne se pose plus, d’autant que l’une des missions des autorités de régulation des marchés financiers (en France, l’AMF) est précisément d’augmenter la diffusion de l’information et de lutter contre les délits d’initié. Ce n’est pas faux, même si cela n’empêche pas, nous l’avons vu, à la théorie de l’efficience informationnelle des marchés de souffrir de défauts.
Mais ce qui est plus problématique, c’est la question de la circulation de l’information future, c’est-à-dire la question de savoir dans quelle mesure le futur peut être connu. Reprenons notre exemple d’une action dont le cours monte. La réaction des investisseurs va dépendre de leur jugement à propos du couple rentabilité/risque, c’est-à-dire ici du rapport entre le nouveau prix de l’action et son espérance de rentabilité, qui sont les profits futurs de la firme qui a émise l’action. Mais si l’information future n’est pas parfaite, comment connaitre ces profits futurs ? Les acteurs ne savent pas véritablement si la hausse du cours de l’action témoigne de l’amélioration de la situation économique de l’entreprise l’ayant émise ou s’il s’agit d’une bulle spéculative « irrationnelle ». Autrement dit, personne ne connaît véritablement les prix fondamentaux, c’est-à-dire que personne ne sait prédire avec certitude qui sera le prochain Google ou Microsoft, et qui sera le prochaine Netscape ou Worldcom. Face à l’incertitude concernant les profits futurs, qui peuvent être gigantesques ou nuls, la maxime générale est « dans le doute, fais comme tout le monde » : c’est le principe bien connu selon lequel sur les marchés financiers, il vaut mieux avoir tort avec tout le monde que raison tout seul. Même si, disposant d’une information confidentielle, un investisseur particulier savait que cette hausse est démesurée par rapport à la capacité de l’entreprise concernée à faire des profits à long terme, il a intérêt à se comporter comme tout le monde et à acheter. En effet, que cette hausse soit « rationnelle » ou non, s’abstenir prudemment alors que les cours montent reviendrait à se priver d’un bénéfice possible à la revente (et à subir une perte potentielle en cas de baisse des cours). Rationnellement, les investisseurs ont donc intérêt à acheter l’action pour la revendre plus cher plus tard, même s’ils estiment personnellement que cette hausse est démesurée. Comme, par ailleurs, l’incertitude fait qu’on ne sait pas quand il faut liquider sa position (c’est-à-dire revendre), les comportements d’un grand nombre d’investisseurs vont être mimétiques et cumulatifs. Si nous reprenons notre exemple de deux actions A et B de risques équivalents. Le cours de l’action A monte. Dans la théorie des marchés efficients, les opérations d’arbitrage effectués par les agents tendent à faire revenir A à son niveau initial. Mais avec l’hypothèse d’incertitude future, la hausse des cours de A peut traduire une hausse des profits futurs de l’entreprise, donc si des opérations d’arbitrage ont lieu, elles vont se faire en faveur de A et au détriment de B !
Ainsi, explique André Orléan (c’est moi qui graisse) « (…) une période de hausse des cours, loin de susciter un repli de l’investissement comme le voudrait la loi de l’offre et de la demande, peut le favoriser énormément en engendrant une croyance durable dans la hausse future. Or, comme le prix qui se forme est le résultat de ces comportements, la croyance majoritaire dans la hausse produira mécaniquement la hausse. C’est ce qu’on nomme une « prophétie autoréalisatrice ». Dans ces conditions, la hausse constatée des prix ne renvoie nullement à une hausse de la vraie valeur du titre ; elle est le produit rationnel d’investisseurs anticipant la hausse. Dès lors que cette croyance domine le marché, elle se réalise de facto. Cette rationalité autoréférentielle peut être également dite « mimétique » au sens où elle se focalise sur l’opinion majoritaire qu’elle cherche à mimer pour l’anticiper ». Ainsi pendant la bulle internet, le Price-earning ratio (PER) moyen du Nasdaq, marché américain sur lequel sont côtés les sociétés technologiques, était de 400. Cela signifie que le cours (ie. le prix) moyen des actions y était 400 fois supérieur au BPA moyen, historique ou prospectif (BPA = bénéfice par action, soit le bénéfice comptable d’une entreprise rapporté à son nombre d’actions). Naturellement, plus les innovations financières à base de titrisation, comme ce fut le cas à partir des années 2000, rendent difficiles l’évaluation du risque des titres financiers, plus l’information est asymétrique, plus les comportements sont mimétiques et moins la loi de la demande « classique » se vérifie (nous reviendrons plus tard sur ce point).
Si donc les demandeurs d’actions ne réagissent pas sur les autres marchés, en ne se décourageant pas quand les cours augmentent, et que l’offre est fixe même à long terme, un écart durable aux prix fondamentaux est possible, sans certitude d’y revenir. En réalité, il n’y a rien là que des choses très classiques : les économistes étudient les asymétries d’information depuis les années 70 au moins et ont mis en évidence que certaines d’entre elles (le phénomène de sélection adverse) pouvait conduire à la disparition pure et simple du marché (en l’absence d’intervention publique) et que d’autres (les aléas moraux) pouvaient conduire à une sous-efficacité de système. Stéphane Ménia en donne un exemple : « Vous souhaitez créer une entreprise, avec un projet bien précis. Vous avez besoin de fonds. Vous allez donc voir votre banquier préféré. Et lui, ne vous connaît pas, en réalité. Il ne sait pas si votre start-up est de la poudre aux yeux ou bien quelque chose de solide. Il n’a pas toute l’information nécessaire à votre sujet. Alors, que doit-il faire ? Il va dépenser un peu d’énergie à décrypter votre projet. Puis finalement le considérer comme jouable. Est-ce gagné pour autant ? Non, « jouable », ce n’est pas « sûr ». Il va vous demander d’apporter des garanties (une hypothèque sur votre maison ou quelque chose comme ça) ou vous fixer un taux d’intérêt plus élevé que celui qu’il accorde à d’autres clients réputés plus sûrs. (…) Son problème est essentiellement de vous faire « réagir ». Si vous pensez que votre projet est solide, vous serez prêt à payer plus ou à donner des garanties. C’est une façon pour lui de savoir un peu plus à qui il a affaire. D’autre part, il sait qu’en vous imposant de supporter des garanties, vous êtes en partie solidaire de sa petite entreprise en cas de faillite. Et c’est pour lui un gage de sérieux de votre part, une façon de s’assurer contre un risque d’aléa moral. Il sait que pour éviter de perdre vos garanties, vous fournirez un effort plus important que si le seul à supporter tous les risques était le banquier. Pas de soucis alors ? (…) Ce n’est pas évident. Si vous avez un projet dont les rendements futurs seront inférieurs au coût du crédit, bien que vous soyez un bon emprunteur sur le fond (vous pourriez rapporter un profit à la banque et vous assurer un rendement sur votre investissement), vous laisserez tomber votre projet. Et concernant les éventuelles garanties ? Si vous n’avez rien à mettre en avant de ce côté-là, vous pourriez être le futur Bill Gates, cela ne changerait rien. La banque ne le sait pas. Vous ne pouvez pas réaliser l’investissement. Dans ce cas-là, l’asymétrie d’information crée une situation inefficiente : des investisseurs potentiellement rentables ne peuvent investir. Le banquier y perd, puisqu’il ne perçoit pas les intérêts que vous auriez pu lui donner grâce à l’immense succès de votre système d’exploitation Hublot 2002. Vous y perdez, puisque vous ne réalisez pas le projet rentable. Mieux que ça, si ce genre de mésaventures se généralisent dans l’économie, c’est la société qui y perd. D’abord parce que des projets non rentables mais fournissant des garanties financières peuvent être financés à votre place. Ensuite parce que votre activité et celles d’autres dans votre cas ne bénéficieront pas à l’économie (il est question de croissance économique. Elle sera évidemment plus élevée si des investissements rentables sont réalisés). (…) Et pourquoi tout ceci peut arriver ? Parce que l’information sur le marché du crédit n’est pas aussi naturellement bonne que ce qu’on le voudrait. »
Avant d’aborder la critique la plus radicale de la théorie des marchés efficients, faisons le point. En relâchant les hypothèses fortes sous lesquelles elle est valide (libre circulation des facteurs de production et notamment du capital, flexibilité de l’offre, libre circulation de l’information qui permet la commensurabilité donc la substituabilité des actifs, etc.) nous aboutissons à une critique forte de la théorie. Compte tenu des imperfections du marché, le monde qu’elle décrirait ne s’appliquerait presque jamais à la réalité. En particulier, sur les marchés financiers, l’incapacité de connaître le futur et la non-flexibilité de l’offre engendrerait des comportements mimétiques et cumulatifs. Offreurs et demandeurs ne se comporteraient in fine pas comme la théorie microéconomique le prévoit. Dès lors, un écart durable aux prix fondamentaux, par définition une bulle spéculative, serait possible. Sans certitude d’y revenir. Rappelons une fois encore que cette critique de l’efficience des marchés s’applique à l’efficience entendue comme efficacité allocative par ancrage du prix au fondamental, davantage qu’à l’efficience comprise comme capacité des marchés à refléter et à transmettre l’information passée et présente dans les prix. J’insiste : certains marchés peuvent être efficients au sens 1, c’est-à-dire intégrer correctement l’information dans les prix, donc fournir des informations pertinentes, ne laisser que peu d’occasions d’arbitrage, sans être pour autant efficients au sens 2, c’est-à-dire que le prix de marché peut être complètement déconnecté de toute valeur fondamentale, ce qui entraîne de l’instabilité et explique les bulles spéculatives.
Existe-il d’ailleurs quelque chose comme un prix fondamental ? PNG fait une critique plus radicale à la théorie des marchés efficients. Selon lui, si l’on admet l’hypothèse d’une information future radicalement incertaine, la notion même de fondamental devient discutable. Notons à ce stade que PNG ne remet pas en cause la théorie des marchés efficients pour les marchés de commodités (c’est-à-dire les marchés de matières premières échangeables telles que le blé, le pétrole, les métaux) et de façon générale pour certains biens et services ; mais il estime qu’elle est fausse pour les marchés sur lesquels s’échangent des titres financiers, ainsi que pour les actifs immobiliers.
Il en donne deux raisons. D’une part, l’incertitude concernant l’information future est plus grande sur les marchés financiers qu’ailleurs. Pour les commodités, les fondamentaux dépendent des capacités de production et des stocks, qui sont connues, et qui déterminent les coûts totaux et marginaux de production, également connus. Seule la demande est difficile à prévoir avec certitude. « Mais se tromper sur ce facteur ne conduit qu’à se tromper sur une chose : la date précise du retournement de la tendance. De plus, ces facteurs ont un caractère « objectif », extérieur aux anticipations de prix qu’ils permettent de former. Des bulles spéculatives peuvent certes se développer sur un marché de commodités, en situation de saturation des capacités existantes, de stocks très réduits et en attendant l’ouverture de nouvelles unités de production. Mais le prix de marché reste soumis à un ancrage « réel » incontestable. C’est ce qui fait dire, ajuste titre, aux professionnels et aux analystes des marchés de « commodités », que « le physique finit toujours par y imposer sa loi ».
Pour les actifs financiers, en revanche, rien de tel. Les fondamentaux dépendent des bénéfices futurs. Ils sont certains dans le cas des obligations (émises à taux fixe) et c’est sans doute pourquoi les marchés obligataires ont une efficience supérieure. Cependant ils sont incertains dans le cas des actions : non seulement les profits futurs de l’entreprise peuvent être assez flous, mais encore on ne sait pas exactement quelle part de ces profits elle va affecter aux actionnaires. « Ce qui est [observable], ce sont les bénéfices passés. Mais l’information sur les bénéfices passés ne vaut pas grand-chose pour prévoir les bénéfices futurs, sauf, à l’extrême rigueur, dans le cas d’une entreprise bien établie dans un secteur à maturité où les parts de marché, les prix et les profits sont stables. La preuve a contrario en a été l’augmentation vertigineuse du prix de certaines actions dites « Internet » jusqu’à mars 2000, alors que les entreprises en question n’avaient fait que des pertes depuis leur introduction en Bourse. » « Dans ces conditions, comment peut-on être fondamentaliste ? Il faut se demander quel sens et surtout quelle efficacité pratique conserve la notion de prix fondamental quand ni lui ni aucun de ses déterminants directs ne sont observables dans le présent. On rétorquera que les qualités des dirigeants, prouvées dans le passé, les brevets détenus, les prévisions des experts sur la croissance « prévisible » des marchés, la pertinence du business plan affiché par l’entreprise, tout cela constitue des informations sur les fondamentaux des fondamentaux, observables aujourd’hui. On conviendra cependant que le lien entre ces fondamentaux de troisième, quatrième, etc., rang et le prix fondamental devient alors de plus en plus lâche et incertain. Ce lien est en réalité construit par chaque acteur, qui interprète les fondamentaux de rang élevé à l’aide d’un « modèle d’interprétation » explicite ou implicite. Ces modèles d’interprétation deviennent donc des facteurs tout aussi importants sinon plus que les fondamentaux observables dans l’évaluation du prix fondamental par chaque acteur. »
Par ailleurs, en plus d’une incertitude accrue, il y a sur les marchés de titres une circularité du prix fondamental et du prix de marché. Autrement dit, prix fondamental et prix de marché s’influencent mutuellement. Si le prix d’une action monte, les bénéfices de l’entreprise concernée vont être plus grands (elle est mieux financée). Cela peut lui permettre de financer une innovation, ou de racheter un concurrent qui en lance une. In fine, ce qui était hasardeux au départ (investir dans une entreprise dont les profits sont incertains) devient rentable par le fait même que de nombreux acteurs ont pris le risque hasardeux. Autrement dit, les prophéties autoréalisatrices font qu’une variation du cours au-delà du prix fondamental peut entraîner un nouveau prix fondamental qui justifie à posteriori la variation du cours : « Une société Internet voit le cours de son action exploser, bien qu’elle accumule les pertes, parce que beaucoup de gens croient à son « invention » et à son business plan et que la hausse s’auto-amplifie. En fait, son invention ne vaut rien. Cependant, ses dirigeants, qui connaissent bien leur industrie, profitent des cours exceptionnels de leurs actions pour acheter par OPE trois ou quatre sociétés, déjà cotées, mais dont le potentiel n’a pas encore été « repéré » par le marché, et dont les inventions, elles, sont proprement géniales. Grâce à ces acquisitions et malgré l’échec de l’innovation initiale qui finit par être avéré, les profits seront au rendez-vous. La hausse était initialement injustifiée et pourtant justifiée, car elle a provoqué ce qu’elle avait anticipé. » Ou comment la pensée fait la réalité, l’anticipation sur le futur détermine le futur.
Le même problème existe pour les marchés d’actifs tels que l’or, les biens immobiliers ou les tableaux : l’offre est rigide, même à long terme, en particulier pour l’or (dont la production est lente) et les tableaux de maître (dont la quantité est fixée définitivement à la mort du maître). La substituabilité y est faible, compte tenu du service rendu par les biens immobiliers (pris dans leur ensemble car il y a par contre substituabilité entre louer ou acheter son bien immobilier), l’or et surtout les tableaux de maîtres, tous uniques. La circularité est aussi présente : le prix de marché de ces biens dépend de leur valeur d’usage, qui dépend elle-même de leur fondamental, qui est influencé par le prix de marché puisque la valeur d’usage d’un tableau de maître, à fortiori de l’or (nulle en soi), est liée au prestige que confère la possession de tels objets économiques, prestige qui a évidemment à voir avec la valeur d’échange (le prix de marché). Cela rend inopérante la théorie des marchés efficients, car les producteurs et les consommateurs ne se comporteront pas nécessairement comme elle le prévoit.
J’ajouterai un point, que n’aborde pas PNG, et qui me semble très important, quoique la discussion qu’il implique dépasse largement le cadre de cet article. C’est un débat qui renvoie aux très anciens débats sur la théorie de la valeur cherchant à répondre à la question : « qu’est ce qui donne de la valeur à quelque chose ? ». Les théories de la valeur objective (pratiquement tous les économistes avant 1870) répondaient généralement : « les coûts de production, et surtout le travail ». Depuis la révolution marginaliste opérée par Menger et surtout Jevons et Walras, fondateurs de l’école néoclassique, on répond majoritairement : l’utilité, c’est-à-dire le degré de satisfaction accordé par les consommateurs aux produits. Or, la théorie des marchés efficients implique que le prix fondamental est déterminé par des variables réelles : coûts de production, stocks, valeur actuelle des bénéfices futurs de l’entreprise… Elle implique donc d’adhérer à une théorie de la valeur objective. Or, c’est problématique, car la théorie des marchés efficients est sensée s’inscrire dans un cadre théorique général néoclassique, lequel repose sur les théories subjectives de la valeur… Dans ce cas, il faudrait tirer toutes les conclusions de la révolution marginaliste. Si la valeur n’est déterminée que par « l’opposition entre les goûts et les obstacles » (Pareto), alors le prix fondamental est en permanence changeant. Peut-on alors encore parler de prix fondamental, dont une des caractéristiques admises est d’être stable ? La moindre instabilité dans les préférences individuelles et on observera des « sauts » de prix fondamentaux. On a beau jeu alors de maintenir que le prix de marché gravite autour du fondamental, si le fondamental lui-même n’est pas stable… C’est aussi valable si les techniques de productions changent (cette dernière remarque ne s’applique pas aux marchés financiers). Apparaît une contradiction d’horizon temporel : les goûts et les subjectivités peuvent être considérés stables, mais à court-terme seulement. Or la viabilité des hypothèses de la théorie des marchés efficients (au sens d’efficience allocative) est beaucoup plus forte à long-terme… Les préférences individuelles sur les marchés financiers peuvent-elles donc être considérées stables à long-terme ? Ajoutons une dernière contradiction d’horizon temporel : dans la théorie néoclassique standard (par exemple via le modèle offre-demande globale), l’offre de long terme est fixe, car elle est déterminée par des variables réelles de long terme comme le stock de capital humain, de capital naturel, l’offre de travail, le progrès technologique, etc. (on parle de production naturelle ou potentielle). Ce principe est une application de la dichotomie classique entre sphère monétaire et sphère réelle, qui repose sur l’hypothèse de neutralité de la monnaie, laquelle repose elle-même sur la rationalité substantielle des agents. Ceci implique qu’à long terme, des variations nominales comme celle des prix n’ont aucun effet sur les valeurs réelles. Si donc à long terme l’offre est rigide aux prix, comment le prix de marché graviterait-il à long terme autour du prix fondamental ?
Quoi qu’il en soit PNG aboutit à une conclusion radicale. Excepté sur les marchés de commodités, la notion même de prix fondamental est inepte, car le prix fondamental dépend plus des modèles d’interprétations des acteurs que de fondamentaux « réels », qui sont par ailleurs très incertains, et dont la circularité avec le prix de marché est avérée. On ne peut alors par parler de bulle spéculative comme une variation des cours au-delà du prix fondamental, variation destinée à retourner à son niveau initial. Il n’y a pas de prix fondamental ! Tout ce qu’on peut dire, c’est que « la capitalisation boursière reflète le niveau des paris qui sont pris par les acteurs rationnels « joueurs », ceux qui ont du goût pour le risque. » PNG ne croit donc pas à la théorie des marchés efficients. Elle s’applique certes sur certains marchés, comme le marché des commodités, mais pas sur tous. Sur beaucoup d’autres, en particulier le marché des actions la méconnaissance du futur rend l’avenir radicalement incertain à long-terme, voire à court terme dans certaines périodes de crise, et dans certains secteurs instables ou en développement. Dans ce cas, même si le marché intégrait immédiatement toute nouvelle information sur les prix (efficience au sens 1), rien ne dit que lesdits prix reflètent quoi que ce soit d’une réalité économique concrète (efficience au sens 2).
André Orléan dit que les marchés financiers sont autoréférentiels, les acteurs ne se référant pas aux prix fondamentaux mais à leurs propres anticipations. Les traders sont plus intéressés par le sentiment du marché que par le marché. Ce qui compte pour l’investisseur rationnel est moins la valeur objective du titre en tant que droits sur des revenus futurs, mais la manière dont évolue l’opinion majoritaire du marché. Sa référence n’est pas l’économie réelle, mais le marché lui-même. Cette idée est ancienne, puisque Keynes l’avait analysée dans sa TGEIM en 1936, comparant les marchés financiers aux concours de beauté londoniens où celui qui gagne un cadeau est celui qui prédit correctement quelles seront les trois femmes considérées par les votants comme les plus jolies, rendant efficace la stratégie qui consiste à voter non en fonction de ses préférences, mais en fonction de ce qu’on pense être celles de la moyenne des votants. Cela rend donc possible l’existence de variations amples et durables dans les prix de marché, déconnectés de fondamentaux qui n’ont d’ailleurs pas d’existence réelle, selon PNG, puisqu’ils dépendent de ce que les acteurs pensent qu’ils sont (les « modèles d’interprétation »). Ainsi « les marchés financiers sont intrinsèquement instables bien que les acteurs en soient parfaitement rationnels, car leur rationalité est nécessairement : 1) mimétique, 2) purement anticipative. Les prix des titres de dettes sont ainsi polarisés autour de niveaux relativement stables quand des anticipations rassurantes sur la solvabilité de l’émetteur sont largement partagées. Mais ces anticipations peuvent basculer très rapidement et très amplement si des doutes s’élèvent sur cette solvabilité. » (PNG à Marianne).
La conclusion de toute cette analyse est importante : les marchés financiers sont intrinsèquement instables, contrairement à ce que postule la théorie des marchés efficients. Le prix de marché dépend de la confiance des acteurs dans le système, de la confiance que chacun accorde à sa propre évaluation des fondamentaux et à celle des autres, du degré de mimétisme, et évidemment des modifications d’anticipations, qui dépendent elles-mêmes des informations nouvelles qui arrivent sur le marché (aspect objectif), mais aussi des modifications des modèles d’interprétations (aspect subjectif). C’est le théorème de Thomas, développé par le sociologue américain William Isaac Thomas en 1928 : « If men define situations as real, they are real in their consequences » (Si les hommes définissent des situations comme réelles, alors elles sont réelles dans leurs conséquences).
On peut ainsi résumer :
– Les marchés financiers sont intrinsèquement instables, parce que l’avenir est contingent ;
– Plus il y a d’asymétries d’informations (actuelle et surtout future), moins les agents sont capables d’évaluer le risque, moins ils se comportent suivant la loi de l’offre et de la demande classique, plus les marchés sont instables ;
– Toutes les techniques financières qui accroissent la difficulté à mesurer le risque accroissent le problème ;
– Plus l’horizon temporel est court, plus le problème s’accroit ;
– Il n’y a pas de prix fondamental stable sur les marchés financiers, sur les marchés immobiliers, sur les marchés de l’or.
Deux choses importantes doivent être notées à ce stade. D’une part, la théorie défendue par PNG dépend très largement de l’hypothèse philosophique qu’il pose, à savoir la radicale contingence du futur et en particulier de la richesse future. Contingent veut dire que la richesse future peut être ou n’être pas, et que, de façon générale, le futur n’est pas anticipable, à peine probabilisable. Si on retire cette hypothèse, et que l’on pense que le futur est probabilisable, le modèle de PNG s’écroule, et la théorie des marchés efficients redevient pertinente (sous réserve des autres critiques que nous avons faites). PNG est très clair à ce sujet : « Ces thèses sont éloignées des conceptions aujourd’hui dominantes tant en finance qu’en économie. J’en ai dit la raison. Elle tient à ce que j’ai systématiquement exploré les conséquences d’un axiome : « L’avenir est contingent. » Cet axiome n’est admis ni par la finance ni par l’économie, pour qui l’avenir est calculable. » On notera néanmoins que ce paragraphe date de 2001, et que lesdites thèses ont pris de l’importance depuis.
Deuxième élément majeur. La théorie de PNG conduit à conclure que les marchés sont intrinsèquement instables. Mais cela n’implique pas qu’ils soient irrationnels, ou inefficaces, ou inutiles. Nous avons déjà vu que la finance était fort utile. Nous avons aussi montré que rationalité et stabilité, ou rationalité et efficience, étaient des choses différentes. Les marchés peuvent être rationnels tout en étant mimétiques, et donc instables. Enfin, nous l’avons maintes fois répété, les marchés peuvent être efficients du point de vue informationnel mais inefficient du point de vue allocatif. En bref, les marchés financiers peuvent être à la fois utiles à l’économie réelle, rationnels et efficaces dans certaines de leurs fonctions (comme débusquer l’information et partager le risque), tout en étant structurellement instables et déséquilibrants. C’est possible parce que l’instabilité des marchés dépend essentiellement de la contingence du futur, alors que leur capacité à débusquer l’information et leur rationalité dépend de la circulation de l’information présente. Or l’information présente peut circuler correctement, et le futur rester incertain. L’un n’implique pas nécessairement l’autre, ce qui ne veut pas dire qu’il n’y a pas de connexions entre instabilité financière, efficacité et utilité économique. C’est une longue question que nous n’avons fait pour l’instant qu’effleurer et dont nous reparlerons, notamment en étudiant le rôle de la spéculation.
Pingback: Que faire face aux mouvements de capitaux ? (1/3) | Des hauts et débats
Pingback: La spéculation, pour ou contre ? | Des hauts et débats
Pingback: Note de lecture : Le capitalisme sans capital (J. Haksel et S. Westlake) – Des hauts et débats