Introduction
On peut retracer les fondations de la microéconomie aux travaux des marginalistes (Menger, Jevons et Walras) à la fin du XIXème siècle. Ce sont les jalons fondateurs du néoclassicisme qui sera synthétisé par Alfred Marshall au début du XXème siècle. Les néoclassiques se distinguent en effet des classiques sur plusieurs points : théorie de la valeur subjective fondée sur la loi de l’offre et de la demande, recherche de l’équilibre général sur les marchés (ce qui déplace le fondement de l’étude de l’origine de la valeur à la formation des prix), hypothèse de concurrence parfaite, et enfin raisonnement microéconomique qui procède le plus souvent de l’agent rationnel au comportement maximisateur.
Après la révolution keynésienne et la fin de la seconde guerre mondiale, tous ces fondements sont déjà bien établis et une forment une base d’analyse microéconomique. C’est l’économiste norvégien Ragnard Frische qui distingue macroéconomie et microéconomie pour la première fois, en 1933. La microéconomie (du grec mikro, petit) s’intéresse aux décisions des firmes et des individus concernant l’allocation des ressources rares. Par opposition à la macroéconomie, qui s’intéresse à l’économie d’une région, le nombre d’entité est limité en microéconomie, et le contexte axiomatique bien défini : que ce soit la concurrence parfaite, la concurrence imparfaite ou d’autres hypothèses fondatrices. C’est donc essentiellement la méthode d’analyse qui distingue la microéconomie de la macroéconomie, plus que les problèmes étudiés.
La microéconomie s’est fortement transformée à partir de 1945, principalement dans trois directions différentes : tout d’abord, avant même la fin de la guerre, la mathématisation de la discipline va se développer fortement, sous l’influence notamment de la commission Cowles (un programme de recherche américain fondé à la fin des années 1930), qui contribue à fonder une nouvelle discipline, l’économétrie, entièrement vouée à l’estimation de paramètres statistiques. Cette mathématisation culminera dans les travaux d’Arrrow et Debreu dans les années 1950 qui démontrent avec des techniques mathématiques beaucoup plus sophistiquées que celles de Walras l’existence d’un équilibre général, sous des conditions typiquement microéconomiques et orthodoxes : concurrence parfaite et agent rationnel notamment. En réaction et parfois en opposition avec cette approche très abstractive, une partie de la microéconomie va devenir beaucoup plus expérimentale, brouillant la frontière entre psychologie et économie : c’est l’économie comportementale. Dans un troisième temps, la nouvelle macroéconomie classique (Sargent, Lucas, Barro, Prescott et Kydland…) va, au début des années 1980, reprendre certains principes de la microéconomie pour refonder la macroéconomie.
Depuis 1945 la microéconomie a donc pris des chemins très divers et parfois opposés. En macroéconomie, les querelles méthodologiques et politiques demeurent, mais les objets de recherche font relativement consensus et sont en petit nombre : la croissance, le chômage, les échanges internationaux, l’inflation et le rôle des pouvoirs publics concentrent la plus grande partie des recherches. Ce n’est pas le cas de la microéconomie dont les objets d’études sont innombrables en quantité, tout en étant beaucoup plus circonscrits. Comme on l’a dit, c’est avant tout la méthode (s’intéresser à un petit nombre d’agent dans un contexte axiomatique bien défini) qui fait le microéconomiste. Un microéconomiste peut s’intéresser aussi bien à l’estimation de l’élasticité-prix de la demande de cinéma en Auvergne qu’à la concurrence entre Airbus et Boeing dans le cadre de la théorie des jeux, ou à la réaction d’un agent face au risque dans le cadre d’une expérience comportementale en laboratoire.
Comment les transformations de la microéconomie après 1945 ont-elles permis d’intégrer et de comprendre des problèmes nouveaux ? Dans une première partie, nous nous centrerons sur les premiers consensus méthodologiques après 1945 : mathématisation, utilitarisme, concurrence parfaite. En faisant un saut dans le temps, nous montrerons comment ces hypothèses ont contribué à refonder la macroéconomie à partir des années 1980. Dans une seconde partie, nous montrerons que le relâchement de ces hypothèses très strictes, voire un changement radical de méthode, ont permis d’étendre le champ d’analyse de la microéconomie, dès le début des années 1960.
Nous choisissons donc ici une approche logique par rapport à une approche chronologique, moins à même de restituer avec le recul nécessaire l’apport de tel ou telle approche à l’économie. Cependant, une reconstruction logique est toujours en partie arbitraire, car elle néglige le contexte historique de production des idées et tend à réinterpréter les travaux anciens en les homogénéisant, gommant leurs éventuelles contradictions et nuances. Cette démarche a donc ses limites mais apparaît cependant nécessaire : une démarche strictement historique aurait le défaut inverse, bien plus gênant, d’en rester à une simple historiographie de la microéconomie, sans pouvoir comprendre les enjeux, les problématiques et les concepts que discutèrent les auteurs anciens.
I. La microéconomie orthodoxe après 1945 : utilitarisme et concurrence parfaite
a. Une très forte mathématisation
Si on ne devait retenir qu’une seule méthode qui caractérise la microéconomie orthodoxe au début des années 1950, c’est la forte mathématisation, qui va de pair avec une forte modélisation. La microéconomie s’intéresse à un petit nombre d’agents placés dans des conditions axiomatiques « idéales » : concurrence parfaite, information parfaite. Ces agents sont supposés avoir un comportement optimisateur utilitariste, c’est-à-dire maximiser leur profit (entreprises) ou leur consommation (consommateurs) dans la limite de leurs contraintes (de coût, de temps, de technique, de budget…) et en fonction du prix. Dès lors, on peut s’intéresser, avec des techniques mathématiques plus ou moins sophistiquées, aux comportements de ces agents, puis à leurs interactions sur un marché donné qui va former un équilibre : c’est l’équilibre partiel. En théorie du producteur on s’intéressera par exemple à l’optimum de production, c’est-à-dire à la quantité produite qui maximise le profit sur un marché en concurrence parfaite, compte tenu de la contrainte des rendements marginaux décroissants et des coûts fixes. Une production trop faible n’est pas rentable car elle ne bénéficie pas des rendements d’échelle qui permettent de baisser le coût moyen en produisant davantage. Mais un production trop forte se heurte à la loi des rendements décroissants, et n’est pas rentable non plus dès lors qu’elle dépasse le point où le coût marginal est supérieur au prix de vente (supposé donné en concurrence parfaite).
On passe ensuite à l’équilibre simultané sur tous les marchés : marchés du travail, des biens, de la monnaie. C’est ce qu’avait fait Walras à la fin du XIXème siècle (Eléments d’économie politique pure, 1874) et que reprendront, avec des techniques plus élaborées, Arrow et Debreu après 1945 (Théorie de la valeur, 1956). Le résultat consiste essentiellement à démontrer l’existence d’un équilibre général qui maximise le surplus et l’utilité des agents, mais ne garantit ni sa stabilité, ni son caractère juste socialement. En effet un équilibre général peut respecter l’optimum de Pareto si un individu possède tout et les autres rien. Pareto tout comme Walras n’étaient pas des libéraux et distinguaient nettement méthode d’analyse microéconomique et préconisations politiques.
b. La théorie des jeux, un prolongement de l’axiomatique mathématique
Cette mathématisation va aussi irriguer à partir des années 1950 une nouvelle approche, la théorie des jeux, qui prend sa source dans les travaux de Von Neumann en 1944 et culmine avec ceux de John Nash dans les années 1960. Les théoriciens des jeux sont avant tout des mathématiciens, si bien qu’on peut presque parler de « méthode mathématique appliquée à des problèmes économiques » plutôt que d’économie en tant que tel. Il s’agit d’interpréter des interactions entre agents en termes de jeux sous contrainte, c’est-à-dire que les « joueurs » (typiquement des entreprises) doivent réaliser des actions dans un cadre normatif donné.
En fonction des règles du jeu (coopération permise ou non, information parfaite ou non, symétrie des actions ou non, séquentiel ou simultané, etc.) on aboutit à des résultats différents. La théorie des jeux essaie de trouver la meilleure stratégie pour chaque joueur : ainsi, John Nash démontre en 1950 que dans un jeu non-coopératif, aucun joueur ne peut améliorer son résultat en modifiant sa stratégie. Le dilemme du prisonnier est un célèbre exemple. On parle alors d’équilibre de Nash.
La théorie des jeux trouve des applications dans des problèmes aussi variés que la course aux armements (voir cet article de Delaigue par exemple), la politique industrielle, la régulation environnementale (ex. de la « tragédie des biens communs » de G. Hardin) ou l’emplacement du ballon lors des pénaltys au football. Tout comme la microéconomie orthodoxe, son caractère très contraint limite sa portée empirique et opératoire pour comprendre les problèmes économiques réels, car les résultats dépendent fortement des hypothèses retenues (ici des règles du jeu).
c. Les fondements microéconomiques de la macroéconomie
A partir des années 1980 un renouveau de la pensée macroéconomique se fait jour, en s’appuyant sur un retour à des hypothèses strictement microéconomiques. L’une des spécificités de l’école néoclassique, en effet, a toujours été de chercher à fonder ses raisonnements sur des analyses microéconomiques, avant d’en tirer éventuellement des conclusions macroéconomiques. La théorie des cycles réels, développée en 1982 par les économistes américains F. Kydland et E. Prescott, en est un exemple emblématique : cette théorie explique les fluctuations économiques par des arbitrages intertemporels des agents entre activité marchande et non marchande. Les agents sont considérés comme parfaitement rationnels et arbitrent en travail et loisirs, ou entre production (donc embauche) et non production pour les entreprises. Soumis à des chocs de productivité aléatoire, ces agents vont réagir ou non en fonction de leur perception du choc : perçu comme durable, les agents ne réagiront pas car ils peuvent augmenter leur revenu réel sans travailler (ou produire) davantage, ce qui n’est pas le cas s’il est perçu comme temporaire. C’est la fameuse métaphore de Robinson seul sur son île, qui voit un afflux soudain de noix de coco : si cet afflux est permanent Robinson va réduire son effort car il peut consommer la même chose avec moins d’effort ; s’il est temporaire Robinson va vouloir en profiter en faisant davantage d’efforts. Les fluctuations conjoncturelles ne sont donc pas des déséquilibres mais l’adaptation des agents à une économie en équilibre.
On voit ici la combinaison d’une méthode microéconomique (l’agent rationnel au comportement optimisateur) appliqué à un problème macroéconomique (la croissance) et qui conduit à des préconisations de politique économique : en particulier pour Kydland et Prescott la politique monétaire n’a aucune efficacité puisque le cycle est imprévisible et aléatoire, les agents s’adaptant aux politiques discrétionnaires gouvernementales. Prescott ira ainsi jusqu’à affirmer que la différence de revenu réel entre la France et les Etats-Unis s’explique par une préférence pour le loisir plus grande en France, en raison des impôts plus élevés. Autant dire que cette approche a été vertement critiquée par de nombreux macroéconomistes, à commencer par le récent Prix Nobel, Paul Romer.
II. Le relâchement des hypothèses orthodoxes aboutit à un renouveau de la pensée microéconomique à partir des années 1960
a. La critique de l’ « homo oeconomicus »
Dès 1957, dans Administrative Behavior, l’économiste Herbert Simon critique la rationalité parfaite (ou substantielle) sous-tendue par les modèles standard. Il oppose à celle-ci une rationalité imparfaite, impliquant un accès limité à l’information, une vision floue des préférences et une approche par « essai et erreur ». Par exemple, par opposition à la théorie microéconomique standard du consommateur, le consommateur « réel » ne compare pas toutes les offres disponibles, mais en compare quelques-unes. Ainsi, je ne vais pas faire la tournée de toutes les boulangeries de ma ville pour acheter du pain : je vais en premier lieu dans la plus proche et j’en change si le prix me paraît élevé ou la qualité faible, par comparaison avec les quelques boulangeries alentour et non pas avec l’ensemble de l’offre disponible. Les conventions, les valeurs de l’individu vont jouer un rôle, sans qu’on puisse pour autant parler de comportement irrationnel : pour Simon il n’est pas du tout irrationnel de procéder par essai et erreur, c’est au contraire la rationalité substantielle et « totale » des microéconomistes orthodoxes qui est irrationnelle (et irréaliste).
Cette analyse va influencer la microéconomie dans deux directions différentes : d’une part, l’intégration de l’information imparfaite dans les travaux, c’est-à-dire un amendement à la marge de l’analyse orthodoxe. D’autre part, dans une perspective plus radicale, le renversement complet de l’hypothèse d’agent rationnel.
b. La microéconomie en concurrence imparfaite
L’idée de raisonner en concurrence imparfaite va contribuer à modifier sensiblement les travaux des microéconomistes à partir des années 1960. L’influence du keynésianisme s’y fait sentir, avec l’idée que les prix sont rigides à court terme. Les individus ne sont pas forcément conçus comme irrationnels, ainsi que le pensait Simon : simplement, ils évoluent dans un cadre d’information imparfaite et « font de leur mieux » dans ce cadre, ce qui implique que les prix n’évoluent pas instantanément lorsque les conditions sur le marché sont modifiées. Les travaux s’inspirant de cette approche sont très nombreux et touchent aussi bien au marché des biens et services qu’au marché du travail ou à d’autre sujets. Dans les années 1970 Stiglitz et Akerlof démontrent ainsi qu’un marché (ici d’automobile d’occasion) peut disparaitre en cas d’asymétrie d’information très fortes ; Stigler applique cela au marché du travail et met en évidence l’existence d’un chômage frictionnel durable, lié aux asymétries d’information. Doeringer et Piore (1974) développeront quant à eux une véritable théorie de la dualité du marché du travail, qui repose sur le comportement rationnel d’individus placés en situation d’information imparfaite : les employeurs ont intérêt à payer certains salariés au-dessus du salaire d’équilibre pour garantir leur fidélité, diminuer les coûts de recrutement et de formation dans un contexte où la productivité des salariés n’est pas garantie à l’avance (asymétrie d’information), car un employeur n’achète pas un résultat, mais une promesse de résultats. Voir aussi sur ce sujet l’excellent travail du sociologue Nicolas Jounin dont j’avais déjà parlé sur ce blog.
S’appuyant sur la tradition coasienne des coûts de transaction, d’autres économistes comme Williamson (1979) s’intéresseront à l’arbitrage entre marché et organisation en fonction des coûts respectifs de chaque solution, ce qui trouve des applications notamment dans le domaine du droit des contrats ou de l’externalisation de certaines tâches. Cela peut concerner aussi bien une petite municipalité qui se demande si elle doit embaucher un cantonnier ou faire appel à une société extérieure privée pour ramasser les poubelles, qu’une multinationale comme Ford se demandant si elle doit acheter son caoutchouc sur le marché ou le produire elle-même.
Ainsi, les concepts de coût de menu, coûts de transaction, externalité, aléa moral ou asymétrie d’information font aujourd’hui partie du corpus microéconomique standard et trouvent de nombreuses applications.
c. Le développement de l’économie comportementale
A partir des années 1970, des scientifiques avec des formations plus proches de la psychologie vont s’emparer de ce problème et contribuer à fonder la « psychoéconomie ». A la lisière entre psychologie et économie, cette discipline vise à retravailler les hypothèses fondatrices de la microéconomie, notamment la rationalité, à l’aide de modèles et surtout d’expériences de psychologie.
L’idée d’expérimenter les modèles microéconomiques n’est pas nouvelle, elle prend sa source dès le début du siècle avec les expériences de Chamberlin qui reproduit dans ses salles de classes des marchés avec offreurs et demandeurs pour tenter de démontrer sa théorie de la concurrence monopolistique. Cependant, il s’agit ici d’essayer de valider le modèle standard ou de le modifier à la marge en introduisant l’information imparfaite (cf. supra), en recherchant expérimentalement les conditions de l’équilibre. Les psychosociologues comme Kahneman, au contraire (il obtiendra le Prix Nobel en 2002) veulent refonder la théorie microéconomique sur la base d’un agent psychologique, non rationnel. Les psychoéconomistes mettent en évidence un grand nombre de biais cognitifs appliqués à l’économie : tendance à accorder plus de valeur aux biens qu’on possède qu’à ceux qu’on souhaite acheter, aversion au risque et à la perte, raisonnement en prix relatifs et sur la base d’une information limitée, influence des habitudes de consommation plus importance que celle du prix, etc. Les individus seraient alors « prévisiblement irrationnels », selon le titre du livre du psychoéconomiste Dan Ariely.
La particularité de la psychoéconomie, ou économie comportementale, est d’obtenir ces résultats en laboratoire, c’est-à-dire dans le cadre d’expérience de psychologie avec contrôle de variables. C’est à la fois une force, car les résultats sont ainsi empiriquement bien établis, et une faiblesse car il est difficile de se démarquer de la psychologie en tant que telle : les résultats obtenus sur quelques sujets en laboratoires ne sont pas forcément généralisables aux comportements collectifs, si bien que cette « ultramicroéconomie » permet difficilement de tirer des conclusions applicables aux marchés en général.
Conclusion
La grande diversité des problèmes traités par la microéconomie depuis 1945, parfois à la lisière entre plusieurs disciplines (mathématiques, psychologie…) permet difficilement de traiter désormais « la » microéconomie comme d’une discipline unifiée. On peut cependant affirmer que les fondamentaux méthodologiques demeurent les mêmes, principalement centrés autour de l’analyse d’un petit nombre d’agents placés dans conditions axiomatiques bien définies (qu’elles soient basées sur des règles d’un jeu mathématique, la concurrence parfaite ou imparfaite, ou des expérimentations psychologiques).
Comme toutes les sciences, la microéconomie s’est fortement diversifiée et spécialisée depuis 1945 sous l’effet conjoint des progrès des mathématiques et de la complexification des rapports sociaux. Traitant de problèmes très spécifiques et parfois anecdotiques, obtenant des résultats accessibles à un petit nombre de scientifiques car empreints d’une très forte modélisation mathématique, la microéconomie demeure beaucoup moins médiatisée que sa « grande sœur » la macroéconomie, parfois tout autant mathématisée, mais dont les objets de recherche sont beaucoup plus connus du grand public (croissance, chômage, inflation, mondialisation…). La difficulté de tirer des conclusions sur des résultats obtenus sur la base d’hypothèses souvent très strictes explique en partie cette faible popularité.
Malgré tout, l’enrichissement continu des hypothèses et des approches depuis la fin de la seconde guerre mondiale permet à la microéconomie de se rapprocher davantage de la réalité, produisant des travaux qui trouvent de nombreux domaines d’application, y compris dans le domaine législatif, à l’échelle macroéconomique ou microéconomique.