Une histoire de la pensée économique depuis 1945 : l’économie contemporaine (6/6)

index

6. La science économique contemporaine

Il est difficile de résumer rapidement l’état d’une science aussi diverse, au niveau international, que l’économie. Je vais donc devoir être beaucoup plus long, même si cela restera au final succinct par rapport à tout ce que l’on pourrait développer. Quelles sont les grandes lignes qui structurent cette discipline depuis les controverses issues du keynésianisme ? On analysera d’abord les évolutions sur la méthodologie des économistes, puis les questions de fond.

A. Une forte mathématisation/modélisation : le développement de l’économétrie

C’est probablement l’influence et la victoire définitive du néokeynésianisme : l’économie contemporaine, celle qui s’écrit dans les revues internationales à comité de lecture, est fortement mathématisée et modélisée. C’est particulièrement vrai en macroéconomie. L’informatique permet aujourd’hui des simulations macroéconomiques beaucoup plus complexes et beaucoup plus poussées que ce que pouvaient permettre les modèles des années 1960. Une discipline à part entière consacrée à la modélisation et à l’estimation des paramètres statistiques s’est fortement développée depuis les années 1990 : l’économétrie.

Si les techniques statistiques utilisées (régression linéaire, coefficient de corrélation, khi2…) sont connues depuis longtemps, l’informatique permet de raccourcir considérablement les calculs et d’augmenter la quantité de paramètres. Pour l’anecdote, en 1966, le tableau entrées-sorties de Leontief mobilisa des dizaines de personnes pendant des mois pour construire et calculer un modèle avec 44 secteurs et environ 2000 coefficients techniques. Aujourd’hui, les « computational economics » permettent à un ou deux chercheurs de tester plusieurs hypothèses à la fois sur des modèles comportant des milliers de variables en quelques heures.

B. Le développement de l’empirie

L’informatique ne serait d’aucune utilité dans la modélisation si des progrès n’avaient pas été réalisé en matière de collecte de données. En effet, la modélisation complexe suppose de nombreuses données. La collecte de données a été pendant longtemps le point faible des économistes. Cependant à partir des années 1950 la comptabilité nationale se développe et se professionnalise. L’Institut national des études démographiques (INED) est créé en 1945. L’année suivante, c’est la création de l’Institut National de la Statistique et des Etudes Economiques (INSEE). En 1961, c’est la création de l’OCDE (Organisme de coopération et de développement économique), organisation qui regroupe la plupart des pays développés (actuellement 36) et publie de nombreuses données.

Aujourd’hui, l’économie a beaucoup développé l’aspect « empirique » grâce à des collectes de données toujours plus précises et développées, de la part des grands instituts nationaux et internationaux : INSEE, OCDE, Banque Mondiale, FMI, etc. Ces instituts mettent souvent données en accès libre, et certaines organisations (Google Public Data Explorer, Gapminder…) se chargent de les mettre en forme et de les rendre disponibles au public. L’accès à des données plus précises permet aussi de tester des hypothèses anciennes, comme par exemple la forme de la fonction de consommation keynésienne. Pour ne prendre qu’un exemple, on peut calculer que l’élasticité-prix de la demande de cinéma est de -1,34 à court-terme et -1,66 à long terme (Ragot, 2010). Cela permet aussi aux vulgarisateurs et autres amateurs de sciences sociales d’avoir facilement accès à des données de première main, ce qui est un luxe incroyable.

C. Quel est état de la macroéconomie contemporaine ?

La macroéconomie est la branche la plus médiatisée et la plus connue de l’économie, parce que les questions qu’elles traite ont des répercussions en termes de politique économique évidentes et que les enjeux sont relativement faciles à comprendre, au contraire de la microéconomie. C’est aussi, certainement, la branche de l’économie la plus politisée, au point qu’un facétieux économiste avait commis le diagramme suivant :

Micro vs Macro

S’il y a toujours évidemment des controverses théoriques en macroéconomie, les guerres de courant telles qu’on a pu en voir au début du siècle (et plus encore au XIXème siècle) semblent dépassées. Ainsi, la prise en compte de la demande globale et la nécessité des politiques de relance est admise par la quasi-totalité des économistes professionnels, y compris néoclassiques. Un manuel néoclassique comme celui de G. Mankiw (Principes de l’économie, 2010) consacre une large partie de son exposé aux théories keynésiennes et aux politiques de relance. Il s’agit là encore d’une victoire des néokeynésiens : pour la majorité des économistes, Keynes fait aujourd’hui partie du « corpus standard ». Lors de la crise de 2008 (crise des « subprimes »), les recettes keynésiennes furent massivement appliquées : plan de relance d’environ 30 milliards en France (2008) sous N. Sarkozy, plan de relance d’environ 800 milliards de dollars aux Etats-Unis sous B. Obama et jusqu’à 1000 milliards en Chine. Les politiques monétaires suivront aussi largement les recommandations keynésiennes, avec une baisse massive des taux directeurs de la FED de… 0%, de 2010 à 2015. La plupart des Banques centrales mettront également en place des politiques non-conventionnelles de « quantitative easing », c’est-à-dire de rachats massifs d’actifs douteux, publics ou privés, généralement sur le marché secondaire. Enfin, le Japon avec les « Abenomics », du nom du premier ministre Shinzo Abe (au pouvoir depuis 2012), met en place des politiques typiquement keynésiennes avec un rachat d’actifs massif de la Banque centrale, une hausse des dépenses publiques, une dépréciation de la monnaie.

La plupart des économistes s’accordent à dire que sans ces politiques de relance, la crise de 2008 aurait été beaucoup plus sévère du point de vue des conséquences socio-économiques. Après la crise de 1929, les politiques de relance avaient été très faibles et la production industrielle avait baissé pendant trois ans, jusqu’à perdre 40% ! Le chômage avait alors augmenté de 25%. En 2008, la dépression au sens strict n’a duré qu’un an et le chômage n’a augmenté que de 10%. La plupart des pays sortent de la crise en quelques années. Depuis 2016, les Etats-Unis, le Royaume-Uni ou encore l’Allemagne ont des taux de chômage inférieurs à 5%. C’était dès 2010 pour le Japon. La France fait exception avec un taux de chômage qui reste à 9% en 2018.

Les effets sur l’inflation de ces politiques sont beaucoup débattus. L’inflation est restée très faible dans les pays de l’OCDE depuis la fin des années 1980. Il y a deux raisons à cela : 1° les pays industrialisés ont adopté des règles strictes d’indépendance des Banques centrales. C’est évidemment l’Union Européenne qui est allé le plus loin en la matière 2° Le fort développement des échanges et de la mondialisation des capitaux empêche les pays de mener des politiques inflationnistes car il s’en suivrait une fuite massive des capitaux et une crise monétaire (cf. Mundell). De même les politiques de relance n’ont pas généré d’inflation des biens et des services. Ceci peut paraître surprenant étant donné l’explosion de la base monétaire mondiale à partir de 2007. Cependant, la monnaie créée par les Banques centrales a surtout été utilisée par les agents pour se désendetter, conduisant à une destruction monétaire. De plus, la monnaie créée est utilisée à des fins de spéculation et de rachats d’actifs : ce sont les prix des actifs financiers qui augmentent, plutôt que celui des biens et services. Enfin, la progression des salaires reste faible, ce qui empêche la boucle « salaires-prix » de s’enclencher.

clip_image002

Source : Patrick Artus.

En 2010, l’économiste en chef du FMI, dans Repenser la politique macroéconomique, met en évidence la nécessité d’adopter une variété d’instruments macroéconomiques en fonction de la situation et des objectifs : taux directeurs mais aussi quantitative easing et surveillance du risque financier systémique qui avait été négligé avant la crise : endettement des agents privés, prix des actifs, effets de leviers, etc. Autrement dit, selon O. Blanchard c’est une combinaison d’instruments fiscaux, réglementaires, budgétaires et monétaires qui permet d’adopter des politiques macroéconomiques efficaces.

Cette approche est particulièrement influencée par la Nouvelle Économie Keynésienne (NEC) une sous-branche moderne du néokeynésianisme à laquelle on peut rattacher Blanchard mais aussi Stiglitz, Krugman, Akerlof et sa femme Janet Yellen (ex directrice de la FED) et de nombreux autres. Ces économistes raisonnent dans un cadre de concurrence imparfaite et cherchent à expliquer les rigidités nominales sur les marchés. Ce courant a donné lieu à de très nombreux travaux portant sur les asymétries d’informations, appliqués à de nombreux marchés, comme le marché du travail (théorie du salaire d’efficience), le marché des automobiles d’occasion (Stiglitz et Akerlof obtiendront le Prix Nobel pour cela), la fixation des salaires dans les firmes, etc.

La macroéconomie a cependant perdu en légitimité car les macroéconomistes ont été beaucoup épinglé pour ne pas avoir vu venir la crise. Certes, un aveuglement souvent idéologique sur l’impossibilité de déséquilibres issus du secteur privé a existé parmi les économistes professionnels. Cependant des études ultérieures ont montré que ce n’était pas une position unanime. Voir par exemple D. Bezemer, No one saw this coming ? (2009) qui cite près d’une quinzaine de professeurs d’économie américains qui avaient alertés sur le risque d’un effondrement du marché immobilier.

Ajoutons pour finir que dans la lignée du néokeynésianisme, l’intégration des politiques de la demande au corpus standard des politiques macroéconomiques ne conduit pas à négliger les politiques de l’offre. Les politiques structurelles de flexibilisation du marché du travail, d’ouverture à la concurrence de monopoles (ex. rail) ou encore de soutien à l’innovation dans la lignée du modèle de Solow se poursuivent dans la plupart des pays développés, notamment en France.

D. Le modèle offre-demande globale : le modèle macroéconomique mainstream

Sur le plan théorique on peut résumer ces débats avec le modèle offre-demande globale. Ce modèle macroéconomique s’est développé dans les années 1980 et est une évolution du modèle IS-LM avec une différence essentielle qui est les prix flexibles. La courbe de demande globale (C + I + X + ∆S en économie ouverte) est une fonction décroissante du niveau général des prix. En effet, une baisse généralisée des prix augmente le pouvoir d’achat (richesse réelle) des agents et les encourage à consommer plus (effet de richesse). De plus, une baisse des prix tend à faire diminuer l’intérêt car pour une consommation identique il faut utiliser davantage de monnaie (effet d’encaisse réelles) ce qui stimule la demande de biens d’investissements. Cela entraîne aussi un taux de change plus bas ce qui stimule les exportations (effet de change).

clip_image004

La courbe d’offre agrégée (PIB + M) est au contraire fonction croissante des prix car une hausse des prix nominaux peut à court terme pousser les producteurs à produire plus et à embaucher, soit parce qu’ils font des erreurs de perceptions (cf. Friedman), soit parce changer ses prix suppose des coûts d’ajustement (coûts de menu), soit parce que les salaires nominaux sont rigides à court terme (théorie keynésienne) : si les prix diminuent et que les salaires nominaux restent les mêmes, les entreprises réagissent en diminuant leur production puisque leurs coûts réels ont augmenté, et inversement quand les prix augmentent.

clip_image006

 

Modèle OG-DG à court-terme. Source G. Mankiw, Economica, 1999

A long terme, la courbe d’offre agrégée est en revanche strictement verticale : elle dépend des structures mêmes de l’économie, à savoir sa productivité, son stock de capital (physique, naturel et humain), son niveau de progrès technique (cf. modèle de Solow). On remarquera que la verticalité de la courbe d’offre de long-terme ne s’oppose pas à la croissance de la courbe d’offre traditionnellement posée par la théorie microéconomique. Du point de vue microéconomique en effet, la courbe d’offre pour un bien (ou un secteur) donné est croissante car si les prix augmentent dans un secteur, les facteurs de production (capital + travail) vont affluer dans ce secteur et faire varier les quantités offertes, au détriment d’autres secteurs. Mais cet effet ne s’applique pas au niveau macroéconomique, où la quantité totale de capital et de travail est fixée pour un niveau de prix donné. Le mouvement des capitaux microéconomique dépend en effet des mouvements de prix relatifs. Au niveau macroéconomique, on ne tient plus compte des prix relatifs.

clip_image008

Droite d’offre agrégée à long terme.

Les courbes tant d’offre que de demande, tant à long terme qu’à court terme peuvent se déplacer dans le plan si un évènement extérieur vient brutalement modifier les anticipations des agents et faire varier l’offre ou la demande pour tous niveaux de prix. Il s’agit des chocs exogènes. On peut citer : les modifications de la fiscalité, les innovations, une vague d’optimisme ou de pessimisme, l’immigration, la démographie, les catastrophes naturelles, les guerres, les évènements à l’étranger, les modifications discrétionnaires du politique du gouvernement, une variation des anticipations de prix (uniquement à court terme). Seules les actions structurelles ont la capacité de modifier la courbe d’offre de long terme.

Cette analyse peut être schématiquement résumée en disant que la croissance économique est déterminée à court-terme par des variations dans l’offre et la demande (via les prix) et à long terme par le trend de productivité.

L’équilibre de long terme peut être représenté comme suit :

clip_image010

Source G. Mankiw, Economica, 1999

La politique monétaire et budgétaire aura un impact sur la production (et donc sur le chômage) et sur les prix mais seulement à court terme : à long terme, l’économie revient à son taux naturel de production et au taux de chômage naturel. En conséquence à long terme, l’action du gouvernement ne peut provoquer que de l’inflation, et n’aura aucun effet sur le chômage.

E. La microéconomie contemporaine

Ces dernières décennies, la microéconomie s’est peut être encore plus diversifiée que la macroéconomie. On peut citer quelques axes de recherches majeurs des trente ou quarante dernières années.

1. La psychoéconomie (ou économie comportementale) se situe à un croisement entre économie et psychologie. Elle est dérivée de la psychologie expérimentale. Plus que de l’économie, il s’agit plutôt d’une application des méthodes des psychologues à des problèmes économiques. Ces travaux ont été couronnés de plusieurs Prix Nobel, notamment celui de D. Kahneman en 2002 et celui de R. Thaler en 2018. L’un des axes de recherche de ce courant est l’étude de l’un des postulats fondamentaux de l’économie : la rationalité des acteurs.

Dès 1947 Herbert Simon proposait un modèle de rationalité limitée. L’idée est la suivante. Les modèles classiques de la rationalité défendent une rationalité parfaite, substantielle, qui implique vision claire des préférences, accès illimité à l’information, capacités cognitives d’optimisation. Pour Simon, ce type de rationalité ne s’applique que dans les décisions simples, comme le choix entre du Coca ou du Pepsi au restaurant. Mais supposons que je doive acheter une automobile. Pour Simon, face à une décision complexe, il est irrationnel de mettre en œuvre une rationalité substantielle (comparer tous les choix possibles) car on n’a pas le temps et alors on ne peut pas décider efficacement ! Simon défend alors le principe de rationalité procédurale : je compare un certain nombre de choix qui s’offrent à moi mais je m’arrête à la première solution considérée comme correcte (ie. dans notre exemple, la voiture correspondant à certains critères que j’avais en tête) même si ce choix n’est pas le plus optimal (il existait une meilleure automobile à vendre un peu plus loin). Ce type de rationalité implique un accès limité à l’information, une vision floue des préférences et des capacités cognitives de satisfaction. Elle fonctionne par essais et erreurs, et est d’autant plus limitée que le contexte est incertain. On retrouve l’idée de Von Mises, mais mezzo voce : même si un choix n’est pas optimal, il peut être rationnel compte tenu de l’information limitée. L’individu, s’adaptant aux contraintes, a donc toujours de bonnes raisons d’agir comme il le fait. Cela a des conséquences bien sûr dans les modèles économiques. Par exemple, « l’agent qui obéit à la rationalité limitée au sens où l’entend Simon, c’est-à-dire qui se contente d’une utilité satisfaisante au lieu de l’utilité maximale, se montre inerte face aux petites variations du prix, alors que l’équation voudrait qu’il modifie sa demande, fût-ce imperceptiblement » (Philippe Mongin, 2012). En montrant qu’un marché qui fonctionne sur ce principe peut s’effondrer, J. Stiglitz et G. Akerlof obtiendront le Prix Nobel en 2001.

La particularité de la psychoéconomie est de « tester » les acteurs dans des expériences reproductibles. La psychoéconomie met ainsi en évidence une foultitude de biais cognitifs divers : des individus qui modifient leur choix lorsqu’on modifie le standard de comparaison, ou la façon dont un problème est présenté ; qui n’attribuent pas la même valeur aux biens qu’ils possèdent et à ceux qu’ils sont prêts à acheter ; qui évaluent le prix des biens en fonction de leur habitude de consommation et non en fonction du prix du marché ; qui sont plus sensibles aux pertes qu’aux gains ; qui raisonnent en termes relatifs et non absolus ; qui sont influencés par des normes sociales ou morales, etc. De nombreuses « anomalies » par rapport au modèle standard de la rationalité sont détectées au point que les individus seraient « prévisiblement irrationnels », titre du livre d’un psychoéconomiste, D. Ariely, en 2008. Pour plus de détails, voir ici.

Cependant, la principale difficulté de la psychoéconomie est de généraliser son approche, qui reste de l’ordre d’une « ultramicroéconomie ». Ce qu’on a valablement démontré dans une expérience de psychologie avec contrôle de variable ne sera pas forcément valable dans la vie réelle et au niveau agrégé. D’une part, parce que le pouvoir décisionnel de tous les agents n’est pas identique : même si tous les individus ne gèrent pas leur patrimoine financier de façon rationnelle, il suffit que les plus grandes fortunes et les acteurs les plus importants le fassent pour observer des résultats prédits par le modèle standard. De plus, on sait aujourd’hui que sur les marchés financiers la somme des rationalités individuelles peut fort bien faire l’irrationalité collective : si le prix de l’action baisse, j’ai intérêt à vendre avant qu’elle ne baisse davantage ; tout le monde réagissant ainsi, le prix de l’action baisse, justifiant a posteriori ma décision (prophétie autoréalisatrice) jusqu’à entraîner un krach. Enfin les individus peuvent avoir des biais de comportement du fait même qu’ils savent être des cobayes d’une expérience psychologique. En bref les enseignements de la psychoéconomie sont très intéressants, mais leur portée heuristique reste limitée, et ne conduit pas réellement à remettre en question le modèle standard, ou seulement à la marge.

2. La théorie des jeux est un autre courant de recherche qui s’est fortement développé ces dernières années. La théorie des jeux est une façon mathématique de traiter des problèmes sociaux. Elle s’est d’abord développée en économie à partir des années 1950 avec les travaux de John von Neumann, avant de s’étendre à d’autres disciplines, comme la biologie. Le terme de « jeu » désigne une situation où des « joueurs » (par ex. des entreprises) doivent réaliser des actions ou des interactions dans un cadre normatif donné, leurs actions leur faisant gagner ou perdre une ressource. Le jeu peut être coopératif ou non-coopératif, symétrique ou non-symétrique, simultané ou séquentiel, à information parfaite ou non, à somme nulle (les gains du vainqueur et du perdant s’annulent) ou pas. Dans certains jeux non-coopératifs, aucun joueur ne peut améliorer son résultat en modifiant sa stratégie. On parle alors d’équilibre de Nash. Cet équilibre est rationnel quoique pas forcément optimal. Les champs d’application économique de la théorie des jeux sont variés mais on peut citer la concurrence et notamment les oligopoles (Airbus vs Boeing…), l’organisation industrielle, les marchés financiers ou la politique économique.

3. L’économie géographique. Il s’agit si l’on veut d’une branche de l’économie internationale qui a été profondément renouvelée à partir des travaux de Paul Krugman (Prix Nobel 2008). Ce courant de recherche combine l’analyse économique classique sur la mondialisation avec une approche géographique des territoires. Elle répond à des questions de politiques économiques essentielles telles que : faut-il constituer des technopoles ? faut-il agrandir la taille des villes ou les réduire ? comment s’insérer efficacement dans la mondialisation et quelles sont les erreurs à ne pas commettre ? les investissements publics doivent-ils être répartis équitablement sur le territoire ou concentrés dans les zones les plus productives ? L’approche est souvent à la frontière entre macro et micro. Pour une introduction à ces sujets, voyez par exemple le blog du chercheur Olivier Bouga-Olga, économiste des territoires de l’Université de Poitiers.

Conclusion : l’économie est-elle une science ?

Quoique déjà très long, ce tour d’horizon est trop bref car je n’ai parlé que de ce que je connais le mieux. On pourrait encore évoquer l’économie des organisations, l’économie industrielle qui se situe au croisement entre économie, gestion et politique industrielle ou encore l’économie du développement, une branche de la macroéconomie publique qui cherche à comprendre pourquoi certains pays se développent et d’autres non.

Je souhaite cependant terminer cette série par une question classique mais qui revient souvent : l’économie est-elle une science ? La réponse est pour moi évidente : c’est une science sociale. Avec tout ce que ça comporte de scientifique mais aussi de politique. Contrairement aux sciences de la nature, les sciences sociales étudient l’humain. Il est plus difficile de séparer valeurs et faits quand on étudie les crises que les atomes. Les expériences contrôlées sont plus difficiles, et moins reproductibles, même si dans certains pays fédéraux, typiquement les États-Unis, il est souvent possible de comparer les effets d’une réforme dans un État qui n’a pas eu lieu dans un autre État : c’est le but de l’économie expérimentale. Il y a cependant une part de normativité dans les analyses économiques et les hypothèses implicites (comme la rationalité standard) conditionnent beaucoup les conclusions.

Ces difficultés ne doivent pas minimiser les progrès faits par la science économique ces dernières décennies. Il y a quelques années l’économiste Alexandre Delaigue écrivait ceci : « si l’on regarde de près, on verra à chaque moment des querelles d’ego, des préjugés ; mais sur le long terme c’est ainsi que la science avance. Là encore, les débats en matière de politique macroéconomique constituent un bon exemple. La critique du système classique par Keynes a permis de mettre en évidence la possibilité de politiques contracycliques ; la controverse monétaristes-keynésiens a permis d’en comprendre les effets et les limites, affinant l’analyse des effets des politiques monétaires et budgétaires, prenant en compte le rôle des anticipations, de préciser la fonction de consommation, etc. » L’école postkeynésienne insiste sur la répartition profits-salaires dans la croissance, et donc sur la nécessité économique de réduire les inégalités ; l’école néokeynésienne synthétise les rôles respectifs de l’offre et de la demande à court et long terme ; les néoclassiques mettent en évidence les limites des politiques de relance et donc les conditions sous lesquelles elles sont efficaces ; l’école autrichienne invite à fournir un cadre législatif stable aux entreprises, et enfin l’école de la régulation insiste sur les formes institutionnelles de gestion du capitalisme. Ainsi, des écoles radicalement opposées peuvent apporter un savoir cumulatif.

La cumulativité des savoirs en économie n’est pas aussi grande qu’en sciences de la nature, mais elle n’est pas nulle. Je pense même que l’économie a fait plus de progrès que d’autres sciences sociales, notamment la sociologie qui a du mal à clarifier ses concepts ou encore la psychologie qui en France peine à sortir de Freud… les statuts de ces science ne sont pourtant jamais remis en question dans les médias. On pourrait même ajouter les neurosciences, une discipline passionnante et qui a beaucoup à nous apprendre, mais encore très jeune. On s’extasie aujourd’hui d’une nouvelle découverte profonde sur le cerveau à chaque fois qu’un chercheur fait passer un IRM à des cobayes, avant de s’apercevoir que c’est beaucoup plus compliqué et que les résultats de l’expérience ne sont pas reproductibles. Il n’est pas impossible qu’en fait les économistes en sachent plus sur leur champ de recherche que les neuroscientifiques sur le cerveau. Un exemple de ce que j’avance se trouve dans une étude de 2014 réalisée aux Etats-Unis par Dan Fuller & Doris Geide-Stevenson : Is there a consensus among economists ? Les auteurs montrent que contrairement au préjugé selon lequel les économistes ne sont jamais d’accord, il existe des consensus remarquablement stables sur un grand nombre de propositions (certes pas sur toutes), en tout cas parmi la communauté des économistes américains. Pour résumer grossièrement, le consensus qui se dégage est au fond très néokeynésien : les marchés et le capitalisme sont un système efficace, mais imparfait ; l’intervention publique est légitime, tout comme la réduction des inégalités. On peut résumer cette position par une citation de Samuelson à la fin de sa vie :

J’étudie l’économie depuis des années. J’ai appris des choses. J’ai désappris beaucoup de choses mais je n’ai pas été capable de trouver dans toute l’histoire économique documenté un seul cas où une région impliquant des millions de personnes peut être gérée sans un recours important au marché. Pourtant, cela ne veut pas dire que je suis devenu Milton Friedman et que je crois au laissez-faire… Je crois que nous avons besoin de réglementations, mais je pense que nous avons besoin de réglementations rationnelles, bonnes, pour corriger les réglementations irrationnelles.

Une réflexion sur “Une histoire de la pensée économique depuis 1945 : l’économie contemporaine (6/6)

  1. Pingback: A quoi sert la sociologie ? – Des hauts et débats

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s