Pourquoi les théories du complot ont un tel succès ?

Une tentative d’explication par l’épistémologie.

Le terme « science » désigne deux choses différentes : les connaissances scientifiques, d’une part, et la recherche scientifique, d’autre part.

La distinction entre connaissance et recherche

Les connaissances scientifiques sont des croyances vraies et vérifiées, ou, ce qui est une autre façon de dire la même chose, des croyances dont la véracité a été rendue certaine par une preuve scientifique. A ce sujet, il faut savoir deux choses importantes :

Premièrement, la méthode scientifique ne peut pas s’appliquer à toutes les questions que se posent les êtres humains : en réalité elle ne peut s’appliquer qu’à un petit nombre d’entre elles. Ainsi, une connaissance scientifique provient d’une question falsifiable, c’est-à-dire, pour simplifier, qu’on peut démontrer (vraie/fausse) à l’aide d’une méthode particulière. La plupart des croyances de notre quotidien ne sont pas ainsi : ce sont les croyances culturelles (« Bach est bien mieux que Mozart »), les croyances morales et politiques (« tous les hommes sont libres et égaux en droits »), et les croyances religieuses et métaphysiques (« Dieu existe »). On peut en discuter, en débattre, mais pas les démontrer : elles ne sont pas falsifiables. C’est d’ailleurs parce qu’une démonstration définitive est impossible que ces croyances nous divisent autant, car il est impossible d’emporter l’assentiment général : essayez donc de lancer un débat entre deux fans de Star Wars ayant une vision différente de la série…

Deuxièmement, si les croyances scientifiques (les connaissances) peuvent être démontrées, cela ne veut pas dire que nous savons le faire. En fait, nous avons apprises la plupart d’entre elles à l’école et nous sommes bien incapables de refaire la démonstration. Parmi tous les gens qui savent que la Terre a une circonférence de 40 000 km, combien sont capables de refaire la démonstration d’Eratosthène (IVème siècle av. J-C !) ? Cette remarque vaut également pour la technique, fruit de la science : nous sommes incapables d’expliquer le fonctionnement de la plupart des objets que nous utilisons au quotidien, à commencer par l’informatique.

La méthode d’Eratothène

La recherche scientifique est bien différente des connaissances scientifiques. Les connaissances sont de la science « finie », une accumulation de recherches ayant produit des résultats validés ; la recherche, de la science « en train de se faire », elle est affaire d’opinions provisoires et d’hypothèses à trier. Au bout d’un temps plus ou moins long, la recherche finit par faire émerger un consensus, c’est-à-dire un point où l’immense majorité des spécialistes d’un domaine s’accorde sur une croyance (« le réchauffement climatique est d’origine anthropique »). Entre les premiers travaux et le moment où l’on fait entrer la connaissance dans un manuel d’écolier, il peut s’écouler des dizaines d’années.

Les enseignements de cette distinction


De cela, on peut tirer cinq leçons qui, à mon avis, éclairent les confusions contemporaines autour de la science et le succès des théories du complot :

Leçon 1 : beaucoup de gens ignorent la distinction entre « recherche » et « connaissance ». Les théories du complot instillent alors le doute là où il n’a pas lieu d’être : douter des meilleurs remèdes au coronavirus est légitime car il s’agit de « science en train de se faire » et le consensus n’est pas stable ; douter que la fumée de cigarette provoque à long terme le cancer du poumon est ridicule. Seule la recherche implique le doute : quand un consensus stable est acquis, le doute n’est plus permis et devient anti-scientifique. Certes, le consensus d’une période peut évoluer, mais cela est long et se fait le plus souvent par modification légère du consensus précédent : les révolutions scientifiques qui aboutissent au renversement total d’un paradigme en quelques années sont rares, et d’autant plus rares dans la recherche moderne, hypermondialisée. Quant au mythe du chercheur isolé qui a raison « seul contre tous », c’est encore plus rare.

Leçon 2 : la distinction entre « connaissance » et « recherche » est elle-même une connaissance à part entière. Savoir faire la distinction entre ce qui fait consensus et ce qui ne le fait pas est un art extrêmement difficile qui suppose de vastes connaissances. La crise du covid l’a parfaitement montré : en mars, il semblait n’y avoir aucun consensus (à part peut-être sur la description virologique du SRARS-COV-2) : ni sur les masques, ni sur le confinement, ni sur les tests, ni (à fortiori) sur les remèdes. Aujourd’hui, on peut (mais je n’en suis pas sûr !) dire qu’il y a un certain consensus sur les masques, un consensus relativement solide sur l’inefficacité de la chloroquine, et peut être deux ou trois autres. Sur des sujets comme celui-ci, les consensus sont extrêmement mouvants.

Être capable de distinguer « connaissance » et « recherche », c’est-à-dire de savoir ce qui relève du consensus et ce qui n’en relève pas, demande un grand nombre de compétences : outre du temps pour faire de la veille scientifique, l’accès aux bonnes sources d’information et surtout la capacité à les évaluer. La plupart d’entre nous sommes incapables de lire une étude épidémiologique ou clinique publiée en anglais dans The Lancet : ou du moins si nous sommes capables de la lire, nous sommes incapables de la lire avec suffisamment d’esprit critique. Je suis capable de lire à peu près n’importe quel texte d’économie avec de l’esprit critique, parce que c’est mon domaine de compétence (et encore, je me sens prétentieux en disant cela, vu l’immensité du champ de l’économie) ; j’en suis incapable en médecine. Donc, quand bien même j’aurais le temps pour lire des études « peer review », je ne serais guère plus avancé. La science est fondamentalement affaire de méthode : entre deux hypothèses concurrentes, c’est toujours la méthode qui, au final, tranche. C’est la méthode scientifique moderne qui a permis de dire que Démocrite, qui supposait l’existence des atomes, avait raison contre Aristote. Mais si vous êtes incapable d’évaluer la méthode, votre connaissance scientifique est de l’ordre de la croyance : vous le savez, mais vous ne savez pas pourquoi.  

Leçon 3 : comme la plupart des gens sont comme moi, vaguement compétents dans un domaine et nuls dans les autres, ils vont s’en remettre à des écrits vulgarisés de la recherche, du type « une étude a montré que ». Bien entendu, la qualité de ces écrits est très variable ils souffrent de nombreux biais car nous nous informons principalement aux sources d’information qui confirment nos préjugés, pour éviter la dissonance cognitive (schématiquement, un type de droite lit Le Figaro et un type de gauche Libération). Dès lors, en fonction de nos lectures et de notre capacité à faire preuve d’esprit critique, nous seront plus ou moins bien informés.

Leçon 4 : la confiance que nous accordons aux institutions scientifiques joue un grand rôle. « Je sais que c’est vrai » parce que j’ai confiance dans « la science », même si je ne sais pas vraiment comment cette connaissance a été obtenue, est un réflexe habituel. Mais si vous n’avez pas confiance dans les institutions productrices de légitimité scientifique (« L’INSEE trafique les chiffres de l’immigration »), et si, en plus, vos connaissances d’un domaine sont faibles, et si, encore, vous n’avez pas le temps de faire de la veille ou n’avez pas accès aux bonnes sources d’information (parce que, par exemple, vous ne lisez pas l’anglais), et si, enfin, vous ne saisissez pas bien la distinction entre recherche et connaissance, alors il y a tout lieu que vous soyiez perméable aux théories du complot. Evidemment, il y a un lien entre l’origine de notre information et notre degré de confiance dans les institutions scientifiques. Vous avez plus de chance de faire confiance aux chiffres de l’INSEE si vous lisez les publications de l’INSEE que si vous lisez « Fdesouche.com ».

Leçon 5 : tout ceci est rendu encore plus complexe par le fait que les résultats des recherches scientifiques ont très souvent des conséquences sur nos autres croyances, notamment morales, culturelles et métaphysiques. La science ne se contente pas de produire de gentilles propositions sur l’existence des atomes qui ne font de mal à personne : elle produit des savoirs qui peuvent s’opposer frontalement à des croyances religieuses (« la Terre est au centre de l’Univers parce que Dieu a placé l’homme au centre de la Création »), politiques (« les races humaines existent »), voire culturelles (« la grande littérature est supérieure à la culture populaire »). Ceci est vrai pour toutes les sciences mais particulièrement pour les sciences humaines et sociales, dont les résultats ont pour habitude de se confronter à toutes sortes de croyances populaires. Quelques exemples spontanés : la croyance en la méritocratie est challengée par les multiples travaux sur les inégalités ; la croyance dans la « République exemplaire » par ceux sur le racisme dans la police ; la croyance que pour résoudre la crise du logement, il suffit de bloquer les prix des loyers (et pour celle du chômage, partager le travail) par les multiples travaux économiques sur ces thèmes. Je pourrais encore citer les croyances sur les effets économiques de l’immigration, sur le rôle du salaire minimum dans le chômage des moins qualifiés, sur le déterminisme scolaire, etc.

Conclusion

Est-ce que les sciences sociales sont en capacité de remettre en question ces croyances populaires ? C’est peu probable. En tout cas, pas de manière massive. Toutes les leçons précédentes le confirment : parce que les consensus en sciences sociales sont souvent moins stables qu’en sciences de la nature ; parce que cela demande trop de temps et trop de compétences différentes pour se tenir raisonnablement informés de la recherche sur tous ces sujets ; parce qu’il y a trop de croyances politiques, morales ou culturelles en jeu : avec des enjeux aussi forts que la vie humaine, dans une situation de crise aussi violente où tout le monde cherche des réponses et subit de plein fouet des décisions gouvernementales basées sur ce qui est présenté comme un consensus scientifique, comment des théories du complot apportant des réponses à des questions fondamentales n’auraient-elles pas un grand succès ?  

D’autre part, même si l’ouverture d’esprit intellectuelle est très variable selon les personnes, nul ne peut accepter de remettre en question en permanence ses croyances morales, culturelles et religieuses (y compris les savants) : nous avons besoin de stabilité pour ne pas exploser émotionnellement, intellectuellement et psychiquement. Nous en avons besoin pour vivre.  Ainsi, se confrontent et se confondent dans notre esprit différentes sortes de croyances, différents niveaux de preuves, une capacité très variable à les évaluer, et beaucoup d’incompréhension sur les méthodes par lesquelles les connaissances scientifiques sont obtenues. Dès lors, peut être que la vertu la plus nécessaire en cette période est une certaine forme d’humilité : savoir dire qu’on ne sait pas, plutôt qu’une forme de dogmatisme scientifique toujours mal perçu. La formule peut prêter à sourire, mais peut être que si le gouvernement avait été plus humble dans sa communication (sur les masques en particulier), les théories du complot n’auraient pas un tel succès.  

Note de lecture : la gauche, la droite et le marché (D. Spector)

Le libéralisme peut-il être de gauche ?

La gauche, la droite et le marché (2017) est un livre étonnant. Ecrit par un économiste, il s’agit davantage d’un livre d’histoire des idées économiques et politiques, très riche de références et servi par une plume d’une grande clarté.

Le livre s’ouvre sur un étonnement : en 2014, l’un des volets de la loi Macron consistait à augmenter la concurrence dans les professions réglementées comme les huissiers, les avoués ou les notaires. Que les intéressés s’opposassent à une loi limitant un monopole qui leur garantissait des revenus moyens de 20 000€ par mois n’étonnera personne ; que la droite, par intérêt calculé pour son électorat, contestât une (timide) ouverture à la concurrence est également compréhensible ; mais la gauche ? Comment expliquer la difficulté d’un gouvernement de gauche à remettre en cause les privilèges aussi exorbitants d’une profession par ailleurs acquise à la droite ? (p. 9)

Partons d’une théorie politique simple, voire naïve : la gauche présente un biais en faveur de l’égalité et la droite en faveur de la propriété. Dès lors, il est peu étonnant que la gauche soutienne des mesures anti-concurrentielles lorsqu’elles semblent aller dans le sens de l’égalité, par exemple en réglementant les loyers, car chacun sait que les propriétaires sont généralement plus riches que les locataires. Mais comment expliquer qu’elle soutienne aussi, activement ou passivement, des mesures anti-concurrentielles qui, cette fois, semblent clairement aller dans un sens contraire à l’égalité ? De la loi Royer qui limite la concurrence dans la grande distribution à la loi sur le prix unique du livre qui limite celle entre Amazon et la FNAC, en passant par les notaires (notablement de grands bourgeois de droite), les taxis (la famille Rousselet possède les taxis G7 : 10 000 licences), la liste est longue des mesures anti-redistributives que la gauche a soutenu, ou n’a pas contesté.

La concurrence peut-elle être de gauche ? Ou, ce qui est une autre façon de poser la question : peut-il exister un libéralisme de gauche ? C’est tout l’objet du livre de Spector. Loin de se contenter d’une réflexion théorique de philosophie politique, Spector prend le parti de faire une étude comparative approfondie des débats économiques et politiques sur le thème de la concurrence en Angleterre, en France, aux Etats-Unis et (un peu) en Allemagne depuis le début du XIXème siècle. On passe successivement des débats anglais sur l’assistance aux pauvres (Poor Laws Amendment Act en 1831) à ceux sur le protectionnisme et ce qu’on appelait pas encore la mondialisation (abolition des Corn Laws en 1841), des réflexions des parlementaires français sur la misère ouvrière aux critiques durkheimiennes de l’économie en passant par l’affrontement entre les socialistes et les libéraux, le Liberal Party en Angleterre, le rôle des syndicats ou les débats de la troisième République sur l’interdiction des ententes commerciales.

Indépendamment de la quantité et la qualité exceptionnelle des archives mobilisées, Spector est particulièrement doué pour retracer en parallèle l’évolution intellectuelle d’une discipline (l’économie) et l’évolution des débats politico-économiques en France, en Angleterre et aux Etats-Unis. On se retrouve avec un livre qui est fondamentalement historique, mais également économique (les démonstrations économiques sont bien présentées, sans aucun recours à la formalisation mathématique) et aussi épistémologique (comment l’économie s’est-elle constituée en tant que science ?).

La tradition anglaise de libéralisme de gauche

Spector montre de façon claire que l’Angleterre a une tradition de libéralisme de gauche qui remonte en particulier à John Stuart Mill (1806-1873). Malgré des parenthèses plus protectionnistes (notamment pendant les deux guerres mondiales), cette tradition intellectuelle et politique est bien ancrée en Angleterre et le demeure encore aujourd’hui. Dans cette perspective, le marché et ses lois d’offre et de demande est perçu comme une bonne façon de faire émerger et diffuser les informations économiques, et notamment la plus cruciale d’entre elle (le prix) en coordonnant les actions de millions d’individus qui ne se connaissent pas. La concurrence et la compétition économique y est acceptée comme un principe sain qui fait baisser les prix et encourage l’innovation. Cependant, nourrie par l’observation et sensible à la question égalitaire (Mill est profondément de gauche, notamment à la fin de sa vie), cette tendance se concilie avec la défense d’une fiscalité progressive, de l’intervention de l’Etat dans l’économie voire de la nationalisation de certains secteurs (r)entiers : au XIXème siècle, ce sera les débats sur la nationalisation de la terre contre les grands Lords, propriétaires terriens qui s’accaparent une richesse sans rien faire au détriment des ouvriers (théorie ricardienne de la rente) ; après-guerre, l’Angleterre créé le NHS en nationalisant entièrement le secteur de la santé.

Les Etats-Unis suivront l’Angleterre et maintiennent encore aujourd’hui une tradition vivace de libéralisme de gauche, représentée notamment par les Démocrates (ou, en économie, par un Paul Krugman). Spector montre notamment que les lois antitrusts sont appliquées plus fortement aux Etats-Unis lorsque les Démocrates sont au pouvoir.

Défendre le capitalisme, pas les capitalistes

On peut citer ici la formule percutante de Rajan et Zingales que Spector reprend à son compte : le libéralisme de gauche est favorable au marché et à la concurrence comme principe, mais il n’est pas favorable en soi aux entreprises, encore moins aux rentiers. Autrement dit, il s’agit de défendre le capitalisme, pas les capitalistes. En effet, cette tradition politique va soutenir une forte intervention de l’Etat pour défendre la concurrence et limiter les monopoles : le récit que fait Spector de la diffusion du libéralisme de gauche et de l’adoption de très strictes lois antitrusts aux Etats-Unis au tournant du XXème siècle est particulièrement éclairant. L’exemple le plus connu est certainement la Standard Oil, qui détient à son apogée un monopole sur la quasi-totalité du pétrole extrait et transporté aux Etats-Unis (son fondateur, John Rockefeller, est considéré comme l’homme le plus riche de tous les temps, inflation déduite) : elle est démantelée et divisée en 34 sociétés différentes en 1911 en application des lois concurrentielles américaines. Comme la tendance historique des entreprises est toujours de chercher à éviter et limiter la concurrence plutôt que l’affronter, les politiques publiques devraient donc lutter en permanence contre l’anticapitalisme des capitalistes et promouvoir les mécanismes de marché contre les intérêts dominants – qu’il s’agisse des propriétaires fonciers anglais en 1840 ou des entreprises dominantes du XXIème siècle (p. 26).

A l’inverse du beaucoup plus connu libéralisme de droite (représenté par Reagan aux Etats-Unis et Thatcher en Grande-Bretagne), la tradition du libéralisme de gauche est donc favorable à l’intervention de l’Etat, mais cette intervention doit éviter au maximum d’interférer dans les processus d’ajustement entre l’offre et la demande, sauf dans un nombre limité de secteurs, pour répondre à une défaillance de marché bien identifiée (externalités, asymétries d’informations notamment). Les libéraux de gauche vont très souvent préférer par exemple taxer un comportement (fumer, émettre du Co2, vendre son entreprise) que de l’interdire ou le normer car la taxe se contente de modifier le signal-prix pour les agents, sans transférer la décision de produire ou de consommer à un pouvoir central et sans perturber la rencontre entre l’offre et la demande.

 Pour lutter contre la pollution urbaine, on peut ici facilement comparer la politique d’une ville comme Londres, qui a mis en place (dès 2003) une taxe de circulation dans les zones de « congestion de charge » (T-charge) et Paris, qui a choisi un système administratif arbitraire de plaques paires et impaires. Il est facile de comprendre que le système britannique laisse les agents libres d’estimer eux-mêmes si l’utilité procuré par leur déplacement est supérieure ou non au coût de la taxe : la pollution est « internalisée » par la modification du prix du déplacement, mais n’entrave pas les décisions individuelles. A l’inverse, le système français fait reposer la possibilité de se déplacer en cas de forte pollution sur un hasard administratif parfaitement arbitraire qui est le numéro de plaque d’immatriculation. Les effets pervers (trafic de plaques) voire contre productifs (posséder plusieurs véhicules de différents numéros) sont évidents.

Le libéralisme de gauche ne s’oppose pas systématiquement aux ententes et aux regroupements d’entreprises lorsqu’en présence d’économies d’échelles, une amélioration de l’efficacité productive est clairement possible, mais il reste méfiant envers les monopoles et soutient une vigoureuse politique anticoncurrentielle. On retrouve aujourd’hui ces débats sur la politique industrielle européenne dans cet excellent résumé de Charles Wyploz : Retour de la politique industrielle (2019).

Pourquoi la France est-elle si hostile aux mécanismes de marché ?

Comme le montre Spector, la France a également une très ancienne tradition de libéralisme de gauche que l’on peut faire remontrer à la Révolution (avec l’interdiction des corporations en 1791), et dont le plus éminent représentant au XIXème est certainement Léon Walras ; malgré tout, celle-ci reste minoritaire et la tradition de méfiance envers le marché domine, à gauche comme à droite. Bien que la droite soit abordée, Spector s’intéresse surtout à la gauche, car la tradition de droite de défense des entreprises (et donc d’une certaine limitation de la concurrence) n’est pas nouvelle et ne prête pas à incohérence : elle repose tantôt sur une défense bourgeoise des intérêts des possédants, tantôt sur une exaltation (d’ailleurs fausse) d’une « France des petits producteurs » ou encore sur une louange morale d’une « concurrence civilisée » face à « l’anarchie anglosaxonne ».

Mais pour comprendre pourquoi même la gauche est anticoncurrentielle en France, il faut revenir à la comparaison avec l’Angleterre. Au XIXème siècle, la tradition progressiste est déjà présente et être économiste en Angleterre n’implique pas d’être sourd à la misère ouvrière, ce qu’une longue tradition intellectuelle confirme, de Mill à Keynes. D’autre part, l’économie y est une discipline très active et en plein progrès intellectuel. Au tournant du XXème siècle, Alfred Marshall, l’« archevêque de l’économie », selon la formule de Keynes, synthétise un siècle de débats économiques avec ses Principes d’économie politique (1890), piliers de la pensée néoclassique. On y raisonne avec la méthode hypothético-déductive; on y utilise abondamment les mathématiques pour formuler les raisonnements de manière rigoureuse avec un nombre limité de variables ; des concepts comme rendement d’échelle, productivité, externalités, élasticité-prix de l’offre et de la demande, facteurs de production sont largement utilisés ; les débats politiques sur la nationalisation des trusts, la régulation de la concurrence, le soutien aux pauvres, le rôle de l’Etat y sont vifs. Enfin, le raisonnement marginaliste y est central.

Pendant ce temps, les économistes français sont à la fois médiocres intellectuellement, et presque tous conservateurs politiquement. Conservateurs, parce qu’en France, être économiste à cette époque se résume le plus souvent à être un porte-parole des patrons et des grandes entreprises, un défenseur de l’ordre établi : Spector le montre en étudiant plusieurs grandes voix de l’économie universitaire et politique en France et en retraçant les débats qui se tiennent dans les principaux journaux économiques. Ils sont hostiles aux syndicats, au salaire minimum, à la régulation du temps de travail, à tout système de retraite universel, etc. La révolution de 1848 a laissé des traces et les économistes se posent surtout comme des remparts contre le socialisme, la révolution et (bientôt) les idées marxistes. Médiocres, pare que loin du raffinement intellectuel de leurs voisins anglais, les économistes français se contentent majoritairement de faire l’apologie sans nuances de la concurrence et du capitalisme, en réservant toutes leurs critiques contre l’Etat et l’interventionnisme.  De plus, l’école française est fondamentalement hostile à l’introduction des mathématiques en économie : l’économie est conçue comme un discours moral au service du patronat et de vertus conservatrices : travail, mérite et « sélection darwinienne » en quelque sorte. Un penseur comme Frédéric Bastiat (1801-1850) qui fait constamment l’apologie du marché (il est encore adulé dans les milieux libéraux aujourd’hui) est un bon exemple de cette époque. Schumpeter considérait Bastiat non comme un économiste, mais comme un « polémiste qui tourne autour des droits de propriété », « incapable de manier l’appareil analytique de l’économie ». Marx est plus sévère encore : « le représentant le plus plat de l’économie apologétique ».

Pire, les libéraux français, à rebours de leur homologues anglo-américains, s’opposent à toute politique publique de la concurrence, en vertu d’arguments soit moraux (la liberté de s’associer) soit économiquement très faibles, qui ignorent tout raisonnement marginaliste (dans un marché libre, un monopole qui pratique des prix élevés fera émerger un concurrent moins cher, donc il n’y pas lieu de s’inquiéter pour les ententes).

Ainsi, les intellectuels qui sont progressistes ou favorables à une science économique autonome et fondée sur la rigueur des mathématiques sont marginaux en France. Le meilleur exemple de cela est certainement Léon Walras (1834-1910) : son prestige intellectuel est immense dans la discipline car il y fait des apports décisifs sur l’analyse de l’équilibre de marché. Mais il cumule deux tares qui l’empêchent de trouver la moindre chaire d’économie en France : il est politiquement socialiste et défend la nationalisation des terres ; il adhère au marginalisme et développe un haut niveau de raisonnement mathématiques en économie.  Walras devra s’exiler en Suisse pour enseigner l’économie.

En réaction, une grande partie de la gauche va assimiler –et pour longtemps– l’économie à une science prétentieuse, fondamentalement conservatrice, sourde aux revendications sociales et finalement inepte. Spector présente un grand nombre de sources (tracts, discours, livres) de cette époque qui en témoignent, et montre habilement que ce discours reste encore très ancré en France (le vocabulaire a un peu changé, le fond reste le même : les économistes sont « néolibéraux » et adeptes de la « religion du marché », « d’ailleurs ce n’est pas une vraie science » et il faut défendre un discours « hétérodoxe »). Une partie de ce discours est politique : les économistes sont socialement conservateurs, la gauche doit donc s’opposer aux économistes. Une autre est épistémologique, elle provient notamment de la tradition sociologique durkheimienne : déniant toute valeur à la modélisation mathématique et au raisonnement déductif pour comprendre le monde social, cette critique assimile l’économie à un discours abstrait, incapable de décrire le réel, en tout cas trop théorique, la théorie économique étant perçu comme inutile (on peut classer dans cette catégorie les critiques de la rationalité en économie et du modèle de l’homo oeconomicus).

La confusion entre les deux discours est fréquente, et bientôt on accuse la loi de l’offre et de la demande d’être réactionnaire. Ainsi, comme l’écrit Spector en conclusion, la croyance répandue à gauche selon laquelle les mécanismes de marché seraient intrinsèquement inégalitaires semble avoir traversé le XXème siècle ; il en va de même du statut du raisonnement économique en termes d’offre et de demande, souvent disqualifié parce qu’associé à la rhétorique conservatrice. L’appréhension de l’économie du point de vue des producteurs plutôt que des consommateurs, qui n’est pas sans rapport avec la faible diffusion de la « science économique » et dont le corollaire est une volonté de modérer la brutalité de la concurrence est un autre élément de permanence. De fait, on est parfois saisi de vertige devant la similarité de certains discours déployés contre la concurrence ou « les économistes » à la fin du XIXème siècle et aujourd’hui, ou par la répétition de certaines configurations politiques : en particulier celle qui voit converger un antilibéralisme d’idées, à gauche, et un antilibéralisme d’intérêts, à droite.

Conclusion

Non seulement la tradition française de méfiance envers les mécanismes de marché (notamment à gauche) n’est pas partagée partout en Europe, mais bien plus, cela conduit la gauche à défendre des mécanismes fondamentalement inégalitaires, comme on l’a rappelé plus haut avec l’exemple presque caricatural des notaires. La science économique, bien plus empirique qu’elle ne l’était à l’époque de Ricardo, ne se contente plus de raisonnements hypothéthico-déductifs et Spector cite de nombreuses études empiriques récentes en défense des mécanismes concurrentiels. La concurrence fait baisser les prix et augmenter les salaires réels (pouvoir d’achat) ; de nombreuses lois en France censées « soutenir les petits producteurs » ont eu l’effet inverse, notamment en réduisant la concurrence entre les grandes entreprises (loi Royer sur la taille des grandes surfaces, loi sur le prix unique du livre) avec in fine des pertes d’emplois dont certaines ont été chiffrées. Même les lois dont l’objet semble clairement égalitaire (la réglementation des loyers) présentent des effets pervers, confirmés par une abondante littérature dans un grand nombre de pays, qui peut faire douter qu’elles atteignent l’objectif affiché et ne nuisent pas in fine aux plus démunis.

L’argument selon lequel moins de concurrence entre entreprises permet d’augmenter les salaires ne tient pas si on l’étend à l’ensemble de l’économie : le surprofit récupéré par les secteurs protégés de la concurrence est perdu pour l’ensemble des consommateurs (baisse de salaires réels) ou retirés à d’autres producteurs via des barrières à l’entrée (ce que les économistes mesurent par le concept de « surplus ») ; d’autre part, rien ne garantit a priori qu’une entreprise en monopole redistribue ce surprofit à ses salariés. Au final, les données qui soutiennent qu’une plus grande concurrence entre les entreprises sur le marché des biens et services permet à la fois d’augmenter l’emploi, les revenus et la croissance sont massives et largement convergentes.

Il est d’ailleurs intéressant de noter qu’alors que les libéraux de gauche s’intéressent surtout au marché des biens et services, jugé insuffisamment concurrentiel en France, c’est surtout le marché du travail, très particulier et très différent, qui fait l’objet des débats médiatiques et est accusé (par le libéralisme de droite) d’être très rigide et peu concurrentiel (ce qui est largement faux).

Encore une fois, ces conclusions n’excluent nullement la limitation ou le contrôle de certains mécanismes de marché pour résoudre des problèmes identifiés ou réduire les inégalités ex post, en perturbant le moins possible le signal-prix ex ante. Dans certains secteurs à forte économies d’échelles, un monopole public ou la persistance d’un oligopole peut être plus efficace en matière d’innovation et d’efficacité productive que la concurrence, même si une vigoureuse politique anticoncurrentielle est nécessaire dans la plupart des secteurs. On observe quoi qu’il en soit une forte différence entre la France, où la concurrence est perçue comme un outil parmi d’autres à disposition de l’Etat, et le monde anglosaxon, où la concurrence est un principe cardinal pour lequel on admet un certain nombre d’exceptions.

Il est impossible de rendre compte dans tous ses aspects d’un livre qui traite aussi bien de la politique agricole commune que des trusts américains en passant par la construction européenne, le marché de l’électricité et les idées économiques de Jaurès. J’espère avoir suffisamment montré l’immense apport de Spector à la réflexion politique et historique sur ce thème : ne se cachant pas d’être un « libéral de gauche », Spector livre un plaidoyer pour la prise en compte des mécanismes concurrentiels là où ils sont utiles, et où la science économique peut apporter un éclairage pour améliorer la compréhension des enjeux contemporains, sans renier les aspirations égalitaires de la gauche.

A quoi sert l’économie ?

De la scientificité des sciences sociales

Il y a un peu plus d’un an j’ai écrit un long article intitulé « à quoi sert la sociologie ? » qui traite de sciences sociales en général et de sociologie en particulier, et essaie de défendre la scientificité de la sociologie. L’objet de cet article est de développer ce point de vue en se concentrant, cette fois, sur l’économie. Il sera complémentaire d’un autre article sur le même thème, que j’avais écrit en conclusion d’une série sur l’histoire des courants économiques, consacrée à l’économie contemporaine et où je digressais sur la scientificité de l’économie.

Un des points communs de presque toutes les sciences humaines et sociales (SHS) est de devoir constamment défendre leur scientificité. Personne, dans le débat public, ne remet en question la scientificité de la médecine, de la physique nucléaire ou de la chimie. Il y a plusieurs raisons à cela. Leur dimension extrêmement technique et leur haut niveau de mathématisation les rend incompréhensible pour le profane : basiquement, quand on ne comprend pas, « ça a l’air sérieux ». Ce qu’illustre le terme « science dure », encore très usité, bien que très daté et peu approprié.  

Surtout, ces sciences ont des applications concrètes et immédiates que n’ont pas (forcément) les SHS : en un mot, la chimie produit des médicaments et la physique fait voler des avions. Il y a un lien clair, accessible même au néophyte (qui n’a jamais pris le train ?) entre savoir scientifique et progrès technique. Même le plus complotiste des internautes, même, peut-être, celui qui croit aux « chemtrails », est forcé de reconnaître que, du point de vue de la chimie ou de la physique, « la science, ça marche ». Et malgré la dynamique des mouvements antivax, peu de gens voudraient être soignés aujourd’hui par la médecine médiévale : on peut être anti-vaccin et se soigner par l’homéopathie, mais c’est bien au CHU local que l’on se rend en cas de crise d’appendicite.

Le lien étroit entre science naturelle et progrès technique assure donc une aura permanente de scientificité pour ces disciplines. Cela n’exclut pas les critiques, mais celles-ci se concentrent alors sur les cas où « ça ne marche pas » : si la médecine est une science, pourquoi les médecins ne trouvent-ils pas immédiatement la solution à la crise du covid-19 ? Lorsque « ça ne marche pas », on accuse alors les savants d’être manipulés ou vendus à quelques industries juteuses. Le débat récent sur la chloroquine n’a pas illustré une absence de reconnaissance publique de la médecine comme science, il a plutôt illustré la défiance du grand public envers les institutions savantes, ce qui n’est pas tout à fait la même chose. La médecine reste considérée comme une science, mais les discours scientifiques « officiels » n’inspirent pas confiance pour toutes sortes de raisons : on s’en remet alors à d’autres figures savantes (comme un certain D.R).

Or, les SHS ne bénéficient pas d’une telle aura, car les progrès qu’elles permettent (en permettent-elles ?) ne sont pas assez connus, ou pas assez visibles, ou contestés. Sans doute existe-t-il quelques exceptions pour des disciplines comme la psychologie, qui dans sa dimension clinique est assimilée à la médecine, donc reconnue comme une science à part entière. Mais très souvent dans le débat public, l’histoire est assimilée simplement à un bagage culturel, voire à un patrimoine à valoriser (avec la confusion histoire/mémoire), la sociologie à une prose de philosophes d’extrême-gauche, etc.

Quant à l’économie… depuis des années, je discute d’économie avec des non-économistes sur les réseaux sociaux. A quelques exceptions près (souvent, lorsque la personne a un bagage scientifique), les mêmes clichés reviennent, en fonction des valeurs politiques de la personne qui s’exprime : l’économie n’est pas une science, d’ailleurs, les économistes ne sont jamais d’accord entre eux, ils sont incapables de prévoir les crises, ils sont vendus aux multinationales, « avant de faire de l’économie il faut déjà savoir gérer une entreprise », et puis les économistes sont tous des ultra-néo-hyper-libéraux adeptes de la religion du marché, etc., etc.

Même si, à la longue, c’est agaçant, je ne blâme pas ces personnes : je pense que lorsqu’une science a de nombreux détracteurs dans l’espace public, c’est avant tout aux chercheurs de cette science de s’interroger (je n’en fais pas partie, je précise : mon rôle est avant tout d’enseigner aux lycéens). Les premiers responsables des blagues sur la sociologie sur Twitter, ce sont les mauvais sociologues dans l’espace public. La mauvaise presse de l’économie est aussi liée à la médiatisation des mauvais économistes (je ne citerai pas de nom).

J’en parlais dans mon article sur la sociologie : à la critique externe, celle des néophytes, à laquelle j’essaie ici de répondre, s’adjoint toujours une critique interne, méthodologique, qui est propre aux chercheurs de chaque discipline. Pour toute science il y a des « acquis scientifiques » qui, normalement, ne prêtent plus à débat, et une « science en train de se faire » qui prête à débats. C’est d’ailleurs une confusion fréquente (volontaire ?) de la part de nombre de complotistes : au nom du légitime débat scientifique, ils remettent en question des acquis (« les vaccins ça marche » voire « la Terre est ronde ») puis, sur d’autre sujets où au contraire il s’agit de « science en train de se faire », et où, en conséquence, le doute devrait prévaloir, on les trouve profondément convaincus d’un résultat (comme sur la chloroquine).

Poser la question « à quoi sert l’économie » c’est aussi se demander si l’économie est une discipline qui peut permettre des progrès « utiles » (terme qu’il faut discuter) et si des progrès même simplement heuristiques ont été réalisés en économie ces dernières décennies, autrement dit s’il y a des acquis scientifiques en économie. En termes épistémiques, je m’interroge sur la cumulativité du savoir économique.

Pour cela, je m’appuierai sur un petit Repères publié en 2009 par Jean-Edouard Colliard et Emmeline Travers, Les prix Nobels d’économie. Cet ouvrage retrace les principales idées et travaux de tous les prix Nobel d’économie de la création du prix (1969) à 2008 (P. Krugman). Il s’agit simplement d’un point d’appui, cet article ne constitue pas une note de lecture de cet ouvrage et je ne m’y restreindrai pas.

A quoi servent les résultats théoriques ?

Ce qui frappe à la lecture de l’ouvrage de Colliard et Travers, c’est que bien des prix Nobel ont été récompensés pour des résultats purement théoriques, élégants mathématiquement, mais dont les applications pratiques semblent limitées ou inexistantes. Dès l’origine de la discipline, le débat entre une « économie politique » à visée pratique et une « économie théorique » a existé. Léon Walras, le père de l’école néoclassique, distinguait dès la fin du XIXème siècle « l’économie politique pure », une branche des mathématiques appliquées, « l’économie sociale », une science normative et morale dont l’objet est la répartition des richesses, et enfin « l’économie politique appliquée », une étude de l’organisation de la production.

Si l’on veut reprendre ces distinctions, alors il est indéniable que plusieurs grands noms de l’économie, nobélisés, ont été des représentants de « l’économie politique pure ». De Samuelson (prix Nobel 1970), qui réinterprète tout problème économique comme un problème d’optimisation sous contrainte à mettre en équations, à Gerard Debreu, qui démontre les conditions mathématiques d’existence d’un équilibre de concurrence pure et parfaite avec des outils très sophistiqués, en passant par les théories d’un Nash (1994) ou d’un Haavelmo (1989), on ne peut pas dire que ces résultats de l’économie ont apporté quoi que ce soit au quidam moyen, à une époque où la physique faisait fonctionner des centrales nucléaires et où la médecine généralisait les antibiotiques.

En première lecture, on pourrait donc soutenir avec Carlyle (1849 !) que l’économie est une « science lugubre » car elle est préoccupée de problèmes abstraits qui ne fonctionnent que dans un certain cadre théorique (la concurrence pure et parfaite le plus souvent) et qui n’ont qu’un vague rapport avec la réalité. Cependant, ceux qui font cette critique ignorent le fait que… c’est le cas pour presque toutes les sciences.

Si un résultat comme celui de Debreu n’a qu’une utilité sociale très limitée, que dire de dépenser des milliards d’euros pour trouver que la masse des particules est déterminée par le boson de Higgs ? Toute science a des branches théoriques (ne parlons pas des mathématiques, théoriques par nature) qui essaient de résoudre des problèmes abstraits dont l’utilité sociale est nulle (ou inconnue) au moins à court terme. Pour une recherche qui produit des résultats « concrets » (par exemple, une nouvelle molécule médicale), on trouvera bien plus de recherches théoriques qui ne produisent rien, soit que leur but est d’emblée théorique, soit que le résultat n’est finalement pas probant (pour des raisons de reconnaissance sociale et de financement, les études qui trouvent des résultats négatifs sont beaucoup moins publiées et médiatisées que celles qui trouvent des résultats positifs…).

On pourrait penser que l’existence du boson de Higgs sera peut-être utile un jour, et l’on trouvera alors un lien entre ce savoir particulier et un progrès technique quelconque. Mais on peut aussi en douter. Pour faire voler des fusées, la physique de Newton (XVIIIème siècle !) reste amplement suffisante. A quoi cela sert-il de dépenser des milliards pour recréer en laboratoire des particules qui ne se montrent que dans des conditions spécifiques ? La beauté d’un résultat ? Cela peut certainement convenir à certains. Pour ma part, je préfère la citation de Durkheim : « nous estimons que nos recherches ne mériteraient pas une heure de peine si elles ne devaient avoir qu’un intérêt spéculatif » (De la division du travail social, 1893).

Je ne nie donc pas que certains résultats de l’économie, au long des dernières décennies, sont des résultats théoriques qui n’intéressent que les théoriciens de l’économie ou plus généralement les intellectuels passionnés de problèmes abstraits. En ce sens, il y a certainement un progrès de l’économie, mais c’est un progrès purement heuristique, la connaissance pour la connaissance, sans but de politique économique ou de compréhension du réel.

Cependant, c’est le cas pour toutes les sciences, et à vrai dire, c’est le cas de toute activité intellectuelle abstraite. Les prix Nobel de physique ont récompensé des travaux purement théoriques (ou du moins, sans application pratique immédiate) comme des découvertes de particules, des mécanismes quantiques, des exoplanètes ou des théories cosmologiques. Ils ont aussi, bien entendu, récompensés des travaux à visée pratique immédiate, des travaux sur la radioactivité des Curie (1903) à l’invention des semi-conducteurs de Shockley, Bardeen et Brattain (prix Nobel 1956) en passant par la conception du microscope à effet tunnel (Binnig et Rohrer, Nobel 1986), du capteur photoélectrique (Boyle et Smith, Nobel 2009) ou des LED bleues (Kajita, Amano et Nakamura, Nobel 2014).

L’économie n’échappe pas à la règle : comme toutes les sciences, elle produit des résultats théoriques dont l’utilité ne semble pas immédiate ; mais elle produit aussi des résultats bien plus concrets.  Et c’est aussi ce qui frappe à la lecture de Les prix Nobel d’économie : la grande diversité des récompensés, et le grand nombre de  résultats « utiles ».

L’économie a-t-elle produit des résultats utiles ?

Il est peut-être temps de définir un peu mieux ce que je n’entends par résultat « utile ». Même si l’on pourrait défendre qu’un résultat uniquement théorique est un résultat « utile » sur le plan heuristique (si l’on aime la connaissance pour elle-même), j’entends par là un résultat qui améliore ou éclaire la décision de politique économique, ou, dans un sens plus large, un résultat qui permet de mieux comprendre le monde économique « réel » (ce qui nécessite de reposer sur un modèle crédible).

A la lecture de Les prix Nobel d’économie, il est indéniable que les travaux d’économie récompensés ces dernières décennies ont été utiles dans le premier sens. Les premiers récompensés ne concevaient d’ailleurs pas leur discipline comme cloisonnée de sa dimension « politique économique », si bien que Colliard et Travers les appellent les « économistes dentistes », reprenant la citation de Keynes : « si les économistes pouvaient être considérés comme des gens humbles et compétents, un peu comme des dentistes, ce serait formidable ». Sans pouvoir détailler ici tous les travaux développés dans l’ouvrage, on citera en vrac : Tinbergen (1969) qui formule les premiers modèles macroéconomiques permettant de piloter l’économie d’après-guerre en estimant les paramètres statistiques et en fournissant des règles d’aide à la décision aux gouvernements ; Kuznets (1971) qui met en place les premières estimations des agrégats de l’économie américaine, et est à l’origine du célèbre Produit Intérieur Brut ; Hicks (1972), dont le modèle IS-LM, certes limité, permet néanmoins d’avoir une compréhension basique des concepts de politique monétaire et de politique budgétaire, et de leurs conséquences sous un certain nombre d’hypothèses ; Leontief (1973) qui avec son tableau entrée-sorties (TES) essaie, avec des moyens informatiques très limités et de lourds calculs manuels, de déterminer par exemple les effets d’une politique de relance, secteur par secteur (agriculture, services, industrie…) ; Lewis (1979) qui permet de mieux comprendre les déséquilibres dont souffrent les économies en développement ; Sen (1998) qui contribue à créer l’Indice de Développement Humain utilisé par l’ONU ; Mundell (1999), inspirateur de l’euro, qui avec son célèbre trilemme précise les conditions dans lesquelles la politique monétaire est contrainte en fonction du contexte financier international.

On pourrait continuer longtemps la liste : s’il y a eu indiscutablement des prix Nobel très théoriques, il y a eu aussi des prix très « pratiques », dans le sens d’une utilité particulière à la décision de politique économique, et ce, dès l’origine du Nobel. Aujourd’hui, c’est toujours largement le cas, et la dimension empirique de l’économie s’est considérablement renforcée. D’abord, les économistes ont fait des progrès dans la collecte des données macroéconomiques, au travers notamment des grandes institutions (FMI, OCDE, OMC, Eurostat…), et ce dans un grand nombre de domaines : croissance, chômage, inégalités, inflation, pauvreté, consommation… De nombreux économistes y ont contribué, dont plusieurs prix Nobel, notamment Deaton, prix Nobel 2015, qui a considérablement enrichi la compréhension de la pauvreté mondiale en travaillant à créer des bases de données. Pour prendre deux exemples français : quoi qu’on pense des engagements politiques de Piketty, il a beaucoup contribué à construire et publier les données fiscales des décennies passées et personne ne peut dire que la constitution du « World Inequality Database », dont il est l’un des membres fondateurs, est inutile. Il est pour cela internationalement reconnu et nobélisable. D’autre part, le prix Nobel 2019, attribué à Esther Duflo, Banerjee, et Kremer, récompense des travaux très empiriques et expérimentaux, et dont l’objectif est de résoudre des problèmes très concrets issus de l’économie du développement (comme le problème du prix des moustiquaires au Kenya).

Quant à savoir si cela est utile au quidam moyen, on peut je pense soutenir que si la crise de 2009 a été largement mieux gérée que celle de 1930, entraînant des conséquences sociales bien plus faibles, c’est en partie parce que les décisions économiques ont été bien meilleures, parce que la connaissance économique a progressé depuis 1930. Si vous estimez qu’avoir de bons économistes conseillers du pouvoir ne sert à rien, allez faire un tour au Venezuela.

Développer des concepts, c’est être utile

L’utilité sociale d’une discipline particulière ne se mesure pas seulement en termes d’aide à la décision politique, mais aussi en termes de compréhension d’un problème particulier, ce que j’ai appelé le sens large du terme « utile ». Comme toute science, l’économie ne produit pas que des résultats (« l’étude Z a trouvé que… ») mais aussi des concepts descriptifs de situations particulières. Mieux comprendre le chômage, les inégalités, la croissance ou les crises financières est utile pour tout citoyen (probablement plus que connaître l’origine de la masse des particules) même si cela n’est pas immédiatement applicable au décideur.

Or pour décrire le monde contemporain, l’économie a produit des concepts qui au fil des années se sont imposés dans la discipline et sont aujourd’hui, pour beaucoup, dans les programmes du secondaire :  crise de liquidité, asymétrie d’information, revenu disponible, prophétie autoréalisatrice, concurrence monopolistique, oligopole, externalités, défaillances de marché, bien public, risque systémique, élasticité-prix, productivité des facteurs, quantitative easing… certains de ces concepts ont émergé il y a plus d’un siècle, d’autres sont très récents et ont été développé à la lumière de la crise de 2009, certains sont très largement admis, d’autres sont encore discutés, mais qui peut prétendre comprendre le monde économique contemporain sans les utiliser ?

L’économie et la technique

L’économie n’est pas une science naturelle et son lien avec la technique est plus distendu que la chimie ou la physique. Cependant, il est loin d’être absent. Les économistes peuvent aider à résoudre des problèmes extrêmement concrets et techniques, comme la gestion de ressources naturelles dans une région donnée (on peut citer sur ce thème au moins Ohlin, prix Nobel 1977 et Ostrom, prix Nobel 2009, Ostrom étant par exemple pionnière de l’utilisation de la cartographie en économie), la tarification (qui sait que c’est Maurice Allais, prix Nobel 1988, qui est à l’origine de la tarification heures creuses/heures pleines ?), la gestion des infrastructures de transport (McFadden, prix Nobel  2000), les interactions entre économie et climat (Nordhaus, prix Nobel 2018) et bien d’autres.

Si j’ai opposé, pour la clarté de la rédaction, théorie et pratique dans le début de cet article, il est clair qu’en réalité, il existe de nombreux liens entre les deux : certains des travaux les plus abscons et les plus mathématisés ont énormément d’applications pratiques. Ainsi, les travaux très mathématiques de Roth et Shapley (2012) ont d’immenses applications sur la question des algorithmes de mariage stable (Parcoursup, greffes de reins croisées, rencontres en ligne…). Si vous voulez voire une excellente vidéo de vulgarisation sur ce sujet par le meilleur youtubeur scientifique français, c’est par ici.

Dans la même veine, le prix Nobel de Spence, Akerlof et Stiglitz récompense des concepts théoriques (la théorie du signal pour Spence, les asymétries d’information pour Stiglitz et Akerlof) mais ceux-ci ont des applications pratiques pour comprendre ou décider dans de très nombreux domaines : marché des assurances, éducation, chômage, santé… Enfin, celui attribué à Fama, Hansen et Shiller (2013) récompense des travaux théoriques sur les marchés financiers qui comme le souligne Alexandre Delaigue, « sont de salubrité publique » : si tout le monde suivaient leurs conseils, les gens épargneraient mieux, il y aurait moins de panique sur les marchés financiers et probablement moins de crises financières.

Conclusion

Portée, au XIXème siècle, par une génération d’ingénieurs et d’économistes souvent très libéraux (Jean-Baptiste Say étant un éminent représentant des libéraux, et Augustin Cournot des ingénieurs), l’économie a gardé cette réputation d’une science à la fois austère (trop mathématisée), idéologique (libérale) et donc inutile : en étant trop abstraite, elle ne permet pas de comprendre le monde réel ; en étant trop libérale, elle n’est qu’une sous-politique de droite.

Avec cet article et les autres écrits sur ce thème, j’espère avoir contribué à montrer que cette réputation n’a plus de raison d’être aujourd’hui. L’économie est une science sociale comme les autres, certes, plus mathématisée et abstraite que les autres, mais pas moins utile que les autres. Si certains résultats économiques sont très théoriques, d’autres sont très pratiques, et, contrairement au cliché commun, il n’y a pas de lien direct entre degré de mathématisation d’un auteur et visée pratique de ses travaux. Au contraire, les travaux les plus pratiques sont parfois les plus mathématiques. Des Nobel très littéraires discutent surtout de concepts autour de la rationalité (Simon, 1978) et n’ont pas forcément de visée pratiques immédiates ; à l’inverse, les travaux de Tirole (2014) sont extrêmement mathématisés mais ont tous pour objectif d’éclairer la décision publique sur la gestion de marchés spécifiques.

Si l’on adopte une définition plus large de l’utilité, en considérant que tout concept qui aide à mieux comprendre une situation est utile, alors la conviction que l’économie est utile s’en trouve renforcée, car il est franchement impossible de comprendre le monde contemporain sans utiliser quelques concepts économiques modernes. Quant à savoir si l’économie est par essence « libérale… », c’est une vaste question que je garde pour plus tard.

Etat social : le grand paradoxe

XVM9c50aa9e-274c-11e6-b078-fe92e5d5dcfb

Policiers « à bout », pompiers « en colère », hôpital « au bord du gouffre », étudiants précaires, cheminots mobilisés, malaise enseignant…l’actualité donne l’image d’un pays en ruine, au bord de l’explosion sociale, par faute d’un Etat absent et inefficace.

EJRFJ80WwAASKRt.jpg

Or, la France a les dépenses publiques les plus élevées au monde (56% du PIB), une Sécurité sociale universelle et extensive que le monde nous envie, le tout financé par des prélèvements obligatoires les plus lourds de l’OCDE (45% du PIB). La domination du « néolibéralisme » ou « l’Etat ultralibéral » est une aimable plaisanterie : l’ultralibéralisme décrit peut être la situation aux Etats-Unis ou en Grande-Bretagne mais certainement pas en France. Il faut être resté nostalgique des grandes heures de l’URSS pour qualifier de « néolibéral » un pays où la richesse est socialisée à près de 60%. De plus, l’idée d’un retour en force du néolibéralisme depuis les années 1980 a certainement un fondement idéologique au niveau international, mais elle ne s’est nullement traduit par une réduction des prélèvements obligatoires ou de la dépenses publique en France : au mieux, on observe depuis quelques années un ralentissement de la hausse et un relatif tassement du poids des cotisations ; mais comme celui-ci est reporté sur des impôts qui augmentent, le total reste le même. Et ce ne sont pas les mesurettes de Macron sur la taxe d’habitation qui y changent quoi que ce soit. Les Gilets Jaunes nous rappellent que la fiscalité en France est un problème, non seulement parce qu’elle est injuste mais aussi parce qu’elle est trop élevée.

EJRFJ80WsAEja3q.png

Pourtant la colère sociale et l’état catastrophique de certains services publics est une réalité, vécue subjectivement de façon très différente par les différents agents de l’Etat, certes, mais bien réelle. Comment expliquer ce grand paradoxe d’un Etat social aussi dépensier, et d’une crise sociale sans précédent ? Comment faire tenir ces deux réalités contraires ? A cela, plusieurs éléments de réponse.

La redistribution…redistribue

Tout d’abord, il faut prendre de la distance avec l’actualité et regarder froidement les chiffres : en France, la redistribution existe et elle fonctionne, Dieu merci. Les frais de gestion de la Sécurité sociale sont de l’ordre de 5%, ce qui est excellent (les frais de gestion des organismes complémentaires sont de l’ordre de 20% : contrairement à eux, la Sécurité sociale n’a pas à chercher de nouveaux clients) ; cela signifie que 95% des sommes collectées (d’un budget de 800 milliards, ce n’est pas une paille) sont redistribuées aux Français. Les libéraux qui utilisent le chiffre des 57% pour dénoncer le poids des dépenses publiques évitent généralement de préciser que ce chiffre est à plus de 60% (62,8%) des dépenses in fine privées qui transitent par les administrations publiques (typiquement les retraites) : 57% est donc davantage une évaluation de la redistribution en France que du poids des dépenses strictement publiques comme les salaires des fonctionnaires. De ce point de vue, la Sécurité sociale fait son travail : elle redistribue.

Une moyenne, pas une réalité

Ensuite, il faut bien garder en tête que tous les chiffres globaux de prélèvements obligatoires ou de dépenses publiques sont des moyennes. Or une moyenne est très sensible aux valeurs extrêmes et ne reflète en aucune manière une réalité vécue. Le cas du pouvoir d’achat (qui, en moyenne, augmente) est bien connu. Dans mon domaine, l’éducation, c’est très clair. Prenez par exemple le salaire des enseignants. D’après l’OCDE il est dans le secondaire de 50 000$ par an (en parité de pouvoir d’achat) soit environ 3300€ par mois contre 45 000$ environ dans le reste de l’OCDE. On peut donc dire que le salaire effectivement touché en moyenne par les enseignants français est, au moins dans le secondaire, dans la moyenne haute de l’OCDE. Mais en réalité, fort peu d’enseignants touchent 3300€ : cette moyenne est tirée vers le haut par les agrégés des classes préparatoires, avec beaucoup d’ancienneté et qui font beaucoup d’heures supplémentaires. Un enseignant certifié débutant touche à peine plus de 1700€ par mois : il peut à bon droit estimé être mal payé pour un bac+5. Ne parlons pas des remplaçants qui, pour une exigence de diplôme équivalente, sont payés à peine plus que le SMIC. Ainsi, la moyenne de 3300€ net par mois ne reflète pas la réalité vécue par l’immense majorité des enseignants.

La même logique de moyenne biaisée peut s’appliquer à tout un tas de sujets, comme par exemple le nombre d’élèves par classe. Divisez le nombre d’enseignants par le nombre d’élèves, vous obtenez un enseignant pour 14,2 élèves. Evidemment, ce chiffre ferait rêver n’importe quel prof quand on sait que le seuil administratif à partir duquel le rectorat ouvre une seconde classe est de 37 élèves ! Là encore, problème de moyenne : tous les enseignants embauchés ne sont pas en activité devant élèves pour des causes très diverses (arrêts maladies, congé formation, temps partiel, décharge syndicale). De plus, la moyenne cache des disparités très grandes : il y a beaucoup plus d’élèves par classe en lycée général que professionnel, dans le second cycle que dans le premier, dans le secondaire que dans le primaire, etc.

Etat-social, Etat-gaspillage

A ces questions de déformation statistique s’ajoute un gaspillage budgétaire. Que les pouvoirs publics prélèvent chaque année près de la moitié de la richesse produite dans divers impôts et cotisations ne dit rien de l’usage, efficace ou non, de ces prélèvements. Impossible d’imaginer une dépense de plus de 1200 milliards d’euros par an sans trouver ici ou là des gaspillages. C’est vrai de toute grande organisation, publique ou privée. Evidemment dans un pays de 67 millions d’habitants, cela prend des proportions gigantesques. Sans tomber dans l’anecdote (le médecin breton payé à vie sans rien faire, le bâtiment public à prix faramineux mais vide, le rond-point refait trois fois pour plusieurs millions d’euros, etc.), il est normal de s’inquiéter d’un Etat-gaspilleur quand on est un tant soi peu attaché à l’Etat-providence. La mauvaise gestion budgétaire est une explication centrale qui rend compatible dépenses élevées et crise sociale.

Notons au passage que ce sujet n’est ni particulièrement de droite, ni particulièrement de gauche. A gauche, on peut insister sur l’abondance de niches fiscales, le coût faramineux du CICE (pour un gain en termes d’emploi quasi-nul) et celui moins élevé mais tout de même conséquent de la suppression de l’ISF ou encore le problème (quoique souvent exagéré) de la fraude fiscale. A droite, on peut soutenir des arguments sur l’improductivité particulière des services publics car si la France ne dépense pas plus que ses voisins à fonction comparable, elle utilise beaucoup plus souvent le statut de fonctionnaire embauchés et payés à vie (source). Ce qui explique le paradoxe de la France, avec à la fois beaucoup de fonctionnaires par habitant mais pas plus de médecins ou d’enseignants.

Le privé est-il structurellement plus efficace que le public ? Tout dépend des secteurs. J’en avais déjà parlé ici : une commune n’a besoin que d’une mission ponctuelle, elle sait qu’elle pourra facilement trouver une personne sur le marché du travail qui dispose des qualifications nécessaires et elle ne peut que mal contrôler le travail effectué : elle a alors tout intérêt à faire appel à une entreprise privée qui se chargera des espaces verts plutôt que d’embaucher un cantonnier payé même en l’absence de travail, qui pourra avoir une productivité faible, n’ayant aucun risque de perdre son emploi quelle que soit la qualité de son travail (aléa moral) puisque le secteur non marchand n’est par définition pas soumis à l’exigence de rentabilité. Cela implique cependant de bien rédiger les contrats (coûts juridiques) car l’entreprise privée ne fera pas ce qui n’est pas prévu dans le contrat.

Il est de toute façon toujours difficile de réduire les dépenses publiques, car il est difficile d’identifier l’improductivité où elle existe dans des organisations géantes et très complexes. Cela tient à la structure très hiérarchique de telles organisations et à l’absence de bonne diffusion de l’information. On ne touche pas à certains salariés, mêmes incompétents. Selon le principe de Peter, tout employé compétent est promu au niveau hiérarchique supérieur jusqu’au point où il atteint son seuil d’incompétence ; les employés incompétents n’étant jamais rétrogradés et rarement virés, un ministre qui voudrait « réduire les dépenses » a toutes les chances de ne pas réduire les bonnes. Au final, le bureaucrate garde son poste et l’infirmière trinque.

L’économie, mais surtout le social et le symbolique

Ces considérations budgétaires sont loin de faire le tour, je pense, de la crise actuelle. Tout ne se réduit pas à des gros chiffres et à vrai dire, la crise sociale que nous traversons me semble devoir beaucoup à des causes non directement économiques.

Prenez l’absence de reconnaissance symbolique. C’est largement vrai dans le monde du travail, et c’est lié à un management « à la française » complètement archaïque : flicage des salariés, faible autonomie, incapacité des supérieurs hiérarchiques à faire des compliments, faible promotion du télétravail, logique comptable sur les horaires (au lieu d’une logique de résultat : tu viens quand tu veux, tu pars quand tu veux du moment que le boulot est fait). Evidemment, c’est aggravé par des « petites phrases » condescendantes du président lui-même (même exagérées et raccourcies par les médias), comme « pour trouver un emploi tu n’as qu’à traverser la rue », « les Français sont des gaulois réfractaires au changement », « si tu veux te payer un costume à ce prix tu n’à qu’à travailler », etc. Le symbolique compte, et en la matière la posture de Macron et du gouvernement en général, voire, pour élargir, d’une certaine oligarchie parisienne (coucou Julie Graziani…) ne passe pas.

Dans les services publics, c’est pareil en pire, car les technocrates appliquent généralement avec dix ans de retard ce qui se fait de pire dans le privé : quand ailleurs on parle de bien-être au travail, d’épanouissement individuel et de home-office, le manageur moyen du public en est encore à recompter les coûts et les bénéfices. La santé souffre particulièrement de ce management brutal imposé à partir des années 1990 (le New Public Management) où des technocrates sans aucune connaissance du terrain font faire des trucs absurdes aux hospitaliers pour économiser quelques sous. La saine gestion budgétaire est une chose, mais on ne peut pas tout bien faire à la fois, réformer et économiser. Alexandre Delaigue avait très bien expliqué pourquoi à force de vouloir courir deux lièvres à la fois (réformer et faire des économies) on ne fait bien ni l’un, ni l’autre. Illustration avec la réforme des régions qui illustre à peu près tout ce qu’un décideur à courte vue peut mal faire : demandée par personne, décidée et mis en oeuvre par quelques technocrates sur un coin de table contre l’avis d’à peu près tout le monde, elle n’a, à part quelques économies dans les achats de gros, pas du tout produit les économies budgétaires attendues, bien au contraire. Par contre, le travail des fonctionnaires territoriaux s’est généralement dégradé.

Et au-dessus, la pression administrative

Il faut ajouter à tout ceci un contexte de pression administrative permanente : que dénonçait notamment la directrice d’école de Pantin qui s’est suicidé il y a quelques semaines ? Le poids des tâches administratives. Un empilement permanent de normes successives a rendu l’exercice de la moindre tâche insupportable. L’enseignement, encore : après chaque cours, je dois remplir le « cahier de textes numériques » qui décrit tout ce que j’ai fait avec les élèves ; chaque devoir doit être inscrit en ligne et chaque travail à faire à la maison doit avoir son temps indicatif ; pour les conseils de classe, il faut remplir de plus en plus de fiches administratives ; pour chaque sortie scolaire, faire un dossier pédagogique complet de plusieurs pages, remplir des “fiches-élèves” ou“fiches-parents” et renseigner en fin d’année le “bilan de fin de cycle” (sans parler des habituels bulletins et appréciations), et ainsi de suite. Résultat : on passe de moins en moins de temps à enseigner, et plus en plus de temps à faire des fiches que personne ne lit. Et c’est partout pareil. Demander aux enseignants d’avoir un boulot de cadre : pourquoi pas, mais alors il faudrait peut-être les payer comme des cadres. Sinon, c’est le retour du vieux « ils font semblant de me payer, je fais semblant de travailler ».

Revenons à la santé, sujet du jour. Les dépenses françaises en la matière sont dans la moyenne de l’OCDE (12% du PIB) : c’était 4% dans les années 1960. Pourquoi dépense-t-on autant alors que les soignants dénoncent une situation au bord du gouffre ? Cela tient à la hausse des coûts permanente liée elle-même à l’amélioration de la médecine. On vit plus longtemps, on soigne plus de choses, tant mieux, mais tout cela coûte fort cher. Les plus de 75 ans représenteront 16% de la population d’ici 2050 (INSEE) contre 10% aujourd’hui : cela veut dire que le groupe des plus de 75 ans va doubler et donc que les dépenses de santé ne sont pas près de ralentir.

Mais là encore, le montant total ou moyen ne dit rien de la réalité vécue. Pendant que le radiologue moyen du privé gagne 18 000€ par mois, l’infirmière craque. C’est la particularité des dépenses de santé : elles ne sont pas décidées par le consommateur mais par un professionnel de santé payé à l’acte, donc incité à prescrire plus. Les traitements médicaux sophistiqués augmentent les dépenses (voyez le coût d’un scanner) alors que leur rendement est décroissant : développer un antibiotique non-résistant coûte aujourd’hui bien plus cher que quand on les a découvert. Acheter une nouvelle machine à plusieurs millions d’euros qui va améliorer de quelques pourcents la netteté d’une imagerie médicale est un autre exemple.

Pendant ce temps, le temps moyen d’une consultation ou d’un soin est resté le même. C’est la loi de Baumol ou « maladie des coûts » : dans les services où il est difficile d’améliorer la productivité à long terme (il faut toujours le même nombre de personnes pour jouer une sonate de Bach qu’il y a 100 ans), les salaires doivent augmenter en permanence pour suivre l’amélioration de la productivité dans l’industrie (il faut beaucoup moins de main d’oeuvre pour produire un kilo de blé ou une voiture qu’il y a 100 ans). Ceci est une explication supplémentaire de la hausse des dépenses alors que le travail vécu est de plus en plus difficile. Le poids des tâches administratives augmente, et comme la médecine de ville est un échec, les Français vont aux urgences pour un oui ou pour un non, engorgeant des services déjà débordés.

Capitalisme, anticapitalisme

Définition (simple) du capitalisme

Le capitalisme est un système où la propriété des moyens de production est (au moins en partie) privée, avec un système concurrentiel donc un marché où les prix ont une signification marchande. L’investissement (donc l’initiative privée) y tient une place centrale : pas de capital-isme sans capital. Au centre du capitalisme, on trouve la relation épargne <> investissement (et donc la recherche du profit).

Lire la suite

Vingt-quatre mois de macronisme

800x-1_thumb

J’avais publié il y a un an un article où je critiquais Macron sur des détails tout en le soutenant sur l’essentiel, en particulier sur les réformes économiques. 24 mois après l’élection, si je devais réécrire un article j’en accentuerais la tonalité critique. Être déçu de quelqu’un pour qui on a voté est un peu un marronnier de la démocratie, mais il faut bien reconnaître que l’année 2018 a été riche en déceptions.

Lire la suite

Ecologie : l’innovation ou rien

crise ecologique

Ce n’est aujourd’hui un mystère pour personne que nous vivons une crise écologique sans précédent. Ses principaux traits sont l’épuisement des ressources non renouvelables, le réchauffement climatique, et l’effondrement de la biodiversité. A partir de là, trois grandes réactions se dessinent.

1. Pessimistes et collapsologues

Ils considèrent que c’est déjà trop tard. Sans ressources énergétiques, sans alimentation et avec un réchauffement intenable, nous allons vers l’effondrement généralisé : social, urbain, alimentaire, démographique, etc. On imagine alors un retour à un monde tribal et violent, marqué par les famines dignes de l’Europe à la fin de l’empire romain d’occident. A l’intérieur de ce discours on trouve tout le courant de la collapsologie, qui estime que l’urgence est de préparer un tel monde à venir, par exemple en créant de petites communautés de survie type monastiques avec potager, élevage, autosuffisance, sobriété de vie.

Tout ceci pose des questions évidentes. D’abord sur le plan du constat scientifique. Si la crise écologique n’est pas discutable, ses modalités et ses échéances le sont. Prétendre que l’effondrement est 1° forcément général 2° forcément certain 3° (surtout) datable à brève échéance, par exemple 10 ans, comme je l’ai entendu de la bouche de collapsologues, n’a rien de scientifique.

Forcément général ? Si on comprend l’idée qui consiste à globaliser la pensée pour prendre de la hauteur, sur le mode du “tout est lié”, le risque est de relier des phénomènes qui n’ont qu’un vague rapport entre eux. La pensée scientifique consiste par définition à isoler les causes et distinguer les concepts. Le concept d’effondrement de la biodiversité est scientifique. Le concept d’effondrement tout court, un effondrement “civilisationnel” qui inclurait toutes les dimensions de la vie humaine actuelle, relève plutôt de la mystique ou de la philosophie.

Forcément certain ? Datable ? Les scientifiques (à commencer par ceux du GIEC) modélisent différents scénarios, du plus dangereux au moins dangereux, en fonction des multiples paramètres imbriqués, parmi lesquels la technologie disponible, les émissions prévisibles, la capacité de la biosphère à en absorber une partie, les réactions humaines et les décisions politiques. Dès lors, il est discutable de prétendre que le scénario est écrit à l’avance et qu’il est datable à brève échéance. Avoir une démarche scientifique, c’est estimer sur la base d’arguments factuels la probabilité des scénarios A, B, C en fonction des paramètres X,Y,Z. Et montrer ce qui change si on fait varier un paramètre. Non pas affirmer que tous les paramètres étant déjà écrits, un seul scénario va se produire, dans N années. Voir par exemple cet article du Pharmachien (lien).

Enfin, à supposer que le constat soit exact (l’effondrement sera général, certain et rapide), cette vision ne peut pas définir un projet politique en 2019. Quelques individus motivés et volontaires peuvent sans doute créer ces sortes de communautés autosuffisantes qu’ils appellent de leur vœux (grand bien leur fasse !) ; mais cela restera des initiatives individuelles, et isolées. Vivre ainsi en communauté n’a rien d’aisé, tous les utopistes des siècles passés, du phalanstère de Fourrier aux plateaux du Larzac en passant par les sectes religieuses en ont fait l’amère expérience. Si les moines et les moniales, quant à eux, y réussissent plutôt bien, c’est parce qu’ils s’astreignent à des règles de vie très strictes, avec une organisation sociale hiérarchisée, et qu’ils sont portés par une foi commune qui ancre une solide conscience collective. Il y a quelques mois, j’ai regardé le film “Le Grand Silence”, superbe documentaire sur la vie des chartreux. Ils n’émettent pas beaucoup de CO². Mais ils vivent littéralement dans le dénuement, leur mode de vie n’ayant pratiquement pas changé depuis le Xème siècle. Soyons clair : ça ne fait rêver personne.

Alors, que faire pour survivre à la crise écologique ? Imposer le mode de vie monastique ? Soit une deuxième approche.

2. Une bonne dictature verte

Puisque c’est tout la société qui doit changer, et que l’approche volontariste ne suffit pas, alors il nous faut une bonne dictature verte. Le retour des kolkhozes. Cette position n’est évidemment jamais affirmée telle quelle par les écologistes radicaux, mais est implicite dans nombre de discours et de propositions.

Par rapport aux pessimistes, ces écologistes considèrent qu’il n’est pas trop tard si l’on prend les bonnes mesures énergiques qui s’imposent, c’est-à-dire si le pouvoir politique porte lui-même l’initiative radicale qui convient à la situation. En général, ces propositions tiennent en un mot : interdire.

Il faut interdire les trajets en avion intérieur et extérieur, ou bien avoir un nombre limité par personne ; interdire les centre-ville aux voitures (ou interdire les voitures tout court, d’ailleurs) ; interdire les objets en plastique ; interdire la publicité qui créé un besoin superflu ; interdire les pesticides ; interdire les constructions neuves pour limiter l’urbanisation ; interdire la chasse ; interdire d’arroser son jardin pour économiser l’eau, et interdire de le tondre pour favoriser les insectes. Interdire les dosettes de café, ça pollue, et interdire les croisières, ça pollue encore plus. Interdire la viande, bien entendu ! Interdire, interdire, interdire.

Il ne s’agit pas de discuter ici telle ou telle mesure, encore moins de dire qu’interdire n’est jamais une solution (parfois, c’en est une). Mais de constater qu’il existe un projet politique écologique basé sur l’instauration, petit à petit, d’une véritable dictature au nom de la survie de la planète. Une dictature qui sera basée sur un contrôle social étendu de toutes les dimensions de l’existence, et en particulier celle qui touche à la consommation, de façon à forcer chaque individu à adopter un mode de vie plus propre.

Ce projet sauverait-il la planète ? Sans doute. Mais on voit immédiatement qu’il n’a aucun avenir politique. Personne ne souhaite une dictature verte, même pour sauver la planète. Quand des milliers de personnes sont capables de se mobiliser pendant autant de mois, avec une telle force, pour défendre leur pouvoir d’achat et leur droit de rouler à plus de 80km/h sur les routes nationales non séparées d’un terre-plein central, autant dire que la dictature verte n’est pas pour demain.

Ce projet n’a pas d’avenir politique, et il est de toute façon non souhaitable. Si pour survivre, il faut renoncer à tout ce qui fait le sel de la vie, que vaut-il la peine de survivre ? Car consommer fait (aussi) partie du plaisir de l’existence. Quand on pense à la “société de consommation”, on imagine toujours la vision caricaturale du jeune cadre trentenaire qui change de téléphone tous les six mois. Mais consommer, c’est d’abord consommer des services, et in fine consommer de l’énergie, qui nous rend la vie hautement agréable : l’électricité, les transports (donc la mobilité), les loisirs, les voyages, internet, le chauffage, et tous les objets en plastiques dont nous nous servons quotidiennement : c’est un confort que nous avons accumulé au fil des siècles, et auquel il est très difficile de renoncer. Même quand on est convaincu de la nécessité, d’ailleurs ! Beaucoup d’écologistes militants qui tiennent un discours radical ont une empreinte écologique dix fois supérieure à la mienne, ne serait-ce que tous ces voyages en avion pour convaincre le peuple de l’urgence de la transition. Sans parler de ces présentations powerpoint faites avec un ordinateur dont la production et l’usage génère du CO² (horresco referens) pour montrer la gravité du problème, dans une salle chauffé (enfer !), de ces nombreux posts Facebook qui génèrent de la chaleur dans une ferme de serveurs californienne, etc. Ce n’est pas une surprise : il est beaucoup plus facile de discourir du changement que de se l’appliquer à soi-même, et si c’est déjà le cas des écologistes convaincus, que dire des non-convaincus ? On comprend que la thèse complotiste du “réchauffement climatique qui n’existe pas” fasse florès, elle permet de donner une assise pseudo-scientifique à une absence totale de changement de son propre mode de vie.

Ecrivant cela, je ne prétend nullement qu’il n’y a rien à faire sur le plan des décisions politiques en matière d’écologie. Bien au contraire ! Il faut souvent taxer, parfois interdire, beaucoup inciter. Mais je note que, selon les écologistes eux-mêmes, les demi-mesures ne seront pas suffisantes. Car la crise est déjà trop avancée. Aux dires même des spécialistes de la crise écologique, taxer le kérozène (mesure pourtant nécessaire) apparaît comme dérisoire vu les enjeux. Dès lors, il convient d’en tirer les conclusions qui s’imposent : une dictature verte ou la mort. Il est pour moi très clair que nos contemporains préfèreront la mort. Prétendre le contraire, c’est se leurrer gravement sur notre attachement à notre confort, et oublier que nous vivons dans des sociétés où le processus d’individualisation a atteint un aboutissement inégalé : tout le monde pense aujourd’hui son rapport au monde en fonction de sa propre vie et de ses propres convictions. Il paraît alors inenvisageable à chacun d’imaginer laisser l’Etat avoir un droit de regard aussi radical et extensif sur mon choix de consommer tel ou telle chose au nom d’un hypothétique but collectif, alors que la pensée même d’appartenir à un collectif en hérisse la majorité. Nous sommes attachés aux libertés individuelles. Et nous ne sommes pas des chartreux.

3. L’innovation ou rien

Si le projet collapsologique de petites communautés autosuffisantes restera marginal, et si la dictature verte est impossible, et puisqu’on ne peut pas éviter la crise écologique, alors c’est l’innovation ou rien.

Innovation est un grand mot qui peut désigner bien des choses. Pour aller vite, distinguons après Mensch (1975) l’innovation fondamentale, motrice des cycles économiques et la croissance par “destruction créatrice” (Schumpeter), et la pseudo-innovation, simple différenciation marketing qui ne fait que retarder la saturation des marchés. D’un côté, l’électricité ou internet, de l’autre le dernier iPhone. De Schumpeter à Solow et de Samuelson à Romer, des générations d’économistes ont modélisé et approfondi la question de l’innovation pour comprendre pourquoi elle était aussi importante dans la croissance : pour aller vite, résumons en disant qu’elle produit une amélioration de la productivité, donc de l’efficacité avec laquelle nous utilisons les ressources dont nous disposons (capital et travail), ce qui nous permet de nous enrichir et en même temps de travailler moins.

Analyser le rôle de l’innovation dans la croissance est une chose, se risquer à prédire l’avenir en est une autre. C’est une partie essentielle de la science, mais un art ô combien difficile. Du point de vue économique, il est très difficile de prédire si nous allons vers un nouveau régime de croissance forte porté par des innovations fondamentales, ou si, au contraire, nous sommes entrés dans l’ère de la stagnation séculaire.

D’un côté, des économistes “néo-schumpétérien” comme Philippe Aghion, pour qui de nouvelles phases de fortes innovations sont déjà enclenchées. Si elles ne sont pas encore visibles, c’est qu’on sait mal mesurer l’innovation d’un point de vue comptable. Quand un nouveau produit sort, il est généralement plus cher, si bien qu’on enregistre dans un premier temps une simple inflation avant de constater la différence de qualité. Plus l’innovation est forte, plus l’inflation est surestimée. Quelles innovations seraient alors censées nous sauver la mise ? On peut penser aux innovations suivantes (liste non exhaustive) : la généralisation des voitures électriques ou hybrides, des modes de transport plus efficaces et plus propres (BHNS, bus électriques), le tout alimenté par de nouvelles sources d’énergie, en partie renouvelables et surtout portées par la fusion froide, une diminution du C0² émis par unité de PIB en raison d’une meilleure isolation des logements, de la généralisation de pompes à chaleur dernier cri, le développement de l’économie circulaire, du recyclage, de l’autopartage et du partage de biens en général, la génération et l’amélioration de puits de Co², le pétrole de synthèse, l’agriculture urbaine, etc.

En quoi ces innovations résolvent-elle la crise écologique ? Parce qu’elles conduisent à découpler la croissance de l’énergie. Ce découplage (qui restera toujours relatif) est absolument nécessaire à la diminution de l’empreinte écologique de l’espèce humaine. Comme le montre le montre Alain Grandjean dans un article absolument indispensable (lien), ce découplage est en réalité déjà engagé. Grandjean montre que l’efficacité énergétique pour chaque dollar de PIB s’améliore depuis des décennies. En terme d’économie bas-carbone, nous faisons déjà beaucoup mieux que nos parents. Mais sommes nous assez rapides ?

Ralentissement récent de la réduction du ratio Energie/PIB (en base 100)

Source : Grandjean.

Loin de cet optimiste, les économistes tenant de la stagnation séculaire (Gordon en tête de file) estiment que les innovations contemporaines ne sont pas assez fondamentales, pas assez génératrice d’emplois, et/ou ne seront pas assez rapides compte tenu de l’urgence écologique. Pas assez fondamentales, car entre inventer l’électricité et inventer Facebook, tout le monde voit bien ce qui change le plus la vie. Les innovations modernes ne seraient pas à même d’enclencher des cycles économiques, car elles ne bouleversent pas suffisamment les modes de production. Pas assez créatrices d’emploi, car les innovations modernes sont fortement marquées par l’immatériel : Facebook ne produit rien de tangible et repose entièrement sur le capital coordonné par quelques salariés de haut niveau. Dès lors, la croissance qui en résulte est fortement inégalitaire, ses bénéfices vont à quelques ultraqualifiés et aux possesseurs d’actifs du type brevets. Tout le reste est produit par des robots. C’est la principale leçon de Haskell et Westlake (2018) : nous allons vers un “capitalisme sans capital” fortement inégalitaire, le cas le plus criant étant celui des Etats-Unis. Pas assez rapides, enfin, car les innovations qui arrivent se diffusent trop lentement et les principaux pays émetteurs de Co² ne sont pas nécessairement les pays qui avancent le plus vite : la Chine étant le meilleur exemple. Principal émetteur de la planète, ce pays ne se développe pas aussi mal que l’Angleterre du XIXème, mais est encore loin du compte : plus de 60% de l’énergie consommée en Chine provient encore, à ce jour, du charbon.

Encore une fois, il est difficile de trancher cette question qui relève par définition de la futurologie. En réalité, si la tâche de l’économiste peut être d’étudier les conséquences de telle ou telle innovation, notamment sur l’emploi, ou encore de réfléchir au meilleur moyen de soutenir l’innovation et l’investissement notamment dans les nouvelles énergies (crédit d’impôt recherche ou investissements publics, crédits bancaires ou capital-risque) ou de réduire les externalités négatives induites par la pollution (normes, taxes ou marché de quotas…), la question plus fondamentale de la création future des innovations relève plutôt de l‘analyse de l’ingénieur. Economiste, je ne suis absolument pas qualifié pour dire si le projet ITER sera rentable énergétiquement à moyen terme, même si je vois bien tous les apports potentiels de la fusion froide. En tout cas, Joseph Schumpeter, le premier à avoir sérieusement étudié l’innovation comme moteur du capitalisme, était plutôt pessimiste : dans les années 1920, il estimait que la gestion bureaucratique des grandes organisations engendrerait une réduction de la place de l’entrepreneur-innovateur et donc de la prise de risque, entrainant à terme une disparition de l’innovation.

Conclusion

Je ne sais pas si nous allons sauver la planète, ou plutôt si nous allons nous sauver nous mêmes, car la planète survivra. Car je ne sais pas si les innovations dans 30 ans seront assez radicales et assez rapides pour cela. De plus, “crise écologique” est un terme générique qui désigne des choses très différentes, avec des dimensions quantitatives (l’épuisement des ressources), qualitatives (le réchauffement climatique) ou les deux (la perte de biodiversité), et qui appellent des réponses différentes. Par exemple, la grande peur de manquer de pétrole apparaît aujourd’hui plutôt dépassée : les technologies d’extraction ayant beaucoup évolué, les réserves ont augmenté, et l’on sait aujourd’hui qu’on ne va pas manquer de pétrole à moyen terme. Le problème beaucoup plus urgent est celui du réchauffement climatique, qui nous interdit de brûler celui dont on dispose !

Cependant, je suis persuadé que nous n’avons d’autre choix que d’innover, d’innover plus, plus vite, et d’innover encore. Les écologistes n’adhèrent généralement pas à ce discours, pour deux raisons à mon avis :

  • ils considèrent, dans une perspective pessimiste, que les innovations modernes sont avant tout cosmétiques, et donc présentent une logique de “greenwashing” (ce qui n’est vrai que pour certaines : le greenwashing existe, les vraies innovations aussi) ;
  • ils estiment plus fondamentalement que l’innovation ne fait que poursuivre la logique générale du système capitaliste de consommation, alors qu’il faudrait en changer.

Ce en quoi je suis parfaitement d’accord : en écrivant “l’innovation ou rien” je suis parfaitement conscient que je ne cherche aucunement à bouleverser le système. Mais c’est précisément pourquoi j’ai écrit les deux premières parties de cet article : “bouleverser le système” ou “renoncer à la société de consommation” n’est rien d’autre qu’un terme pour “dictature verte” (si c’est imposé par les pouvoirs publics) ou “collapsologie” (si ça vient de la société civile). Dans ce dernier cas, c’est déjà possible, et rien ne vous empêche de vous mettre à la vie monastique. Cela restera marginal. Parce qu’il est facile de tenir de grands discours sur le renoncement à la société de consommation et le “bonheur dans la sobriété” ; plus difficile de renoncer soi-même à des décennies de confort. En réalité, nous faisons déjà (presque) tous des efforts : plus ou moins importants en fonction de nos convictions et de nos possibilités, certes, mais l’écologie imprègne désormais, dans les pays développés du moins, toutes nos décisions d’achat. Seulement, rappelons que pour respecter l’accord de la COP21, ce n’est certainement pas quelques légumes dans son jardin et aller au travail en vélo qui suffiront. Le smicard français émet déjà beaucoup trop de Co². Il vous faut renoncer à l’essentiel de vos transports, de votre chauffage, de vos appareils de loisirs. On parle de revenir au mode de vie “propre” du XVIIème siècle, où l’agriculture nourrissait grosso-modo 800 millions d’êtres humains. Que fait-on du surplus ? Seule l’innovation peut permettre de conserver au moins une part de ce confort acquis tout en préservant la planète.

Il est certain que la course à l’innovation implique parfois des produits absurdes, comme ces mini-drones chinois censées remplacer les abeilles disparues. Cependant, ce serait exagéré de réduire toutes les innovations à cela. Parce que la dictature verte n’est pas une option, parce que le retour à la vie monastique n’est pas engagé, parce que la crise écologique est bien réelle : c’est l’innovation ou rien.

Faut-il baisser les dépenses publiques ?

« Nous dépensons 57% de notre PIB en dépenses publiques ».

Le chiffre a plusieurs fois été évoqué par Macron et le gouvernement pour justifier, désormais dans le cadre du « Grand Débat », la baisse des dépenses publiques (jugée urgente). Le chiffre est exact (57% du PIB, c’est 1250 milliards environ) mais il y a pas mal de remarques à faire avant d’en inférer qu’il est urgent de diminuer le nombre de fonctionnaires.

1. On a 1250 milliards de dépenses publiques. Sur ces 1250 milliards, il y a 800 milliards de Sécurité sociale. Le budget de la Sécu sera en 2019 (pour la première fois depuis 18 ans) en excédent, et les frais de gestion sont très faibles, de l’ordre de 5%. Donc on a déjà 760 milliards qui repart directement dans les poches des Français. Viennent ensuite les aides sociales (au sens strict, c’est-à-dire les minimas sociaux) versés par l’Etat. Le poste de dépenses est d’environ 25 milliards pour une dizaine d’allocations, dont près de la moitié pour le RSA. Soit 760 + 25 = 785 milliards, soit plus de 60% (785/1250 = 62.8%) des dépenses publiques qui est directement redistribué aux Français. Il faudrait affiner avec les collectivités locales mais c’est un ordre de grandeur. Premier point, donc : le chiffre des 57% du PIB en dépenses publiques représente beaucoup plus une estimation de la redistribution (argent qui *transite* par l’Etat) qu’une estimation du coût de l’Etat, comme certains éditorialistes (et le gouvernement) le sous-entendent. En réalité, plus de 60% de cet argent « dépensé par l’Etat » est dépensé par les Français comme ils l’entendent. Ce montant peut être diminué, certes, mais cela signifie amoindrir la redistribution, au détriment des plus pauvres qui en bénéficient.

2. Reste les 40%, soit 500 milliards qui ne sont pas directement redistribués. C’est peut être là que se concentrent les critiques libérales, insistant sur les 5 millions de fonctionnaires en France (1/5ème de l’emploi, record de l’OCDE), sur le poids de l’Etat et de la bureaucratie. Là encore cependant, plusieurs remarques sont nécessaires pour prendre du recul. La quasi-totalité de cet argent (tout, moins les intérêts de la dette de 45 milliards soit environ 455 milliards) finance des services publics, soit en payant des agents (fonctionnaires et assimilés) soit par des dépenses d’investissement et de fonctionnement. Il y a donc deux grandes questions.

3. La première question est : peut-on se passer du service public untel ? Il est aisé de clamer qu’il faut baisser les dépenses publiques, il est beaucoup plus difficile de déterminer ce dont il faut se passer. Moins d’infirmières, moins d’enseignants ou moins de juges ? Ou peut être moins de policiers ? C’était l’un des arguments d’Olivier Passet (Xerfi) : si l’on compare non pas le nombre de fonctionnaires mais les emplois utilisés pour chaque fonction (police, justice, éducation…), indépendamment du statut, la France se situe dans la moyenne basse de l’OCDE, loin derrière l’Allemagne ou encore le Royaume-Uni et même les États-Unis. En gros, les autres pays utilisent encore plus d’agents pour les services publics, mais ils ont moins souvent un statut de fonctionnaires. Ce qui explique le paradoxe de la France, avec à la fois beaucoup de fonctionnaires par habitant mais pas plus de médecins ou d’enseignants. De quoi peut-on se passer ? Il y a de bonnes chances que la réponse soit pas grand chose, à part sans doute quelques coûteux comités Théodule (genre le CESE et autres Haut Conseil machin). C’est déjà ça, mais ce n’est rien qui nous ferait économiser des milliards et permettrait de baisser massivement l’impôt, comme le prétend le gouvernement.

4. De plus, à supposer qu’on identifie ce dont on peut se passer (mettons, les emplois de fonctionnaires territoriaux), il est difficile, concrètement, d’identifier les services/emplois à supprimer. Cela nécessite de disposer d’une bonne information sur la productivité de chaque service : de nombreux travaux de sociologues et d’économistes ont montré que dans une grande bureaucratie (c’est vrai aussi dans une grande entreprise) c’est extrêmement difficile. Cela tient à la structure très hiérarchique de telles organisations et à l’absence de bonne diffusion de l’information. On ne touche pas à certains salariés, mêmes incompétents. Selon le principe de Peter, tout employé compétent est promu au niveau hiérarchique supérieur jusqu’au point où il atteint son seuil d’incompétence ; les employés incompétents n’étant jamais rétrogradés et rarement virés, un ministre qui voudrait « réduire les dépenses » a toutes les chances de ne pas réduire les bonnes.

5. Deuxième question : un service qui nous est utile serait-il plus efficace/moins cher s’il était privatisé ? On garde le service mais on fait appel au privé au lieu d’embaucher un fonctionnaire. Si une commune embauche un cantonnier pour ramasser les poubelles, ce sera comptabilisé en « dépenses publiques + fonctionnaires » ; si, comme en Allemagne, elle fait appel à une entreprise privée, cela sera une dépense publique mais il n’y aura pas d’embauches de fonctionnaires car il s’agit de sous-traitance. Qu’est-ce qui est préférable ? Qu’est-ce qui est le plus rationnel ? Contrairement aux idées reçues sur les économistes qui défendraient systématiquement le marché, la réponse académique (ici, l’économie des organisations, et notamment les travaux de Coase et Williamson) est « ça dépend ». Ça dépend essentiellement de trois critères : spécificité des actifs (est-il facile de trouver un individu ayant les compétences de cantonnier sur le marché du travail ? puis-je trouver une autre entreprise qui sait fabriquer une centrale nucléaire ? etc.), de la récurrence de la relation (ai-je besoin d’un cantonnier ponctuellement ou en permanence ?) et enfin de la possibilité de comportements opportunistes. Le comportement opportuniste, c’est le risque que la personne, avant la signature d’un contrat, biaise l’information (même involontairement) car elle détient une information que le co-contractant n’a pas (asymétrie d’information) ; ou après la signature du contrat, ne mette pas toute l’énergie attendue par le co-contractant en cherchant son intérêt à court terme (risque d’aléa moral). On pourrait ajouter en quatrième critère le poids des coûts fixes qui fait qu’il est parfois préférable d’avoir un monopole public pour éviter un monopole privé, qui fera la même chose plus cher : c’est le cas des autoroutes par exemple.

6. Quelques exemples. Comme l’a rappelé Loïc Steffan, le système de santé français, largement public, est bien plus efficace que le système américain quand on compare à la fois les résultats et le coût. Les Américains soignent proportionnellement moins de personnes pour un coût plus élevé. C’est parce que la santé est un secteur où les comportements opportunistes peuvent être nombreux : seul l’assuré connaît bien son état de santé, l’assureur le connaît mal. Si le secteur est privé, les compagnies d’assurance vont dépenser des sommes folles en bureaucratie pour éviter les patients malades en leur faisant faire de nombreux check up de santé avant des les accepter comme clients, en rendant les contrats difficiles à comparer, en faisant payer des franchises (un américain qui veut entamer une chimio appelle d’abord son assurance pour savoir combien il paye de sa poche, surprise), et en élevant les primes moyennes. On voit alors émerger un système artificiellement coûteux et inefficace où, à l’extrême, les personnes en bonne santé ne veulent pas payer pour une assurance qu’elles jugent trop chère et où celles en mauvaise santé ne sont pas couvertes : c’est la sélection adverse. Le moyen de réduire l’asymétrie d’information est d’universaliser le système (ce qui dilue le risque sur l’ensemble des citoyens), de rendre l’assurance obligatoire (pour éviter que les personnes en bonne santé refusent de payer pour les malades), et de centraliser les informations et la gestion des dossiers : c’est exactement ce que fait la France avec la Sécurité sociale et aux dernières nouvelles ça marche très bien.

Inversement, pour reprendre l’exemple du cantonnier, supposons un fort aléa moral, une relation peu récurrente et des actifs peu spécifiques. Autrement dit, une commune qui n’a besoin que d’une mission ponctuelle, qui sait qu’elle pourra facilement trouver une personne sur le marché du travail qui dispose des qualifications nécessaires et qui ne peut que mal contrôler le travail du cantonnier : elle a alors tout intérêt à faire appel à une entreprise privée qui se chargera des espaces verts plutôt que d’embaucher un fonctionnaire payé même en l’absence de travail, qui pourra avoir une productivité faible, n’ayant aucun risque de perdre son emploi quelle que soit la qualité de son travail (aléa moral). Cela implique cependant de bien rédiger les contrats (coûts juridiques) car l’entreprise privée ne fera pas ce qui n’est pas prévu dans le contrat. C’était l’exemple que prenait Delaigue avec l’entreprise qui estime qu’il n’est pas dans son contrat de chasser les guêpes du conteneur à verres.

Conclusion

Les 57% de dépenses publiques se répartissent grosso-modo entre 35% de redistribution (c’est donc en réalité de la dépense privée qui *transite* par les pouvoirs publics) et 22% de service publics. On peut toujours améliorer la redistribution, mais on voit mal ce qui permettrait de diminuer beaucoup ce poste. Un exemple classique est le cas des retraites. La France a un régime de retraites par répartition public donc les retraites sont intégrées dans les 57% de « dépenses publiques ». C’est quasiment un tiers du budget de la Sécurité sociale, environ 220 milliards. Si on voulait « économiser » sur ce point, ce serait forcément en baissant les pensions, au profit de régimes privées, qui n’ont nullement fait la preuve de leur efficacité, bien au contraire dans le cas des États-Unis.

Reste les 22% de services publics. On peut toujours trouver des secteurs où le privé ferait mieux et moins cher. La concurrence a fait la preuve de son efficacité dans nombre de domaines, mais loin s’en faut que ce soit dans tous. Personne ne souhaite aujourd’hui revenir au temps du monopole public de France Télecom et autres PTT quand on voit le bien que la stratégie agressive de Free a fait sur la facture moyenne de téléphonie et sur l’innovation dans le secteur. Les arguments montrent également qu’une mise en concurrence des trains via un système d’appel d’offres (enchères) produirait un service plus efficace pour le même prix. En revanche, dans le cas de la santé, le système française se révèle plus efficace que le système américain tout en étant moins cher. C’est quasiment du cas par cas et c’est complexe. Loin d’une approche idéologique à base de « il faut baisser les dépenses publiques parce qu’il le faut ».

De quoi le salaire est-il le signe ?

Un nouveau travail dans la catégorie “agrégation”.

L’étymologie du mot « salaire » renvoie au sel, qui fut pendant longtemps une denrée rare et précieuse car c’était le seul moyen de conserver les aliments. Celui qui reçoit une solde (le soldat) perçoit du sel (un salaire). Dans le sens moderne, le salaire désigne la rémunération que reçoit un salarié en échange de son travail. Cette rémunération se fait aujourd’hui sous forme de monnaie fiduciaire et non plus en échange de denrée.

Lire la suite

Les transformations de la microéconomie après 1945

Introduction

On peut retracer les fondations de la microéconomie aux travaux des marginalistes (Menger, Jevons et Walras) à la fin du XIXème siècle. Ce sont les jalons fondateurs du néoclassicisme qui sera synthétisé par Alfred Marshall au début du XXème siècle. Les néoclassiques se distinguent en effet des classiques sur plusieurs points : théorie de la valeur subjective fondée sur la loi de l’offre et de la demande, recherche de l’équilibre général sur les marchés (ce qui déplace le fondement de l’étude de l’origine de la valeur à la formation des prix), hypothèse de concurrence parfaite, et enfin raisonnement microéconomique qui procède le plus souvent de l’agent rationnel au comportement maximisateur. Lire la suite

Une histoire de la pensée économique depuis 1945 : l’économie contemporaine (6/6)

index

6. La science économique contemporaine

Il est difficile de résumer rapidement l’état d’une science aussi diverse, au niveau international, que l’économie. Je vais donc devoir être beaucoup plus long, même si cela restera au final succinct par rapport à tout ce que l’on pourrait développer. Quelles sont les grandes lignes qui structurent cette discipline depuis les controverses issues du keynésianisme ? On analysera d’abord les évolutions sur la méthodologie des économistes, puis les questions de fond.

Lire la suite

Une histoire de la pensée économique depuis 1945 : l’école néoclassique (5/6)

milton-friedman-pic

5. Les nouveaux classiques, la crise du keynésianisme

Les « nouveaux classiques » ou encore la « nouvelle macroéconomie classique » regroupe un ensemble d’auteurs qui ont pour point commun de remettre sévèrement en question, à partir des années 1970, la doctrine keynésienne. Durant tout le début des Trente Glorieuses, en effet, le keynésianisme était dominant et les recettes de Keynes semblaient fonctionner pleinement : taux de chômage inférieur à 4% dans la plupart des pays développés, croissance supérieure à 5%, forte progression des salaires et du pouvoir d’achat, moyennisation de la société, etc.

Lire la suite

Une histoire de la pensée économique depuis 1945 : l’école autrichienne (4/6)

Friedrich Hayek 576x720

4. L’école autrichienne, l’apologie du libéralisme

Cette école a une place marginale en science économique, du fait de sa combinaison originale de libéralisme radical et d’hétérodoxie. Son nom provient du fait que ses fondateurs étaient de nationalité autrichienne : il s’agit de E. von Böhm-Bawerk, de L. von Mises et surtout de F. Hayek (J.A Schumpeter peut être considéré comme un autrichien hétérodoxe). Les principales caractéristiques de cette école sont les suivantes.

Lire la suite

Une histoire de la pensée économique depuis 1945 : le postkeynésianisme (3/6)

robinson3.jpg

3. Le postkeynésianisme, le rejet du « Keynes-orthodoxe »

A. A la lisière entre Keynes et Marx

Les postkeynésiens sont des économistes qui ont refusé l’article de J. Hicks de 1937, considérant qu’il s’agissait d’une interprétation classique de la pensée de Keynes, contraire aux intuitions centrales du maître de Cambridge. Les postkeynésiens entendent insister sur le caractère radicalement anticlassique de la pensée de Keynes et rejettent les aspects les plus « classico-compatibles » du keynésianisme. Ils insistent sur l’économie comme circuit plutôt que comme équilibre (en particulier Kalecki), sur les prix rigides à court terme, sur le rôle de l’investissement, sur la dimension macroéconomique dans un contexte d’incertitude radicale et sur l’information imparfaite. Enfin, ils insistent sur le rôle effectif de la monnaie à court terme et à long terme, alors que les néoclassiques défendent la théorie de la neutralité de la monnaie, donc l’inefficacité des politiques publiques.

Les principaux représentants de ce courant sont N. Kaldor, M. Kalecki, J. Robinson (en photo) ou encore P. Sraffa. Comme on peut l’imaginer des hétérodoxes aussi radicaux n’avaient aucune chance d’obtenir le Prix Nobel.

Lire la suite

Une histoire de la pensée depuis 1945 : le néokeynésianisme (2/6)

20100409114929-1_0

2. Le néokeynésianisme, l’intégration de Keynes dans la théorie classique

Ce courant prend sa source dans l’article de John Hicks, M. Keynes and the Classics : a suggested interpretation, (1937) qui, à peine un an après la parution de la Théorie Générale, entend formaliser mathématiquement les principales idées de Keynes. Les principaux représentants de ce courant sont J. Hicks, R. Solow, R. Mundell et surtout P. Samuelson : ils obtiendront tous le Prix Nobel. L’objectif théorique de ce courant est d’intégrer Keynes à la théorie classique en faisant de Keynes un cas particulier du modèle classique. Alors que Keynes semble de prime abord opposé aux classiques, ce courant cherche au contraire à montrer qu’il est possible de les réconcilier. On a parfois appelé ce courant « école de la synthèse ». C’est le courant majeur de la seconde moitié du XXème siècle. Ses principales caractéristiques sont les suivantes.

Lire la suite

Douze mois de macronisme

800x-1

Emmanuel Macron a emporté la présidence il y a un an. Difficile de faire un bilan exhaustif d’un gouvernement qui se caractérise par sa frénésie de réformes, qui s’enchainent à un rythme soutenu. On peut cependant tenter de brosser quelques traits, sur la forme et sur le fond. Je me concentrerai sur le style de Macron, et sur les réformes économiques. Lire la suite