Que faire de la dette Covid (2/2) ?

Economics 101 : politique budgétaire et monétaire

Depuis la crise des subprimes en 2008, la macroéconomie a connu un certain nombre de bouleversements. Traditionnellement, les économistes distinguent la politique budgétaire et la politique monétaire : la politique budgétaire est menée par les Etats avec le vote parlementaire du budget, et a pour outil le couple dépenses publiques/recettes publiques, et pour objectifs la croissance, l’emploi et la répartition des richesses ; la politique monétaire est menée par une Banque centrale, traditionnellement indépendante des Etats (surtout dans la zone euro) et a pour outils la fixation d’un ensemble de taux dont le principal, le taux directeur, représente le taux auquel la Banque prête aux banques commerciales. Toutes les banques commerciales ont un compte à la Banque centrale : schématiquement, quand la Banque centrale veut rendre le crédit plus cher (pour ralentir l’inflation) elle augmente son taux directeur, ce qui, par effet d’entraînement, augmente le coût du crédit bancaire dans toute l’économie ;  et quand elle veut rendre le crédit moins cher (pour relancer la croissance et abaisser le chômage) elle diminue son taux directeur.

Regarder l’évolution des taux directeurs sur longue période, c’est regarder les cycles économiques :  en période de forte croissance, les taux ont tendance à monter pour freiner la surchauffe, et inversement en période de crise. On remarquera que la Banque centrale européenne a tendance à suivre (avec retard) les taux de la FED (Banque centrale américaine), suivant la conjoncture économique mondiale. Une divergence apparaît à partir de 2015 : alors que l’économie américaine est déjà sortie de la crise des subprimes depuis un moment, le chômage atteignant un point bas historique, l’économie européenne subit les contrecoups de la crise grecque de 2010-2011 et de la crise des dettes souveraines qui a suivi : de là, une divergence de stratégie qui s’atténue en 2020 à la faveur de la crise sanitaire mondiale (le graphique ne le montre pas, mais le taux principal de la FED est actuellement à 0,25%).
European Central Bank Interest Rate Cut

Notons que les Banques centrales, comme les Etats, ne disposent pas d’un bouton magique pour freiner l’inflation ou diminuer le chômage, mais d’un ensemble de mécanismes incitatifs, plus ou moins efficaces. Le débat sur les conditions dans lesquelles les politiques budgétaires et monétaires sont efficaces, leur coordination, leurs limites, est aussi vieux que l’économie (disons au moins depuis Keynes, dans les années 1930) et il n’est pas question de le détailler ici. On rappellera simplement qu’il est plus aisé de réduire l’inflation que de l’augmenter. Dans les années 1980, les fortes hausses de taux de la FED (plus de 20% au pic de cette période, en 1981) se sont révélées efficaces pour ralentir l’inflation, comme l’illustre le graphique ci-dessous :

Federal Reserve will be judged by future on these years of low rates | R  Street

Par contre, un taux directeur à 0%, comme c’est le cas en Europe depuis mars 2016 (quatre ans !) n’a pas été très efficace pour faire diminuer le chômage et relancer l’inflation : l’objectif-cible de la BCE (2% d’inflation annuel) n’a été atteint que brièvement fin 2018, et jamais sur la période 2013-2017. Regarder les projections d’inflation de la BCE (courbes en vert) et la réalité (courbe rouge) sur la période 2011-2015 permet de mesurer la difficulté de prévoir et relancer l’inflation.

La politique monétaire depuis 2009

Je parlais tout à l’heure de bouleversements. Depuis 2009, cette présentation de la politique monétaire basée sur un ajustement du taux directeur semble un peu désuète. Face à la forte récession de 2009 et en Europe à la crise des dettes souveraines qui a suivi, la FED et la BCE ont utilisés de nouveaux outils, jusque-là qualifiés de “non conventionnels” et qui  sont en quelques années devenus le standard des politiques monétaires : le Quantitative Easing (QE) ou “détente quantitative”.

Vous trouverez un résumé détaillé de la mise en œuvre des politiques de QE dans cette note de l’OFCE (novembre 2020). Les politiques de QE prennent racine dans un contexte où les taux directeurs sont déjà à zéro (zero lower-bound rate ou ZLB) et où, malgré cela, l’inflation et la croissance ne repartent pas. Elles visent à soutenir l’économie en injectant rapidement de grandes quantités de liquidités dans le système monétaire : pour ce faire, les Banques centrales rachètent aux banques commerciales des titres de la dette publique (bons du Trésor).

Ces politiques ont de nombreux effets, que j’essaie de classer par ordre d’immédiateté : premièrement, augmenter le bilan des Banques centrales qui détiennent de plus en plus de dette publique ; deuxièmement, augmenter les liquidités dans l’économie ; troisièmement, abaisser les taux longs, c’est-à-dire les taux auxquels les Etats empruntent sur les marchés financiers (voir article précédent), car le QE revient à un financement indirect des Etats (notamment, les gouvernements étant actionnaires de la Banque centrale, elle leur reverse les intérêts sur les titres de la dette qu’elle détient) ; quatrièmement, réduire le risque de défaut souverain puisqu’une plus grande partie de la dette publique est possédée par une institution au pouvoir monétaire illimité et qui ne peut en aucun cas faire défaut ; cinquièmement, un effet attendu est une relance de l’inflation et une baisse du chômage, mais cet effet est loin d’être clair à ce stade.

Sans rentrer dans tous les détails techniques (que vous trouverez dans la note citée de l’OFCE), on peut dire que depuis 2009 la politique monétaire est largement basée sur le QE, et que depuis la crise sanitaire, les politiques de QE ont été amplifiées, principalement en élargissant toujours plus la gamme des actifs achetés (au départ, uniquement des titres de la dette publique, puis des titres financiers, etc.), en rendant la politique plus massive dans les montants investis, et plus durable : lorsque le titre de la dette arrive à échéance, la Banque en rachète un nouveau. Cela a conduit la BCE a posséder actuellement plus de 25% de la dette publique de la zone euro, dont 30% pour l’Allemagne, un peu plus de 20% pour la France, tandis que la FED détient 20% de la dette américaine et la Bank of Japan, record mondial, 40% de la dette nationale.

image

Des politiques de QE à la monétisation de la dette Covid

On l’a dit précédemment, la crise sanitaire a entraîné une forte augmentation de la dette publique, principalement pour financer les mesures de chômage partiel pendant les différents confinements. La question du poids de cette dette, des moyens de la traiter et des contraintes qu’elle peut faire peser sur la politique budgétaire des Etats a entraîné un vif débat entre économistes, dont la presse s’est faite récemment l’écho : voir par exemple “Le débat sur l’annulation des dettes publiques prend de l’ampleur en France”, Les Echos (22 décembre 2020) ou “Annulation de la dette : le ton monte entre économistesLe Monde (24 décembre). Le débat est même sorti de la sphère des économistes pour entrer dans la sphère politique (voir cette sortie de Mélenchon sur BFM-TV, largement relayée).

Pour comprendre, il faut d’abord rappeler que le terme “monétisation” a de nombreuses significations (on entend aussi parfois “monnaie-hélicoptère”, du nom d’une expression de Milton Friedman dans les années 1980, mais qui était à la base plus une métaphore voire une boutade qu’une proposition réelle). Le schéma ci-dessous permet de classer les différentes possibilités en fonction de deux critères : 1° est-ce que la Banque centrale finance directement les Etats ou passe-t-elle par des intermédiaires, typiquement des banques commerciales ? (direct/indirect) 2° est-ce que la dette créée est remboursable ou non ?

image

Source : Rose Portier pour Partageons l’Eco

Le QE correspond alors à un financement à la fois indirect et remboursable (en haut à gauche), tandis qu’une politique de monétisation des dépenses publiques au sens strict correspondrait à un financement direct et non remboursable (en bas à droite).

En avril 2020, une note de l’économiste Jezabel Couppey-Soubeyran a relancé le débat, qui a pris ensuite un ton vif avec l’aggravation de la crise sanitaire et économique. La proposition de Couppey-Soubeyran, et de quelques économistes avec elle (Gaël Giraud, par exemple, ou encore Nicolas Dufresne), étant tout bonnement de procéder à l’annulation des dettes publiques détenues par la Banque centrale. Du point de vue du schéma ci-dessus, l’annulation est proche du mécanisme présenté en haut à droite : indirect, mais non remboursable. L’annulation n’est pas exactement la même chose qu’une monétisation au sens strict car il ne s’agit pas d’un prêt direct mais d’une annulation comptable d’une dette passée : le mécanisme reste indirect, c’est-à-dire basé sur des titres achetés aux banques. Cependant, l’annulation s’approche de la monétisation par de nombreux aspects, puisque cela revient à rendre non remboursable la dette publique (notamment Covid) possédée par la BCE.

Couppey-Soubeyran prend acte de l’échec des politiques de QE à diminuer le chômage et relancer l’inflation, et estime que cette annulation aurait plusieurs avantages : premièrement et comptablement, elle créé un déficit pour la Banque centrale puisque les titres qu’elle a acheté ne vaudraient plus rien (n’étant pas remboursés), mais selon Couppey-Soubeyran, ce n’est pas un problème car la Banque centrale dispose d’un pouvoir monétaire illimité et peut donc parfaitement fonctionner avec des fonds propres négatifs, contrairement à une banque commerciale ; deuxièmement, elle libèrerait les gouvernements de la nécessité de rembourser la dette Covid, donc de la contrainte budgétaire que fait peser à l’avenir le poids de la dette publique (avec des réformes futures du type réforme des retraites pour payer la dette), permettant au contraire d’investir beaucoup plus, par exemple dans les énergies renouvelables. Une telle politique aurait selon ses promoteurs des effets d’entraînement (multiplicateur budgétaire) sur l’économie et la croissance beaucoup plus forts que le QE, et permettrait de stériliser totalement les politiques de QE depuis 2009, en rayant d’un trait de plume les obligations de remboursement nées de la hausse des dettes de cette période.

En allant plus loin, Couppey-Soubeyran propose également une véritable “monnaie hélicoptère” c’est-à-dire un “QE pour les citoyens”, revenant rien de moins qu’à réaliser un transfert direct de 200€ par mois (pendant un an) pour tous les citoyens, et 10 000€ en une fois pour les entreprises, avec de la monnaie nouvellement créée par la BCE. On serait alors dans le cadre d’une monétisation directe des dépenses (privées !).

Conclusion : le débat autour de l’annulation de la dette Covid.

Dans un article récent pour le site The Conversation, Couppey-Soubeyran a renouvelé ses positions sur l’intérêt d’une annulation :

The Conversation : Que se passerait-il si la BCE annulait la dette publique qu’elle détient ? Quels pourraient être les effets sur l’économie réelle ? (…) cela écarterait deux risques. D’abord, celui d’un retour à l’austérité orchestrée par ceux-là mêmes qui clament aujourd’hui que la hausse cumulée de la dette publique n’est pas un problème, alors qu’hier ils disaient exactement le contraire et prônaient le respect de règles budgétaires, ce qui a bridé la politique budgétaire et totalement déséquilibré la politique économique de la zone euro. Ensuite, cela couperait cours à la crainte que pourraient avoir les contribuables, d’impôts nouveaux ou augmentés pour rembourser la dette. Autrement dit, une annulation de dette supprimerait les deux tensions qui risquent de prolonger la dépression économique et d’approfondir la déflation. Autant dire que l’économie réelle se porterait mieux libérée de ces tensions.

…en insistant sur le caractère politique d’une telle mesure qui répond aussi aux limites du QE :

Quoi qu’il en soit, cela signifie que la dépense publique est avant tout une décision politique. Il n’y a pas besoin d’argent préalable. La dépense engendre un besoin de financement à satisfaire. L’endettement sur le marché est l’instrument de financement privilégié aujourd’hui. La banque centrale le sécurise comme je l’ai indiqué avec ses rachats d’actifs. Mais ça va l’obliger à prolonger très longtemps ses rachats, sans bénéfice assuré pour l’économie, car leurs effets sont faibles et assez mal distribués entre les plus riches et les plus modestes, entre grandes et petites entreprises, et au détriment très vraisemblablement aussi de la stabilité financière.

Un certain nombre d’économistes, de tendance très diverses, se sont montrés hostiles à cette idée (soit de l’annulation, soit de la monétisation, soit les deux). Leurs arguments peuvent être classés, du plus conciliant au plus dur, en trois catégories : inutile, impossible, dangereux.

“L’annulation des dettes est inutile”

Derrière cet argument, il y a d’abord l’idée centrale que la politique monétaire est secondaire par rapport à la politique budgétaire sur le plan de l’efficacité macroéconomique dans la relance de la croissance et la lutte contre le chômage : la vraie priorité serait de réformer la fiscalité (par exemple, taxer davantage l’épargne accumulée pendant le confinement) et/ou augmenter les dépenses publiques et/ou mener une politique de relance de la demande, plutôt que de discuter de mécanismes d’annulation, qui n’auraient aucun effet macroéconomique. De manière générale, l’argument est que “la dette n’est pas un problème” (j’ai donné des arguments en faveur cette idée dans la partie 1 de cet article) et donc que l’annulation est un faux débat.

Le QE a fait en sorte que le financement des Etats ne soit pas un problème puisque ces derniers empruntent à taux négatif : la vraie priorité serait alors de se demander que faire de tout cet argent plutôt que de discuter du financement en lui-même. En d’autres termes, l’utilisation de la dépense publique est plus importante que l’origine du financement, et le débat sur l’annulation occulte le fait qu’en termes de financement des déficits publics, le QE a largement atteint les objectifs initiaux.

De manière plus technique, cet argument évoque le fait que l’annulation est un mécanisme purement comptable qui n’a aucune effet macroéconomique réel. C’est notamment l’argument d’Henri Sterdyniak, économiste de gauche pour qui l’annulation des dettes n’aurait aucun effet puisqu’il s’agit d’une opération purement comptable et interne au secteur public, ne modifiant en rien les droits du secteur privé sur la production future. Le raisonnement est le suivant : l’Etat et la Banque de France (organe qui dépend de la BCE) sont fondamentalement la même chose du point de vue des comptes publics : annuler la dette nationale détenue par la BCE ne change rien vis-à-vis des créanciers privés puisque ce sont les Etats qui sont actionnaires de la BCE. Si l’Etat doit 150 milliards dont 50 à la BCE, après l’annulation il doit toujours 100 aux créanciers privés mais la perte des 50 est encaissé par la BCE. On réduit donc le montant “affiché” de la dette publique  et c’est la BCE encaisse la perte, mais cette perte est répercutée sur les intérêts versés à ses actionnaires qui sont les Etats, donc il n’y a aucun effet sur les comptes publics. L’effet peut même être négatif si les Etats doivent ensuite recapitaliser la BCE, car rien ne dit qu’une Banque centrale peut indéfiniment fonctionner sur fonds propres négatifs, cette situation n’ayant aucun précédent historique.

On peut (…) penser qu’en réduisant une part des obligations de remboursement, le montant économisé pourra être alloué à d’autres dépenses ou qu’il sera plus facile de rembourser le reste des charges d’intérêts. Cependant, le gain lié aux moindres paiements d’intérêts dus à l’annulation de dette est en fait compensé par la perte de revenus d’intérêts que la banque centrale reverse au gouvernement. En effet, bien qu’indépendantes, les banques centrales sont le plus souvent des institutions publiques dont les profits sont reversés au gouvernement. En annulant la dette détenue par la banque centrale, celle-ci perçoit et donc distribue moins de revenus. Les comptes publics ne sont donc pas affectés. C. Blot et P. Hubert, OFCE

“L’annulation des dettes est impossible”

Cet argument est surtout juridique et politique : il oppose à l’idée d’annulation des dettes (et plus encore de “monnaie hélicoptère”, c’est-à-dire de monétisation directe) les Traités européens qui l’interdisent.  Pragmatiquement, c’est impossible parce que c’est interdit : article 123 du Traité sur le fonctionnement de l’Union Européenne qui interdit explicitement le financement direct des Etats membres par la BCE. On peut toujours rétorquer qu’il suffit de “changer les Traités” mais c’est bien plus facile à dire qu’à faire, et il s’agit de convaincre plusieurs membres majeurs de la zone euro, Allemagne en tête, qui y est farouchement hostile.

Dans un tweet assez sec et s’exprimant au nom et sur le compte officiel de la BCE, Isabelle Schnabel, membre du comité exécutif de la BCE, a clairement écarté l’hypothèse :

image

Il ne s’agit pas d’une simple hostilité technique, mais aussi largement politique. Mettre en œuvre une telle mesure va tellement à l’encontre de la façon dont la BCE a été construite qu’il n’est pas exagéré d’imaginer que cela entraînerait l’éclatement de la zone euro. En effet, la BCE n’a pas mandat pour gérer la politique budgétaire des Etats membres : la politique de monétisation revient à donner un pouvoir politique exorbitant à la BCE en matière de financement des Etats, ce qui conduit de facto à faire assumer une partie de la politique budgétaire par une institution non élue, et à donner comme mandat à la BCE de financer les Etats membres. Même en arguant qu’il reviendrait toujours aux gouvernements de dire “que faire” de l’argent ainsi obtenu, il n’en demeure pas moins qu’une monétisation reviendrait à faire dépendre la politique budgétaire des décisions de la BCE.

Ainsi, cela pose un problème de légitimité politique. En substance, “c’est aux gouvernements élus de prendre des décisions budgétaires, par aux banquiers centraux qui sont des technocrates”. Noter que vous pouvez tenir ce discours aussi bien un étant un farouche souverainiste qu’un distingué économiste de la BCE attaché au respect du mandat juridique de celle-ci. Ce problème existerait déjà aux Etats-Unis mais se pose avec beaucoup plus d’acuité dans la zone euro, où il y a une seule politique monétaire, mais dix-neuf politiques budgétaires. Derrière le débat technique, un débat plus politique sur l’indépendance de la BCE et l’autonomie de la politique monétaire vis-à-vis de la politique budgétaire dans une zone avec une monnaie commune.

“L’annulation des dettes est dangereuse”

La dernière ligne du débat se centre sur les effets d’une annulation des dettes ou de la monnaie-hélicoptère sur l’inflation.  Pour certains économistes, un mécanisme d’annulation ou de “monnaie hélicoptère” risquerait à terme de générer une inflation incontrôlée dans la zone euro, ruinant le mandat principal de la BCE qui est la stabilité des prix.

Derrière cette affirmation, un débat assez technique sur les causes de l’inflation, la raison pour laquelle les politiques de QE n’ont pas produit l’inflation espérée et le niveau idéal d’inflation pour une économie en croissance. Si le niveau d’inflation à atteindre dans une économie en croissance fait globalement consensus (entre 2 et 4% par an), le risque d’une reprise incontrôlée de l’inflation dans les années à venir fait débat : Couppey-Soubeyran soutient que l’annulation ne créera par d’inflation car la monnaie créé reste au bilan de la BCE, tout en affirmant que craindre l’inflation est un réflexe du passé et que si l’inflation augmente, c’est une bonne chose (ce qui est un peu contradictoire) :

TC : Une annulation de la dette pourrait-elle engendrer un scénario « à l’argentine », avec une inflation incontrôlable, c’est-à-dire une perte du pouvoir d’achat de la monnaie qui se traduit par une augmentation générale et durable des prix, telle que celle qu’avait connue le pays au début des années 1990 ? Une annulation de dette ne fait pas en soi augmenter l’inflation. Car ce n’est pas une création de monnaie, mais une « non destruction » de monnaie. La nuance est importante : elle signifie qu’une annulation de dette peut faire diminuer la déflation (un remboursement de dette a un effet déflationniste, donc une annulation viendrait contrer cet effet) mais pas augmenter l’inflation. Même en supposant que l’annulation de dette à l’actif de la BCE s’accompagne d’une recapitalisation de l’institution (dont j’ai précisé plus haut qu’elle ne serait pas indispensable), étant donné que celle-ci serait obtenue par une émission de monnaie centrale de la BCE transmise aux banques centrales nationales afin qu’elles augmentent leurs parts de capital respectives, il n’y aurait aucune raison que cela vienne augmenter l’inflation, puisque la monnaie centrale créée resterait au bilan de la BCE.

J’ajoute, du reste, que la crainte de voir augmenter l’inflation ne fait que traduire les réflexes du monde passé. Le problème aujourd’hui n’est plus l’inflation mais la déflation. C’est pour cela d’ailleurs que la prise en charge des dépenses Covid par la BCE au moyen d’un transfert sans contrepartie aurait davantage d’impact, en augmentant possiblement l’inflation. Mais… c’est interdit par le Traité de fonctionnement de l’UE (TFUE) !

Pour Sterdyniak (voir post de blog déjà cité), il faut relancer l’inflation car le risque actuel est surtout la déflation, mais il faut le faire via une politique budgétaire et non monétaire, l’annulation étant inutile et sans effet.

Enfin, pour Christophe Blot et Paul Hubert, économistes de l’OFCE dont j’ai partagé la note (rappel du lien), le QE n’a pas créé d’inflation car les liquidités créées par la BCE restent au sein du système bancaire sous forme de réserves excédentaires et ne sont pas disponibles pour les agents non-financiers (les ménages et les entreprises), elles n’ont donc pas d’effet d’entraînement direct sur le marché des biens et services :

À cet égard, notons que ces mesures [de QE] n’ont pas permis d’atteindre la cible, ce qui ne signifie pas qu’elles n’ont eu aucune incidence mais soit qu’elles ont été insuffisantes, soit que les effets du QE ont été contrecarrés par des facteurs conjoncturels (politiques budgétaires restrictives par exemple) ou structurels (stagnation séculaire, mondialisation, désindexation des salaires…).

Puis, citant l’exemple du Japon :

À nouveau, on peut constater que les politiques mises en œuvre par la Banque du Japon se sont traduites par une forte croissance de la base monétaire (graphique 6) et une proportion élevée de dette publique détenue par la banque centrale. Mais cette politique d’assouplissement quantitatif ne s’est reflétée ni dans la croissance de la masse monétaire ni dans l’inflation.

Pour Blot et Hubert, en devenant, à la faveur de la crise sanitaire, à la fois plus massives et plus permanentes (ce qui devait être temporaire dure depuis dix ans), les politiques de QE sont l’équivalent d’une forme “faible” de monétisation :

Dit autrement, d’un point de vue plus strict, la monétisation devrait donc remplir quatre critères : réduire la charge d’intérêt sur la dette, avoir un caractère permanent ou durable, se traduire par l’augmentation de la masse monétaire et refléter un changement d’objectif ou de cible d’inflation et. À cet égard, le QE ne remplit pas tous les critères puisqu’il se traduit par une augmentation des réserves et pas de la masse monétaire et reste pour l’instant justifié par les banques centrales par une inflation inférieure à sa cible. Il pourrait plutôt être considéré comme une forme « faible » de monétisation dans la mesure où ces opérations prennent un caractère durable et influencent fortement les conditions de financement de la dette. Un point clé reste néanmoins de voir quelle serait l’attitude des banques centrales si l’inflation dépassait la cible, généralement fixée à 2 %. Il est difficile d’imaginer que les banques centrales puissent être crédibles en annonçant qu’elles détiendront de façon permanente un certain niveau de titres souverains.

Pour eux, une politique de monétisation directe serait plus efficace d’un point de vue macroéconomique mais présenterait aussi des risques inflationnistes plus importants :

Le soutien direct par la monétisation « explicite » de la dette publique a l’avantage d’être plus direct et donc plus efficace. Il dépend du multiplicateur budgétaire sachant qu’il serait ici à son niveau le plus élevé puisqu’il n’y a pas d’effet d’éviction ni de risque d’augmentation du risque souverain. Le PIB nominal augmenterait et la question principale serait essentiellement de savoir quelle serait la répartition entre l’effet volume et l’effet prix. Le risque principal serait donc celui de l’inflation.

D’ailleurs, les craintes inflationnistes sont bien présentes au sein des institutions monétaires, notamment en Allemagne; au regard de l’histoire économique de ce pays :

L’histoire monétaire suggère d’ailleurs que les périodes d’hyperinflation sont associées à la perte de contrôle des finances publiques et à un accroissement important de la masse monétaire qui se traduit par une perte de confiance dans la monnaie domestique et donc à son rejet. La valeur nominale des encaisses monétaires étant fixe, c’est leur valeur réelle qui s’effondre avec l’hyperinflation. Le remède s’avèrerait in fine pire que le mal et conduirait inévitablement au manque de discipline budgétaire et à l’inflation.

Plus généralement, Thomas Piketty a bien souligné que les politiques de QE ne dureront pas éternellement, car elles présentent des risques financiers et inégalitaires :

L’orgie de création monétaire et d’achat de titres financiers conduit en effet à doper les cours boursiers et immobiliers, ce qui contribue à enrichir les plus riches. Pour les petits épargnants, les taux d’intérêts nuls ou négatifs ne sont pas forcément une bonne nouvelle. 

Ainsi, lorsque les conditions structurelles seront meilleures :

 Dès lors que l’inflation redeviendrait substantielle (mettons 3%-4% par an), il faudrait lever le pied sur la création monétaire et en venir à l’arme fiscale. Toute l’histoire des dettes publiques le montre : la monnaie seule ne peut offrir de solution apaisée à un problème de cette ampleur, car elle entraîne d’une façon ou d’une autre des conséquences distributives incontrôlées. C’est en ayant recours à des prélèvements exceptionnels sur les plus aisés que l’on a éteint les grandes dettes publiques de l’après-guerre, et que l’on a rebâti le pacte social et productif des décennies suivantes. Gageons qu’il en ira de même à l’avenir.

Que faire de la dette COVID ? (1/2)

https://www.challenges.fr/assets/afp/2019/12/20/b1733c449b37219015eda3778fa67e37632620e8.jpg

La dette publique, éternel sujet maltraité

De tous les sujets économiques maltraités dans le débat médiatique (et il y en a beaucoup), la dette publique est sans doute le pire. On en finirait pas d’établir la liste des approximations, des erreurs voire des mensonges régulièrement proférés par une variété de politiques, journalistes, pseudo-experts et vaguement économistes dans tous les médias et sur tous les tons sur ce thème.

C’était déjà vrai avant la crise sanitaire. Depuis, la dette publique française a atteint près de 120% du PIB (une grande partie étant lié aux mesures de soutien à l’économie durant le premier confinement, et notamment aux mesures de chômage partiel, on peut donc parler de “dette COVID”) et la litanie des bêtises a repris du service.

A vrai dire, même si ce n’est guère original (mais je n’essaie généralement pas d’être original sur ce blog !), on peut essayer de jouer au jeu des sept erreurs en guise d’introduction. Voici donc six arguments sur la dette publique qui contredisent les clichés médiatiques (nous répondrons à la question proprement dite dans la seconde partie) :

1. La dette publique est moins importante que la dette privée

La focalisation médiatique excessive sur la dette publique masque le fait que la dette privée (celle contractée par les ménages, les entreprises et surtout les banques) est tout aussi importante voire plus importante sur le plan de la stabilité macroéconomique. A ce jour, la pire crise économique d’après-guerre, celle de 2009, a été provoquée par une accumulation de dette privée. Celle de 1929 l’était aussi. La crise européenne de 2010-2011 s’est focalisée sur le cas grec, un problème de dette publique via des trucages comptables, en oubliant le cas espagnol, une accumulation de dette immobilière via des crédits risqués. A trop se focaliser sur la dette publique, les politiques publiques sont conduites sur de mauvaises voies en sous-estimant l’instabilité financière inhérente aux dettes privées, sur la base d’une croyance telle que “le système privé est spontanément stable”. Dans La crise de l’euro et comment nous en sortir (2011), l’économiste Jean Pisani-Ferry a très bien montré que ce genre de croyance a conduit les dirigeants européens dans le mur à cette époque : en se focalisant sur les ratios de Maastricht (qui n’ont pas le moindre sens économique, ce sont des critères politiques), ils ont pu laisser passer sous le radar des niveaux très élevés de dette privée qui, aggravés par la crise des subprimes et finalement par le défaut grec, ont failli mettre un terme à la monnaie unique.

2. L’Etat n’est ni un ménage ni une entreprise

La comparaison récurrente de l’Etat comme un “bon père de famille” avec des formules du type “il ne faut pas vivre au-dessus de ses moyens” est absurde. Il est tragique que ce genre de propos soient repris par des ministres de l’économie, des présidents de la Banque de France ou des présidents de la commission sur l’avenir des finances publiques (sic), mais cela illustre l’inculture économique des élites. En exemple canonique on peut certainement citer Bruno Le Maire, un ministre de l’économie… qui n’a pas la moindre formation en économie (je n’ai rien contre les agrégés de lettres, mais peut-on sérieusement être ministre de l’économie de la cinquième puissance mondiale sans formation en économie ?).

Pourquoi la comparaison Etat/ménage ou Etat/entreprise est-elle absurde ?  La dette publique ne peut être comparée à la dette d’une entreprise et ce pour au moins trois raisons :

  • Premièrement l’Etat a un horizon temporel infini, il ne peut donc jamais faire faillite (il peut faire défaut, ce qui est très différent). Un Etat n’est pas une entreprise, il n’est pas placé dans un marché concurrentiel où il faut survivre ou disparaître : sa vocation n’est pas d’être rentable.
  • De plus, l’Etat dispose d’un monopole fiscal qui lui permet non seulement d’anticiper ses revenus futurs, mais aussi de les ajuster si besoin : alors qu’une entreprise est contrainte de trouver de nouveaux clients (et donc d’en prendre à ses concurrents) si elle veut augmenter ses ventes, un Etat peut augmenter la fiscalité.
  • Enfin et peut être surtout, les dépenses de l’Etat contribuent à son revenu, via des effets macroéconomiques budgétaires (politiques de relance typiquement). Quand un ménage dépense 100, c’est 100 en moins sur le budget mensuel ; quand l’Etat dépense 100, les effets macroéconomiques générés permettent de récupérer une partie de la somme sous forme de taxe additionnelle, en fonction de la valeur du multiplicateur keynésien. Alors qu’une entreprise en situation de concurrence subit son environnement économique, l’Etat contribue à le modifier en agissant sur le PIB qui détermine lui-même la capacité à payer les intérêts de la dette.

3. La dette publique ne se rembourse pas

Aucun Etat au monde ne rembourse jamais sa dette publique. En effet, du fait des caractéristiques précédentes et notamment de la durée de vie infinie, l’Etat se contente de payer les intérêts de sa dette, puis de la renouveler à l’échéance (généralement 10 ans), empruntant pour payer les emprunts précédents, et ainsi de suite, ce qu’on appelle “rouler sa dette”. Ce mécanisme est aussi vieux que de la dette elle-même : en 2012, Alexandre Delaigue rappelait le mécanisme de la “dette publique perpétuelle” : l’Etat s’endette auprès de ses propres citoyens, qui achètent des titres de dette publique et reçoivent en échange des intérêts réguliers, une rente qui se transmet de génération en génération. Dans ce cas de figure, la dette est de l’argent que nous nous devons à nous-mêmes.

C’est d’ailleurs la raison pour laquelle le chiffre le plus médiatisé (celui qui consiste à diviser le volume de la dette publique par le PIB) n’est pas pertinent : 120% du PIB, cela veut dire que si la France consacrait tout son PIB d’une année à rembourser la dette (donc sans consommer, sans épargner, sans investir…), il lui resterait 20% à rembourser. Mais ce scénario est totalement absurde, non seulement parce qu’un Etat ne rembourse jamais sa dette ainsi, mais aussi parce que comptablement, le PIB est un flux (un revenu annuel), alors que la dette est un stock. Il n’est pas forcément pertinent de comparer un flux à un stock.

Si on s’amusait à faire le même calcul pour un ménage lambda propriétaire de son logement, en rapportant sa dette brute à ses revenus, on trouverait que la plupart des Français sont endettés pour bien plus que 120% de leurs revenus annuels : personne ne crie au scandale.

4. Le mode de financement est moins important que la nature de la dépense

La focalisation sur la dette publique prend parfois des atours moraux avec ce vieux fond de christianisme culturel (s’endetter, c’est mal). Pour l’anecdote, en allemand, le mot “dette” et “faute” (erreur) sont le même mot : Schuld. Or les considérations morales sur l’endettement occultent complètement le fait que d’où provient l’argent public (endettement, épargne ou fiscalité) est un sujet moins important que ce à quoi il est utilisé.

Dans le chapitre sur la dette publique de leur premier ouvrage (lire ici), Delaigue et Ménia proposent un petit exercice de pensée qui permet de comprendre cela : une personne souhaite acheter 100€ de vêtements à crédit, dispose d’un patrimoine de 1000€ et les intérêts sont de 10%. Trois solutions sont possibles : achat au comptant, achat à crédit ou endettement indéfini. Quelle que soit la solution retenue, le résultat final est le même : le patrimoine sera inchangé à 990€ et la personne disposera de 100€ de vêtements.

Cet exercice de pensée est bien sûr simplifié par rapport à la réalité, mais permet de comprendre que des questions comme l’efficacité de la dépense publique, la qualité des services publics ou la performance de la redistribution sont plus importants que la dette publique. C’est ce genre de questions que j’avais essayé de résumer dans une courte note l’année dernière : Faut-il baisser les dépenses publiques ? ou plus récemment dans Etat social : le grand paradoxe.

Comment répartissons nous la charge fiscale ? que faisons-nous de la dépense publique ? est-elle juste, efficace, répond-elle aux besoins de la population ? voilà des questions bien plus importantes que est-il mal que la dette publique dépasse 100% du PIB. Pire, en voulant à tout prix réduire la dette publique dans le but de grapiller immédiatement quelques milliards sur le budget, un gouvernement peut se priver de bien davantage sur le long terme : c’est exactement ce qui s’est produit avec la privatisation des autoroutes en 2005 : l’Etat a créé un monopole privé et transféré une rente à des sociétés privées au lieu d’en profiter lui-même. On pourrait se poser des questions similaires pour la privatisation d’ADP (Aéroports de Paris), décidée en 2019 puis repoussée sine die avec la crise sanitaire.

Quand un Etat s’endette dans le temps, il ne lègue pas aux générations futures seulement des intérêts à payer : il lègue aussi les actifs qui vont avec la dette, et la qualité de ces actifs pour le prix que nous payons (la qualité de notre Sécurité sociale, de notre Education nationale, de notre système de santé) devrait nous interroger davantage que le financement ceux-ci. A strictement comparer, d’ailleurs, l’actif brut détenu par l’Etat est bien supérieur à sa dette publique, donc nous léguons aux générations futures un patrimoine net positif.

5. Les intérêts de la dette sont un problème secondaire, actuellement 

Bien sûr, un pays qui fait rouler sa dette doit tout de même payer des intérêts sur celle-ci.  En 2019, la charge d’intérêts de la dette publique, c’est-à-dire la dette consolidée de l’ensemble des administrations publiques, s’est élevée à 35 milliards d’euros environ, soit environ 10% du budget de l’Etat. A titre de comparaison, 35 milliards représente environ la moitié du budget de l’Education nationale (76 milliards), ou davantage que le budget sécurité (21 milliards si l’on additionne police, gendarmerie et sécurité civile).

Donc, les intérêts de la dette, c’est beaucoup ? En termes de volume, oui. Pourquoi alors est-ce très secondaire ? Pour plusieurs raisons. D’abord, il faut comparer des stocks à des stocks et des flux à des flux, donc le volume de la dette aux actifs qu’elle permet d’obtenir (actif/passif), ou le revenu des pouvoirs publics à la charge de la dette (produits/charges).

Or, de quoi dépend la capacité d’un Etat à payer la charge de sa dette ? C’est ce qu’on appelle la soutenabilité de la dette, que les économistes calculent grâce à une savante équation (je vous l’épargne mais voyez ici, par exemple) et qu’on peut résumer en disant qu’en plus du taux d’inflation et du taux de croissance, les taux d’intérêts jouent un rôle déterminant pour le poids de la charge de la dette. Plus les taux d’intérêts sont bas, plus la dette est facile à payer.

Or, l’environnement macroéconomique actuel est celui de taux très bas. Les coûts d’emprunts sont très bas depuis de nombreuses années et sont appelées à le rester, en raison d’un facteur structurel (il y a trop d’épargne, pas assez d’investissement, donc l’offre de capitaux est très supérieure à la demande) et d’un facteur conjoncturel : depuis 2009 les grandes banques centrales du monde, FED et BCE en tête, rachètent à tour de bras des titres de la dette publique, politique appelée le Quantitative Easing et qui a pour effet d’inonder le marché de liquidités et de permettre un financement des Etats à très bas coûts.

image

Dès lors, alors même que la France continuait de s’endetter, la charge de la dette, c’est-à-dire la part des intérêts à payer divisé par le PIB, ne cessait de diminuer, passant de 6% dans les années 1990 à moins de 2% aujourd’hui. La dette augmente, mais elle est de plus en plus facile à payer.

6. Le risque de défaut est faible

Dans cet extrait sur LCI, le professeur de finances Philippe Dessertine évoque le défaut napoléonien des 2/3 de la dette publique de 1797 et fait un parallèle avec la situation actuelle. Il est indéniable que le passé rengorge d’exemples de crises graves générées par un défaut sur la dette publique. Lorsqu’un pays ne peut plus payer sa dette, il fait défaut : ses capacités à emprunter sur les marchés financiers sont alors très réduites, et le financement des services publics repose entièrement sur les prélèvements obligatoires, ce qui a une limite. Si la dette n’est pas restructurée (c’est-à-dire pour partie annulée) et que le pays n’est pas aidée par un tiers extérieur (typiquement le FMI) les risques socioéconomiques sont énormes : arrêt du paiement des salaires des fonctionnaires, des investissements, etc. Les crises de la dette, c’était l’objet du livre Cette fois c’est différent (2009), des économistes de renommée mondiale C. Reinhart et K. Rogoff.

Cependant, comparaison n’est pas raison. En termes de dette, il y a de nombreuses différences entre un grand pays industrialisé membre de la zone euro et un petit pays isolé sur la scène internationale. Tout d’abord, un pays comme la France emprunte dans une grande monnaie (l’euro) : le prêteur a donc la garantie que la valeur de son titre de créance ne sera pas brutalement dévalué par une décision politique unilatérale (en cas de parité fixe) ou un mouvement sur les marchés de change (attaque spéculative par exemple). Ensuite, la France dispose de la garantie et de l’appui de l’une des plus grandes banques centrales au monde, la BCE (les politiques de Quantitative Easing reviennent à un financement indirect des Etats membres). De manière plus générale, la France est un pays réputé pour sa capacité à prélever l’impôt et sa stabilité politique et économique, comme la plupart des grands pays industrialisés.

La conséquence de tout cela c’est que nous empruntons à des taux dérisoires, et même régulièrement négatifs depuis quelques années !

image

En raison des politiques de QE (achats de titres de la dette), d’une inflation très basse, de l’abondance de liquidités et de règles prudentielles qui obligent certains opérateurs sur les marchés (fonds de pension, investisseurs institutionnels, banques) à détenir un certain volume de dette publique, une situation exceptionnelle se produit : des prêteurs sont prêts à payer pour placer leur argent…

Dans la partie suivante, nous présenterons les débats actuels sur la dette COVID : qui détient cette dette, pose-t-elle problème, peut-on l’annuler ?

Note de lecture : la gauche, la droite et le marché (D. Spector)

Le libéralisme peut-il être de gauche ?

La gauche, la droite et le marché (2017) est un livre étonnant. Ecrit par un économiste, il s’agit davantage d’un livre d’histoire des idées économiques et politiques, très riche de références et servi par une plume d’une grande clarté.

Lire la suite

A quoi sert l’économie ?

De la scientificité des sciences sociales

Il y a un peu plus d’un an j’ai écrit un long article intitulé « à quoi sert la sociologie ? » qui traite de sciences sociales en général et de sociologie en particulier, et essaie de défendre la scientificité de la sociologie. L’objet de cet article est de développer ce point de vue en se concentrant, cette fois, sur l’économie. Il sera complémentaire d’un autre article sur le même thème, que j’avais écrit en conclusion d’une série sur l’histoire des courants économiques, consacrée à l’économie contemporaine et où je digressais sur la scientificité de l’économie.

Lire la suite

Note de lecture : La nature du social (L. Cordonier)

La nature du social (2018) est un ouvrage qui traite de questions fondamentales sur le rapport entre nature et culture et l’explication du comportement humain en général.  Laurent Cordonier, sociologue, a pour objectif de créer des ponts entre des disciplines que l’on imagine souvent irréconciliables : la sociologie (et les sciences sociales en général) et les « sciences de la nature humaine » (psychologie cognitive, biologie évolutionniste).

Lire la suite

Note de lecture : Sapiens, une brève histoire de l’humanité (Y. N. Harari)

Un bon essai est un mélange entre une fiction et un article scientifique : il doit être aussi agréable à lire que le premier tout en s’approchant de la rigueur du second. Ce qu’on attend d’un essai, c’est une langue claire et fluide, mais néanmoins des arguments, si possible fondés, voire des idées nouvelles. Un essai peut même se permettre de prendre beaucoup de hauteur par rapport aux sujets très circonscrits qui sont l’objet des articles scientifiques, quitte à être démesurément ambitieux ou très original : ce n’est pas si grave.

Lire la suite

Etat social : le grand paradoxe

XVM9c50aa9e-274c-11e6-b078-fe92e5d5dcfb

Policiers « à bout », pompiers « en colère », hôpital « au bord du gouffre », étudiants précaires, cheminots mobilisés, malaise enseignant…l’actualité donne l’image d’un pays en ruine, au bord de l’explosion sociale, par faute d’un Etat absent et inefficace.

EJRFJ80WwAASKRt.jpg

Or, la France a les dépenses publiques les plus élevées au monde (56% du PIB), une Sécurité sociale universelle et extensive que le monde nous envie, le tout financé par des prélèvements obligatoires les plus lourds de l’OCDE (45% du PIB). La domination du « néolibéralisme » ou « l’Etat ultralibéral » est une aimable plaisanterie : l’ultralibéralisme décrit peut être la situation aux Etats-Unis ou en Grande-Bretagne mais certainement pas en France. Il faut être resté nostalgique des grandes heures de l’URSS pour qualifier de « néolibéral » un pays où la richesse est socialisée à près de 60%. De plus, l’idée d’un retour en force du néolibéralisme depuis les années 1980 a certainement un fondement idéologique au niveau international, mais elle ne s’est nullement traduit par une réduction des prélèvements obligatoires ou de la dépenses publique en France : au mieux, on observe depuis quelques années un ralentissement de la hausse et un relatif tassement du poids des cotisations ; mais comme celui-ci est reporté sur des impôts qui augmentent, le total reste le même. Et ce ne sont pas les mesurettes de Macron sur la taxe d’habitation qui y changent quoi que ce soit. Les Gilets Jaunes nous rappellent que la fiscalité en France est un problème, non seulement parce qu’elle est injuste mais aussi parce qu’elle est trop élevée.

EJRFJ80WsAEja3q.png

Pourtant la colère sociale et l’état catastrophique de certains services publics est une réalité, vécue subjectivement de façon très différente par les différents agents de l’Etat, certes, mais bien réelle. Comment expliquer ce grand paradoxe d’un Etat social aussi dépensier, et d’une crise sociale sans précédent ? Comment faire tenir ces deux réalités contraires ? A cela, plusieurs éléments de réponse.

La redistribution…redistribue

Tout d’abord, il faut prendre de la distance avec l’actualité et regarder froidement les chiffres : en France, la redistribution existe et elle fonctionne, Dieu merci. Les frais de gestion de la Sécurité sociale sont de l’ordre de 5%, ce qui est excellent (les frais de gestion des organismes complémentaires sont de l’ordre de 20% : contrairement à eux, la Sécurité sociale n’a pas à chercher de nouveaux clients) ; cela signifie que 95% des sommes collectées (d’un budget de 800 milliards, ce n’est pas une paille) sont redistribuées aux Français. Les libéraux qui utilisent le chiffre des 57% pour dénoncer le poids des dépenses publiques évitent généralement de préciser que ce chiffre est à plus de 60% (62,8%) des dépenses in fine privées qui transitent par les administrations publiques (typiquement les retraites) : 57% est donc davantage une évaluation de la redistribution en France que du poids des dépenses strictement publiques comme les salaires des fonctionnaires. De ce point de vue, la Sécurité sociale fait son travail : elle redistribue.

Une moyenne, pas une réalité

Ensuite, il faut bien garder en tête que tous les chiffres globaux de prélèvements obligatoires ou de dépenses publiques sont des moyennes. Or une moyenne est très sensible aux valeurs extrêmes et ne reflète en aucune manière une réalité vécue. Le cas du pouvoir d’achat (qui, en moyenne, augmente) est bien connu. Dans mon domaine, l’éducation, c’est très clair. Prenez par exemple le salaire des enseignants. D’après l’OCDE il est dans le secondaire de 50 000$ par an (en parité de pouvoir d’achat) soit environ 3300€ par mois contre 45 000$ environ dans le reste de l’OCDE. On peut donc dire que le salaire effectivement touché en moyenne par les enseignants français est, au moins dans le secondaire, dans la moyenne haute de l’OCDE. Mais en réalité, fort peu d’enseignants touchent 3300€ : cette moyenne est tirée vers le haut par les agrégés des classes préparatoires, avec beaucoup d’ancienneté et qui font beaucoup d’heures supplémentaires. Un enseignant certifié débutant touche à peine plus de 1700€ par mois : il peut à bon droit estimé être mal payé pour un bac+5. Ne parlons pas des remplaçants qui, pour une exigence de diplôme équivalente, sont payés à peine plus que le SMIC. Ainsi, la moyenne de 3300€ net par mois ne reflète pas la réalité vécue par l’immense majorité des enseignants.

La même logique de moyenne biaisée peut s’appliquer à tout un tas de sujets, comme par exemple le nombre d’élèves par classe. Divisez le nombre d’enseignants par le nombre d’élèves, vous obtenez un enseignant pour 14,2 élèves. Evidemment, ce chiffre ferait rêver n’importe quel prof quand on sait que le seuil administratif à partir duquel le rectorat ouvre une seconde classe est de 37 élèves ! Là encore, problème de moyenne : tous les enseignants embauchés ne sont pas en activité devant élèves pour des causes très diverses (arrêts maladies, congé formation, temps partiel, décharge syndicale). De plus, la moyenne cache des disparités très grandes : il y a beaucoup plus d’élèves par classe en lycée général que professionnel, dans le second cycle que dans le premier, dans le secondaire que dans le primaire, etc.

Etat-social, Etat-gaspillage

A ces questions de déformation statistique s’ajoute un gaspillage budgétaire. Que les pouvoirs publics prélèvent chaque année près de la moitié de la richesse produite dans divers impôts et cotisations ne dit rien de l’usage, efficace ou non, de ces prélèvements. Impossible d’imaginer une dépense de plus de 1200 milliards d’euros par an sans trouver ici ou là des gaspillages. C’est vrai de toute grande organisation, publique ou privée. Evidemment dans un pays de 67 millions d’habitants, cela prend des proportions gigantesques. Sans tomber dans l’anecdote (le médecin breton payé à vie sans rien faire, le bâtiment public à prix faramineux mais vide, le rond-point refait trois fois pour plusieurs millions d’euros, etc.), il est normal de s’inquiéter d’un Etat-gaspilleur quand on est un tant soi peu attaché à l’Etat-providence. La mauvaise gestion budgétaire est une explication centrale qui rend compatible dépenses élevées et crise sociale.

Notons au passage que ce sujet n’est ni particulièrement de droite, ni particulièrement de gauche. A gauche, on peut insister sur l’abondance de niches fiscales, le coût faramineux du CICE (pour un gain en termes d’emploi quasi-nul) et celui moins élevé mais tout de même conséquent de la suppression de l’ISF ou encore le problème (quoique souvent exagéré) de la fraude fiscale. A droite, on peut soutenir des arguments sur l’improductivité particulière des services publics car si la France ne dépense pas plus que ses voisins à fonction comparable, elle utilise beaucoup plus souvent le statut de fonctionnaire embauchés et payés à vie (source). Ce qui explique le paradoxe de la France, avec à la fois beaucoup de fonctionnaires par habitant mais pas plus de médecins ou d’enseignants.

Le privé est-il structurellement plus efficace que le public ? Tout dépend des secteurs. J’en avais déjà parlé ici : une commune n’a besoin que d’une mission ponctuelle, elle sait qu’elle pourra facilement trouver une personne sur le marché du travail qui dispose des qualifications nécessaires et elle ne peut que mal contrôler le travail effectué : elle a alors tout intérêt à faire appel à une entreprise privée qui se chargera des espaces verts plutôt que d’embaucher un cantonnier payé même en l’absence de travail, qui pourra avoir une productivité faible, n’ayant aucun risque de perdre son emploi quelle que soit la qualité de son travail (aléa moral) puisque le secteur non marchand n’est par définition pas soumis à l’exigence de rentabilité. Cela implique cependant de bien rédiger les contrats (coûts juridiques) car l’entreprise privée ne fera pas ce qui n’est pas prévu dans le contrat.

Il est de toute façon toujours difficile de réduire les dépenses publiques, car il est difficile d’identifier l’improductivité où elle existe dans des organisations géantes et très complexes. Cela tient à la structure très hiérarchique de telles organisations et à l’absence de bonne diffusion de l’information. On ne touche pas à certains salariés, mêmes incompétents. Selon le principe de Peter, tout employé compétent est promu au niveau hiérarchique supérieur jusqu’au point où il atteint son seuil d’incompétence ; les employés incompétents n’étant jamais rétrogradés et rarement virés, un ministre qui voudrait « réduire les dépenses » a toutes les chances de ne pas réduire les bonnes. Au final, le bureaucrate garde son poste et l’infirmière trinque.

L’économie, mais surtout le social et le symbolique

Ces considérations budgétaires sont loin de faire le tour, je pense, de la crise actuelle. Tout ne se réduit pas à des gros chiffres et à vrai dire, la crise sociale que nous traversons me semble devoir beaucoup à des causes non directement économiques.

Prenez l’absence de reconnaissance symbolique. C’est largement vrai dans le monde du travail, et c’est lié à un management « à la française » complètement archaïque : flicage des salariés, faible autonomie, incapacité des supérieurs hiérarchiques à faire des compliments, faible promotion du télétravail, logique comptable sur les horaires (au lieu d’une logique de résultat : tu viens quand tu veux, tu pars quand tu veux du moment que le boulot est fait). Evidemment, c’est aggravé par des « petites phrases » condescendantes du président lui-même (même exagérées et raccourcies par les médias), comme « pour trouver un emploi tu n’as qu’à traverser la rue », « les Français sont des gaulois réfractaires au changement », « si tu veux te payer un costume à ce prix tu n’à qu’à travailler », etc. Le symbolique compte, et en la matière la posture de Macron et du gouvernement en général, voire, pour élargir, d’une certaine oligarchie parisienne (coucou Julie Graziani…) ne passe pas.

Dans les services publics, c’est pareil en pire, car les technocrates appliquent généralement avec dix ans de retard ce qui se fait de pire dans le privé : quand ailleurs on parle de bien-être au travail, d’épanouissement individuel et de home-office, le manageur moyen du public en est encore à recompter les coûts et les bénéfices. La santé souffre particulièrement de ce management brutal imposé à partir des années 1990 (le New Public Management) où des technocrates sans aucune connaissance du terrain font faire des trucs absurdes aux hospitaliers pour économiser quelques sous. La saine gestion budgétaire est une chose, mais on ne peut pas tout bien faire à la fois, réformer et économiser. Alexandre Delaigue avait très bien expliqué pourquoi à force de vouloir courir deux lièvres à la fois (réformer et faire des économies) on ne fait bien ni l’un, ni l’autre. Illustration avec la réforme des régions qui illustre à peu près tout ce qu’un décideur à courte vue peut mal faire : demandée par personne, décidée et mis en oeuvre par quelques technocrates sur un coin de table contre l’avis d’à peu près tout le monde, elle n’a, à part quelques économies dans les achats de gros, pas du tout produit les économies budgétaires attendues, bien au contraire. Par contre, le travail des fonctionnaires territoriaux s’est généralement dégradé.

Et au-dessus, la pression administrative

Il faut ajouter à tout ceci un contexte de pression administrative permanente : que dénonçait notamment la directrice d’école de Pantin qui s’est suicidé il y a quelques semaines ? Le poids des tâches administratives. Un empilement permanent de normes successives a rendu l’exercice de la moindre tâche insupportable. L’enseignement, encore : après chaque cours, je dois remplir le « cahier de textes numériques » qui décrit tout ce que j’ai fait avec les élèves ; chaque devoir doit être inscrit en ligne et chaque travail à faire à la maison doit avoir son temps indicatif ; pour les conseils de classe, il faut remplir de plus en plus de fiches administratives ; pour chaque sortie scolaire, faire un dossier pédagogique complet de plusieurs pages, remplir des “fiches-élèves” ou“fiches-parents” et renseigner en fin d’année le “bilan de fin de cycle” (sans parler des habituels bulletins et appréciations), et ainsi de suite. Résultat : on passe de moins en moins de temps à enseigner, et plus en plus de temps à faire des fiches que personne ne lit. Et c’est partout pareil. Demander aux enseignants d’avoir un boulot de cadre : pourquoi pas, mais alors il faudrait peut-être les payer comme des cadres. Sinon, c’est le retour du vieux « ils font semblant de me payer, je fais semblant de travailler ».

Revenons à la santé, sujet du jour. Les dépenses françaises en la matière sont dans la moyenne de l’OCDE (12% du PIB) : c’était 4% dans les années 1960. Pourquoi dépense-t-on autant alors que les soignants dénoncent une situation au bord du gouffre ? Cela tient à la hausse des coûts permanente liée elle-même à l’amélioration de la médecine. On vit plus longtemps, on soigne plus de choses, tant mieux, mais tout cela coûte fort cher. Les plus de 75 ans représenteront 16% de la population d’ici 2050 (INSEE) contre 10% aujourd’hui : cela veut dire que le groupe des plus de 75 ans va doubler et donc que les dépenses de santé ne sont pas près de ralentir.

Mais là encore, le montant total ou moyen ne dit rien de la réalité vécue. Pendant que le radiologue moyen du privé gagne 18 000€ par mois, l’infirmière craque. C’est la particularité des dépenses de santé : elles ne sont pas décidées par le consommateur mais par un professionnel de santé payé à l’acte, donc incité à prescrire plus. Les traitements médicaux sophistiqués augmentent les dépenses (voyez le coût d’un scanner) alors que leur rendement est décroissant : développer un antibiotique non-résistant coûte aujourd’hui bien plus cher que quand on les a découvert. Acheter une nouvelle machine à plusieurs millions d’euros qui va améliorer de quelques pourcents la netteté d’une imagerie médicale est un autre exemple.

Pendant ce temps, le temps moyen d’une consultation ou d’un soin est resté le même. C’est la loi de Baumol ou « maladie des coûts » : dans les services où il est difficile d’améliorer la productivité à long terme (il faut toujours le même nombre de personnes pour jouer une sonate de Bach qu’il y a 100 ans), les salaires doivent augmenter en permanence pour suivre l’amélioration de la productivité dans l’industrie (il faut beaucoup moins de main d’oeuvre pour produire un kilo de blé ou une voiture qu’il y a 100 ans). Ceci est une explication supplémentaire de la hausse des dépenses alors que le travail vécu est de plus en plus difficile. Le poids des tâches administratives augmente, et comme la médecine de ville est un échec, les Français vont aux urgences pour un oui ou pour un non, engorgeant des services déjà débordés.

Capitalisme, anticapitalisme

Définition (simple) du capitalisme

Le capitalisme est un système où la propriété des moyens de production est (au moins en partie) privée, avec un système concurrentiel donc un marché où les prix ont une signification marchande. L’investissement (donc l’initiative privée) y tient une place centrale : pas de capital-isme sans capital. Au centre du capitalisme, on trouve la relation épargne <> investissement (et donc la recherche du profit).

Lire la suite

Un certain Juif, Jésus (12/12)

miracleofbreadandfish-giovanni-lanfranco
Le miracle du pain et du poisson, Giovanni Lanfranco, 1623

I. Intérêts et limites de la recherche sur Jésus de Nazareth (article numéro 1)
A. Deux limites de la recherche historique sur Jésus de Nazareth
B. Trois intérêts de la recherche historique sur Jésus de Nazareth (article numéro 2)
Conclusion : l’enjeu de la recherche historique
II. Les méthodes de la recherche : comment procèdent les biblistes ? (article numéro 3)
A. Les critères d’historicité
B. Les preuves archéologiques
C. La théorie des deux sources
III. La vie d’un certain Juif : que peut-on dire de fiable sur Jésus de Nazareth ? (article numéro 4)
A. Jésus a-t-il existé ?
B. Naissance et famille, grandes lignes du ministère (article numéro 5)
C. La question des frères et sœurs de Jésus
D. Le groupe de disciples de Jésus : Jésus a-t-il voulu fonder une Église ?
E. Les miracles de Jésus
IV. Le message de Jésus (article numéro 6)
A. Le royaume de Dieu
B. Le rapport de Jésus à la Loi juive
C. Les commandements d’amour de Jésus
Conclusion sur le message de Jésus

Un an plus tard…
V. Méthodologie (rappels) (article numéro 7)
A. La recherche historique n’est pas une démonstration de la foi chrétienne
B. La question de la fiabilité du Nouveau Testament
C. L’identité de Jésus : un problème méthodologique délicat, mais pas insurmontable
D. Ce que nous savons jusqu’à présent
E. A qui Jésus peut-il être comparé ?
VII. Précisions étymologiques (article numéro 8)
A. Le terme “Messie”
B. L’expression “Fils de Dieu”
C. L’expression “fils de l’homme”
D. Le terme “Seigneur”
E. Les Noms de Dieu dans l’Ancien Testament
VIII. La théologie chrétienne et ses développements (article numéro 9)
A. Que dit la doctrine chrétienne au sujet de Jésus ?
B. Objections et hérésies
IX. La foi de Paul (article numéro 10)
A. Les questions de date
B. La foi de Paul est-elle celle de l’Église primitive ?
C. De Jésus à Paul, une modification de l’objet de la foi
D. Le statut ontologique de Jésus dans la pensée paulinienne
X. Que disent les Actes des Apôtres ?
(article numéro 11)
XI. Ce qui est dit de Jésus dans les Évangiles
A. L’Évangile de Marc
B. Les autre synoptiques
C. Un mot sur Jean
XII. Conclusion : les titres de Jésus dans le Nouveau Testament
A. Résumé de la titulature de Jésus
B. Jésus et la foi chrétienne
C. Maintenir la tension
XIII. L’identité de Jésus : une certitude impossible (cet article)
A. Argument théologique
B. Argument historique
XIV. Cinq prétentions de Jésus
A. Réaliser des miracles
B. Corriger la loi de Moïse
C. Tout quitter pour le suivre
D. S’adresser à Dieu comme à son père
E. Pardonner les péchés
F. Et tout ça, sans la moindre légitimité
XV. La crucifixion et le moment de la foi
A. L’historicité de la crucifixion
B. Comment apparaissent les disciplines durant le ministère de Jésus ?
C. Et après la crucifixion ?
XVI. La foi des Actes

Le plan ci-dessus montre déjà une bonne part du chemin parcouru par cette série depuis que je l’ai commencé, en juillet 2015 (quatre ans déjà… alors que j’avais commencé à lire Meier en 2011, voilà près de dix ans !) : avec les indispensables réflexions de méthode, des question de fond qui traitent tous de l’identité de Jésus (directement ou indirectement). Pour l’instant, à part les miracles nous avions laissé de côté les actes de Jésus. Que disent-ils du prophète ? Confirment-ils ou infirment-ils la conclusion du titre XII ?

Cet article sera suivi d’une longue conclusion (probablement pas cette année).

Lire la suite

Vingt-quatre mois de macronisme

800x-1_thumb

J’avais publié il y a un an un article où je critiquais Macron sur des détails tout en le soutenant sur l’essentiel, en particulier sur les réformes économiques. 24 mois après l’élection, si je devais réécrire un article j’en accentuerais la tonalité critique. Être déçu de quelqu’un pour qui on a voté est un peu un marronnier de la démocratie, mais il faut bien reconnaître que l’année 2018 a été riche en déceptions.

Lire la suite

Note de lecture : Les Déshérités, de François-Xavier Bellamy

Les-desherites

Comme professeur de lycée, je suis intéressé depuis longtemps par les débats liés à l’école et aux questions pédagogiques. J’ai publié plusieurs articles sur le sujet, ici même, notamment sur la question du niveau des élèves (lien), des valeurs transmises à l’école (lien), du lien entre école et démocratie (lien) où je commentais notamment un texte de Laurent Lafforgue, de propositions pour l’école (lien) ou encore des réformes de l’université (lien).

J’ai donc lu avec intérêt le court essai de François-Xavier Bellamy, agrégé de philosophie (et désormais connu du grand public puisqu’il est tête de liste LR aux élections européennes) publié en 2014 : Les Déshérités ou l’urgence de transmettre. Le titre étant une référence assez évidente aux Héritiers (1964) de Bourdieu et Passeron (ou plutôt : contre Bourdieu et Passeron), il m’a interpellé. Très honnêtement, venant d’un esprit qui s’affirme conservateur, je m’attendais à une énième plainte un peu réactionnaire sur l’école qui ne transmet plus rien, la perte des valeurs, et les jeunes qui ne respectent plus leurs aînés et gnagnagna.

Lire la suite

A quoi sert la sociologie ?

ob_a0c0ae_image-preview

De toutes les sciences sociales, la sociologie est peut être celle qui a la plus mauvaise presse. Si France Culture distingue jusqu’à sept “péchés capitaux” (pour la beauté du chiffre symbolique), je me contenterai des trois principales.

Premièrement, la sociologie ne serait pas scientifique. Elle serait un  paravent pseudo-scientifique de projets militants. De façon intéressante, cette critique provient aussi bien de l’extérieur (donc de personnes fort peu informée de sociologie : on rangera par exemple dans cette catégorie la critique catholique de la “théorie du genre”), mais aussi de l’intérieur de la sociologie, certains sociologues reprochant à d’autres, à certains courants, ou à la sociologie en général, un défaut de scientificité : on peut ranger dans cette catégorie l’ouvrage de Bronner et Géhin, dont j’avais fait une chronique.

Deuxièmement, la sociologie serait inutile, car elle ne ferait que rappeler des choses que tout le monde sait déjà (par exemple, que la famille transmet des normes et des valeurs). L’un des concepts les plus centraux en sociologie, la socialisation, serait ainsi trop évident. Là encore, la critique est externe (la sociologie ne sert à rien, les sociologues sont au mieux des “super-journalistes”) et aussi interne (la sociologie est travaillée par la question de l’objectivation, elle souffre d’un manque de légitimité scientifique, aussi bien auprès du grand public que des décideurs, ce qui induit de faibles moyens consacrés à la recherche). Bronner estime ainsi que les sociologues devraient “arriver à des choses qui ressemblent à des assertions scientifiques sinon on ne se distingue pas des agents ordinaires”.

Il y a un lien entre ces deux critiques, qui donnent le titre de mon article : à quoi sert la sociologie ? Si la sociologie est scientifique, la question devient plutôt à quoi sert la science, ce qui est très différent. Mais si, en revanche,  la sociologie n’est pas scientifique, alors la connaissance du monde social qu’elle apporte n’est pas réellement différente de la littérature ou du journalisme : elle ne sert donc à rien. Pour décrire la vie sociale, il vaudrait mieux lire Le Monde, et pour la mettre en scène, Balzac ou Zola.

Troisièmement et peut être surtout, la sociologie serait déterministe donc déresponsabilisante. Si j’en crois Bernard Lahire, cela ne date pas d’hier. En 1983, Reagan brocardait la “philosophie sociale” accusée de déresponsabiliser les criminels et les délinquants. Plus près de nous, on se souvient de la formule de Manuel Valls en 2016 à propos du terrorisme, dénonçant explicitement les sociologues : “expliquer le djihadisme, c’est déjà un peu excuser”. Manuel Valls rejouait là, probablement sans le savoir, un vieux débat épistémique : comprendre ou expliquer ?

Cet article est consacré à la défense de la scientificité de la sociologie. Comme d’habitude, je ne prétends pas à l’originalité mais plutôt à faire une bonne synthèse. Dans la première partie, j’établirai un long rappel historique de la façon dont la sociologie s’est construite, en faisant des comparaisons avec l’économie, discipline que je connais encore mieux. Puis je répondrai aux trois critiques ci-dessus.

1. Comprendre contre expliquer, science sociales contre sciences naturelles ?

Dès 1883 (Introduction aux sciences de l’esprit), le philosophe et sociologue allemand Wilhelm Dilthey distingue les sciences de la nature et les sciences de l’esprit —on dirait aujourd’hui les sciences humaines et sociales. Alors que les premières avaient vocation à expliquer, c’est-à-dire à dégager des lois, des relations de cause à effet quantifiées, les secondes devaient avoir une approche plus singulière : comprendre c’est-à-dire étymologiquement saisir, donc se mettre à la place de, entrer en sympathie avec l’objet d’étude qui est l’être humain. Les sciences sociales et au premier chef la sociologie encore naissante ne devraient donc pas chercher à imiter les sciences de la nature (dégager des lois), mais au contraire avoir une approche spécifique étant donné leur objet d’étude.

Quelle spécificité des sciences sociales par rapport aux sciences de la nature ? Un peu, beaucoup, pas du tout ? Ce vieux débat a irrigué toute la réflexion épistémologique depuis des siècles, et continue de l’irriguer encore aujourd’hui. Pour simplifier le propos, distinguons d’abord deux camps : d’un côté, les tenants des sciences sociales comme sciences nomologiques : elles doivent s’inspirer des sciences de la nature ce qui signifie qu’elles peuvent et doivent dégager des lois (nomos). Il faut expliquer. De l’autre, les tenants d’une approche plus subjective : les sciences sociales doivent se mettre à la place des acteurs, intégrer la part imprévisible du monde social, car la société est construite par les individus. Il ne saurait y avoir de lois immuables. Il faut comprendre. Les sciences sociales seraient alors des sciences purement historiques, empiriques voire descriptives.

2. L’économie, une mécanique sociale ou une science humaine ?

Il est intéressant de commencer avec la construction scientifique de l’économie, plus ancienne que la sociologie (la plus ancienne réflexion économique connue est probablement l’Ethique à Nicomaque d’Aristote). Prenons les pères fondateurs de la discipline, que, pour simplifier, on réduira à cinq : Adam Smith (mort en 1790), David Ricardo (en 1823), Jean-Baptiste Say (en 1832), Thomas Malthus (en 1834) et Karl Marx (en 1883), appelés par Schumpeter les “classiques” en raison de leur théorie de la valeur dite objective. Tous ont essayé de dégager explicitement des lois immuables en économie, basées sur des liens de cause à effet : pour Smith, la loi de l’offre et de la demande, la plus connue du grand public (peut être l’une des plus anciennes puisqu’on en trouve des mentions dans… l’Ancien Testament) ; pour Say, la loi de la neutralité monétaire, qui implique l’absence de crise de surproduction globale ; pour Ricardo, la loi des rendements décroissants qui entraînent l’état stationnaire (la fin de la croissance) ; pour Marx, la loi de l’accumulation qui entraîne l’effondrement du capitalisme ; pour Malthus, la loi des populations qui implique surpopulation et pauvreté. Il y en a évidemment beaucoup d’autres.

En 1838, le français Augustin Cournot écrit Recherches sur les principes mathématiques de la théorie des richesses, au titre explicite comme on savait le faire alors : l’économie y est conçue comme une “mécanique sociale” qui doit reposer sur des équations et des démonstrations rigoureuses. Ingénieur de formation, Cournot contribue fortement à introduire en économie un formalisme mathématique élégant (il introduit par exemple le concept d’élasticité-prix ou de coût marginal), ce qui conduira au développement de l’école néoclassique qui culmine dans les travaux du français Walras (en 1874), et se prolonge ensuite après 1945. A l’extrême, ce courant walrasien aboutit à des travaux extrêmement sophistiqués sur le plan des mathématiques, tels ceux du français Gérard Debreu (encore un français : nous sommes vraiment les champions en mathématiques) mais qui sont dépourvus de toute signification dans le monde réel tant ils fonctionnent dans un univers abstrait, fort éloigné de la réalité. Debreu démontre ainsi en 1956, avec des outils bien plus sophistiqués que ceux de Walras, que sous les hypothèses de la concurrence pure et parfaite, il existe un état d’équilibre de l’économie qui maximise la satisfaction (l’utilité) par l’échange : le surplus est maximum. Ce résultat est purement théorique et ne peut parler qu’à des esprits mathématiques attirés par un haut niveau d’abstraction. Il ne garantit ni une répartition optimale des richesses ni l’absence de crises économique : Debreu comme Walras en étaient d’ailleurs parfaitement conscients. Walras était socialiste et distinguait soigneusement “l’économie politique pure”, une branche des mathématiques appliquées, “l’économie sociale”, une science normative et morale dont l’objet est la répartition des richesses, et enfin “l’économie politique appliquée”, une étude de l’organisation de la production.

Mais les héritiers du néoclassicisme n’ont pas forcément écouté Walras ; et voulant donner à une économie unifiée une aura de scientificité, ils se sont enfermés dans une logique purement abstraite, déconnectée de l’économie réelle. Que peut-on dire d’une théorie comme la théorie des cycles réels de Kydland et Prescott qui s’impose à partir des années 1980, et qui fait reposer presque intégralement l’explication des crises sur l’arbitrage intertemporel d’un (unique !) agent parfaitement rationnel ? Qui ignore le rôle du cycle financier et des fonds propres des banques, des rigidités nominales, des croyances sur les marchés (prophéties autoréalisatrices), de la coordination en entreprise, des effets d’agrégation, du risque systémique ?  Cet aveuglement théorique a pu produire une incapacité à prévoir des crises comme celle de 2008, surtout quand elle s’accompagnait d’une idéologie favorable par principe au marché et à la concurrence.

3. L’économie contemporaine, au croisement de la théorie et de l’empirie

Je considère pour ma part que cette époque est révolue. D’abord, n’exagérons rien : depuis l’école historique allemande de Friedrich List (1840), il y a toujours eu des approches historiques et empiriques en économie, donnant la priorité aux faits. Surtout, aujourd’hui, l’économie a beaucoup évolué. On peut constater depuis quelques années déjà un fort mouvement de retour à l’empirie. Ceci sous l’effet de plusieurs facteurs, à mon avis : la progression de la collecte de données grâce aux grandes bases de données souvent publiques (OCDE, FMI, Banque Mondiale, INSEE) qui se sont professionnalisées, généralisées, et numérisées ; le rejet par les nouvelles générations de chercheurs (un exemple français : Thomas Piketty) d’une analyse économique purement abstraite au profit d’un croisement entre théorie et empirie, avec le souci d’expliquer les faits, d’avoir une approche quasiment historique de l’économie, sans rejeter pour autant l’utilité des modèles théoriques prédictifs, notamment en macroéconomie. Car une économie purement descriptive pourrait être intéressante, mais ne serait qu’une branche de l’histoire. Or, l’économie s’intéresse aussi au présent voire au futur.

Un économiste américain comme Alan Krueger (mort cette année, trop jeune…) est un bon exemple de l’économie contemporaine :  rejetant des résultats basés uniquement sur des hypothèses théoriques, Krueger et bien d’autres ont essayé de faire de l’économie une véritable science empirique, presque expérimentale. Si l’économie ne peut pas réaliser d’expérimentation en laboratoire, elle peut cependant s’en rapprocher dans certains cas, notamment aux Etats-Unis lorsque des Etats prennent des décisions de politique économique indépendamment des autres Etats : il est alors possible d’avoir l’équivalent d’un “groupe témoin” et d’un “groupe test” en médecine. Krueger et Card ont ainsi publié une célèbre étude (en 1995) remettant en cause la relation (théorique) négative entre salaire minimum et emploi :

Dans ce livre, Card et Krueger soutiennent avec force que les preuves empiriques selon lesquelles le salaire minimum détruit des emplois (une idée largement acceptée jusqu’alors) étaient étonnamment fragiles. Leur propre étude de cas (déjà publiée dans la revue American Economic Review) comparait les restaurants de fast-food dans le New Jersey et en Pennsylvanie après une hausse du salaire minimum dans le New Jersey. Ils constatèrent que l’emploi avait augmenté dans le New Jersey après la hausse du salaire minimum. (…) Mais Myth and Measurement était bien plus que cela. Ce livre fournissait un vaste éventail de preuves empiriques sur des questions plus larges relatives au travail et poursuivait en affirmant que la totalité des preuves empiriques suggéraient que le modèle simple d’offre et de demande était inadéquat pour comprendre le marché du travail des bas salaires. Card et Krueger affirmaient que les employeurs avaient un certain pouvoir pour décider de leurs politiques salariales et ne se voyaient pas entièrement dicter leurs décisions par les forces invisibles du marché. Ils peuvent augmenter leurs salaires pour améliorer leur capacité à recruter et retenir les travailleurs, même si cela se traduit par des coûts du travail plus élevés. Ils appelaient cela le modèle de monopsone dynamique et ils affirmaient que celui-ci collait mieux aux données que le modèle simple d’offre et de demande.

(…)

En 1991, avec son collègue de Princeton Orley Ashenfelter, il visita le seizième festival annuel de la journée des jumeaux à Twinsburg, dans l’Ohio, pour collecter des données sur des jumeaux identiques avec différents niveaux d’éducation. Ce fut une façon ingénieuse de contrôler les différences de capacité qui pourraient biaiser les estimations du taux de rendement de l’éducation. Son article avec Alex Mas, un autre collègue de Princeton, utilisa les bandes de roulement des pneus Firestone produits à la suite d’une grève au cours de laquelle l’entreprise remplaça les travailleurs grévistes pour montrer l’importance des relations de travail sur la qualité du produit. (…) Dans un travail antérieur avec Josh Angrist (désormais au MIT), il utilisa des bizarreries comme le trimestre de naissance ou la loterie de l’époque du Vietnam pour estimer l’effet causal de l’éducation sur les rémunérations. Ces études ont suscité de nombreux travaux postérieurs, notamment des études qui ont pu être en désaccord avec leurs constats. Mais c’est exactement la façon par laquelle la science progresse et Alan a contribué à nous pousser dans cette direction. (…) »

Arindrajit Dube, « Alan Krueger was the rare economist whose work improved the lives of millions », in Slate, 19 mars 2019. Traduit par Martin Anota

4. Retracer les fondations de la sociologie

En sociologie, vers le milieu du XIXème, les débats furent sensiblement les mêmes. A l’opposé de Dilthey, qui ne voyait aucune différence entre sociologie et psychologie, Auguste Comte, père fondateur de la discipline s’il en est puisqu’il est l’inventeur du terme “sociologie”, voulait explicitement fonder une science “positive”, c’est-à-dire basée sur des lois générales et explicites. Au point que jusqu’en 1839, il utilise le terme “physique sociale” avant d’opter pour “sociologie”. A la biologie, l’étude des corps ; à la sociologie, l’étude du corps social. A la toute fin du XIXème siècle, le grand sociologie français Emile Durkheim s’inscrit dans une logique semblable : il faut dégager des lois (comme le processus De la division du travail social, 1893) et des relations de cause à effet. La méthode sociologique est précisée dans Les règles de la méthode sociologique (1895) : la sociologie a pour objet d’étude les faits sociaux, qui doivent être traités comme des choses : il faut expliquer un fait social par un autre fait social et donc éviter les explications psychologisantes, méthode qu’il appliquera deux ans plus tard à l’étude du Suicide (1897), où il s’oppose aux explications psychologiques (il s’est suicidé parce qu’il était malheureux) pour dégager des régularités statistiques (lien entre taux de suicide et saison par exemple).

Durkheim avait cependant conscience des limites d’une méthode s’inspirant de la physique : comme l’économie, la sociologie ne peut pas réaliser d’expérimentation en laboratoire qui seraient validées par réplication. Eventuellement, la psychosociologie (avec des expériences comme la fameuse expérience de Milgram) peut prétendre à cela, mais il est difficile de tirer d’un résultat obtenu sur des sujets consentants en laboratoire des conclusions sur la façon dont se comporterait les mêmes sujets en “conditions réelles”.

De plus, l’objet d’étude de la sociologie est différent du chercheur qui étudie les atomes, car il s’agit des faits sociaux auquel l’être humain, y compris le chercheur, est quotidiennement confronté : conflits sociaux, délinquance, lien social, famille, travail, reproduction sociale, etc. Dès lors, le risque est d’en rester aux “prénotions”, c’est-à-dire à une approche naïve et immédiate du fait social, celle du quidam. C’est précisément pour en sortir et aller vers l’objectivité qu’il était nécessaire, selon Durkheim, de faire appel aux statistiques et de traiter les faits sociaux comme des choses. En 1968, Pierre Bourdieu et Jean-Claude Passeron réactualisent cette thèse (Le métier de sociologue) : la sociologie est une science comme les autres mais le sociologue a pour particularité d’être familier avec « l’univers social » : d’où l’importance de la rupture avec le « savoir immédiat » de la « sociologie spontanée ». Pour cela il faut utiliser les statistiques, définir rigoureusement l’objet d’étude (nécessairement construit), prendre du recul par rapport aux faits (qui doivent être traités comme des objets mentaux), contextualiser les actions (refus de lois universelles et de l’idée de nature humaine), s’extraire du langage courant, quitte à être « ésotérique », car on « perd en popularité ce qu’on gagne en dignité et en autorité ».

On a beaucoup opposé cette approche à celle de Max Weber, un autre père fondateur (1864-1920) de tradition plus proche de Dilthey. En effet, comme Dilthey, Weber pensait que les sciences humaines ne pouvaient pas appliquer les mêmes méthodes que celles issues des sciences de la nature. Celles-ci étaient, selon ce dernier, fondamentalement différentes dans la mesure où les individus, objets de la sociologie, sont des acteurs qui donnent du sens à leurs actes, ce que ne fait pas par définition la matière inerte. Il est alors nécessaire de “pénétrer les significations qui sous-tendent les actions des individus en saisissant leur part de subjectivité” (Vedelago).

Pour autant, Weber ne souhaitait absolument pas abandonner la recherche d’une certaine objectivité en sciences sociales : pour lui, il fallait être à la fois compréhensif et explicatif. L’existence de lois sociales n’était pas exclu (ex. le processus de rationalisation de la société, esquissé dans Economie et société, 1922). De plus, la nécessité de l’abstraction et de la modalisation était réaffirmée, avec notamment le concept d’idéal-type : une construction schématique basée sur des statistiques qui permet de dégager des relations, en isolant les dimensions les plus significatives. C’est par définition un modèle. On ne rencontre jamais dans la rue le capitalisme, la bureaucratie ou l’Etat. On construit les concepts de bureaucratie, d’Etat ou de capitalisme pour expliquer des faits sociaux à partir d’un petit nombre de traits qu’on aura dégagé et relié statistiquement. L’idéal-type est donc un outil mais qui doit évidemment pouvoir expliquer la réalité.

L’opposition entre Durkheim et Weber se situe alors plutôt dans le poids accordé au symbolique, aux significations que les acteurs donnent à leur action. Alors que Durkheim rejette la parole des acteurs comme marquée d’un un lourd déterminisme, Weber estime au contraire qu’il faut intégrer ce sens subjectif de l’action dans l’analyse sociologique.

Toutes ces discussions se retrouvent dans les travaux d’épistémologie plus récents. En 1991, Jean-Claude Passeron publie Le raisonnement sociologique, qui reprend ces questions. Pour lui, la sociologie est une science « historique » et « empirique » qui se heurte à la difficulté d’interpréter la réalité sociale et en particulier le langage. La conceptualisation est instable voire anarchique : cela tient aux rapports non stabilisés entre langue commune et langue savante, car les objets d’études du sociologue sont fortement imprégnés de lieux communs. Il existe alors une tension méthodologique propre au raisonnement sociologique, entre la description historique et le raisonnement expérimental. Une sociologie qui ne serait qu’un simple récit historique ne se distinguerait en rien de la sociologie spontanée ou de la littérature ; une sociologie qui ne souhaiterait recourir qu’au raisonnement expérimental deviendrait aussitôt un non-sens historique et par là même une “absurdité sociologique”, autrement dit une branche faible de la philosophie. Le raisonnement sociologique est alors un « va et vient » entre ces deux pôles.  Selon Passeron le critère poppérien de réfutabilité est inopérant en sociologie et plus généralement dans les sciences empiriques, où il est nécessaire de multiplier les comparaisons pour parvenir au critère de véracité, contrairement aux sciences nomologiques où un seul « test falsificateur » est décisif.

5. Pas de rationalité à vide, pas d’empirisme décousu

On en revient toujours à la fameuse citation de l’épistémologue Gaston Bachelard (La formation de l’esprit scientifique, 1938) :

Pas de rationalité à vide, pas d’empirisme décousu

Pas de rationalité à vide, autrement dit : on ne peut pas faire de science purement théorique et détaché des faits. Les résultats obtenus par pure déduction ne sont que des abstractions philosophiques, de la métaphysique pour employer un langage kantien. Ainsi la vieille “preuve” ontologique de l’existence de Dieu : l’existence étant un attribut parfait, et Dieu étant nécessairement parfait, Dieu doit nécessairement exister, ou autrement dit, il existe parce qu’il existe. Kant rejettera catégoriquement ce type de raisonnement scolastique dans l’ordre de la métaphysique, inapte à produire des connaissances. Ce qui ne signifie pas, bien sûr, qu’il est interdit d’émettre des conjonctures spéculatives, en espérant qu’elles pourront être falsifiées expérimentalement plus tard.

Pas d’empirisme décousu : d’un autre côté, on ne peut pas non plus se contenter d’accumuler des faits, sans les organiser, les hiérarchiser, les problématiser, et les expliquer théoriquement, en un mot : sans les construire. Une accumulation de faits ne donne pas une connaissance scientifique d’un problème. Bref, une pure théorie n’est pas plus souhaitable qu’une pure empirie.

6. Conclusion : à quoi sert la sociologie ?

Comment appliquer cela à la sociologie ? Revenons aux trois critiques du début.

La sociologie est déterministe, comme toutes les sciences causales

La sociologie est déterministe ? Oui, elle l’est probablement. Parce qu’au cœur de la sociologie, on trouve le concept de socialisation, qui explique comment un certain nombre de structures (en premier lieu la famille, mais aussi l’école, les pairs, le monde du travail) forgent l’identité individuelle à travers la transmission de normes et de valeurs, d’un capital économique, culturel, symbolique, plus généralement d’un rapport au monde. La sociologie est donc déterminisme… mais toutes les sciences le sont ! La physique, qui vous explique que vous vivez dans un monde déterminé par des lois physiques, n’est-elle pas déterministe ? La biologie qui explique l’influence des gènes sur votre personnalité, n’est-elle pas déterministe ? Et les neurosciences, qui vous disent que tous vos comportements sont déterminés par votre chimie cérébrale, largement inconsciente ? Et l’économie, qui explique qu’en situation de concurrence parfaite, chaque acteur est trop petit pour influencer à lui seul le prix d’équilibre, ce dernier étant alors exogène, c’est-à-dire donné (l’agent subit la concurrence), n’est-elle pas déterministe ? En réalité, toutes les sciences visent à dégager des relations causales sont déterministes, et en cela je m’oppose à Dilthey : la sociologie ne fait pas exception à la règle.

Cependant, la grande différence est que les lois sociales n’ont pas le caractère d’immutabilité de la loi de la gravité, de celles de l’hérédité ou des éclipses lunaires.  Personne ne s’offusque de la loi de la gravité, car elle est considérée comme donnée, évidente, immuable, et fait partie du tableau. Elle n’atteint pas notre jugement moral. Dans un autre article, j’écrivais :

Suis-je  moins libre parce que je n’ai pas choisi la loi de la gravitation, le poids des atomes ou les caractéristiques de mes gènes ? Instinctivement, on sent que le prétendre est absurde : la loi de la gravitation s’impose à moi comme à tous les autres : ce n’est pas une loi que je puisse violer. On n’obéit pas aux lois de la nature comme on obéit au code de la route : le terme « obéir » est impropre car les lois de la nature sont en réalité des modèles décrivant la façon dont les phénomènes naturels influencent mes actions, le cadre dans lequel s’exerce ma volonté. Violer une loi de la nature en ce sens signifierait en réalité que la loi ne décrit pas aussi bien nos actions qu’on le pensait : la « loi » est fausse et on la change.

Le concept de libre-arbitre ne peut donc pas s’appliquer à ce qu’on appelle les « lois de la nature ». Je n’ai pas choisi d’avoir la peau blanche, mais ce n’est pas une caractéristique que je peux changer. Il n’y a pas d’alternatives. Les lois de la génétiques sont une description de la façon dont les parents transmettent la couleur de leur peau à leurs enfants, un cadre scientifique explicatif, et jusqu’à preuve du contraire il n’en est pas autrement. Dire que je ne suis pas libre parce que je ne peux pas agir sur ce cadre est une mauvaise conception de la liberté, une conception idéaliste, réifiée, selon laquelle la liberté est un pur concept, quelque chose d’immatériel qui s’exerce dans un cadre indéterminé. Si chacun pouvait « choisir » la vitesse de la lumière, cela signifierait qu’il n’y a pas de vitesse de la lumière, donc pas de cadre dans lequel j’exerce ma volonté, qui permette de lui donner une réalité tangible. Le concept de volonté aurait-il encore un sens ?

A l’inverse, les lois sociales et notamment la loi sociologique centrale de la reproduction sociale, touchent à l’image que nous avons de nous-mêmes. Nous sommes persuadés, nous voulons croire que nous avons un libre-arbitre. Ceci nous est nécessaire, non seulement pour conserver notre dignité morale et notre estime de nous-mêmes (comment se lever le matin si nous n’avons aucun libre-arbitre ?) mais encore pour que notre société tienne debout : sans libre-arbitre, pas de tribunaux et pas de justice. La justice pénale est toute entière fondée sur l’idée du libre-arbitre, quand bien même le juge diminuerait la peine en raison des fameuses “circonstances atténuantes”. Nietzsche l’avait bien compris en dénonçant l’illusion d’un « libre arbitre » qui n’a été inventé que pour « punir et juger », avec l’intention de trouver des coupables.

Or, en mettant en évidence les lourds déterminismes sociaux qui grèvent toute notre histoire, la sociologie s’opposerait frontalement à ce mythe bienfaisant. Pire, elle conduirait à excuser les criminels ! D’où la saillie de Reagan ou de Valls. Je pense que cela procède d’une opposition artificielle entre un plan moral (celui que nous avons un libre-arbitre) et un plan scientifique (la mise en évidence de déterminismes). De plus, cela procède d’une caricature des connaissances que produit la sociologie.

…Mais ce déterminisme n’est jamais absolu

Tout d’abord, aucun déterminisme, fut-il sociologique, n’est absolu. La sociologie n’est jamais absolument déterministe. Pour une foule de raisons ! Parce que, déjà,  si le déterminisme est absolu, on ne peut pas expliquer le changement social (un thème important en sociologie) et encore moins le promouvoir : l’idée d’un déterminisme absolu est étranger même à la pensée de Marx (considéré pourtant par le premier d’entre les déterministes !) : les hommes font leur propre histoire. Même chez Pierre Bourdieu (encore un grand sociologue accusé d’être déterministe), le concept d’habitus, qui décrit la façon dont les dispositions héritées s’incorporent dans la personnalité, n’interdit nullement de produire de la nouveauté. Simplement cette nouveauté s’exerce dans certaines limites. Je cite par exemple Bourdieu en 1978, c’est moi qui souligne :

Principe d’une autonomie réelle par rapport aux déterminations immédiates par la « situation », l’habitus n’est pas pour autant une sorte d’essence anhistorique dont l’existence ne serait que le développement, bref un destin une fois pour toutes défini. Les ajustements qui sont sans cesse imposés par les nécessités de l’adaptation à des situations nouvelles et imprévues, peuvent déterminer des transformations durables de l’habitus, mais qui demeurent dans certaines limites : entre autres raisons parce que l’habitus définit la perception de la situation qui le détermine. (…) Et de fait, l’habitus est un capital, mais qui, étant incorporé, se présente sous les dehors de l’innéité. Mais pourquoi ne pas avoir dit habitude ? L’habitude est considérée spontanément comme répétitive, mécanique, automatique, plutôt reproductive que productrice. Or, je voulais insister sur l’idée que l’habitus est quelque chose de puissamment générateur. L’habitus est, pour aller vite, un produit des conditionnements qui tend à reproduire la logique objective des conditionnements mais en lui faisant subir une transformation ; c’est une espèce de machine transformatrice qui fait que nous « reproduisons » les conditions sociales de notre propre production, mais d’une façon relativement imprévisible, d’une façon telle qu’on ne peut pas passer simplement et mécaniquement de la connaissance des conditions de production à la connaissance des produits.

Bourdieu prenait la métaphore du piano : l’individu a tellement travaillé ses gammes (ie. incorporé un habitus) qu’il joue de manière non consciente au sens où il ne réfléchit pas avant de jouer mais ça n’est pas pour autant un automate déterminé par on ne sait quelle machine.

De plus, il y a toujours des exceptions à la reproduction sociale, comme ceux qu’on appelle les transclasses (Jacquet, 2014). L’idée d’un incorporation immédiate et homogène des structures par les individus est naïve et plus aucun sociologue ne dirait cela aujourd’hui. Nous sommes bien déterminés, car nous n’avons pas choisi notre lieu de naissance, famille, culture, diplôme des parents, etc. Et puis l’activité humaine est marquée par la routinisation (Berger et Luckman, 1968) qui produit des institutions : on ne réinvente pas tous les jours la façon de rendre la justice, de se marier, les rôles familiaux, etc.  Mais cela ne signifie pas que nous n’avons aucun libre-arbitre.

Tout professeur de sociologie a je pense été confronté à ce problème qui est aussi une tension : faire cours de sociologie, c’est tenter d’ouvrir les yeux de ses élèves sur “l’illusion biographique” qui consiste à croire qu’on s’est fait tout seul, qu’on s’est choisi tout seul, que tout provient du mérite individuel. Une idéologie fort répandue, et fort confortable. En cela, la sociologie est une science du dévoilement, une science critique, assez désagréable mais pas inutile, tant elle met en évidence les déterminismes sociaux qui irriguent notre société. Un célèbre article du professeur de lycée Fabien Truong abordait ces questions difficiles : comment enseigner Bourdieu dans le 93 ?

Ainsi, les élèves qui me font face sont objectivement, au sens de Bourdieu, des élèves qui sont dominés socialement, économiquement, culturellement et scolairement. Non seulement, il va falloir parler de cette domination, la montrer et la démontrer, mais il s’agira en plus d’indiquer en quoi le rôle joué par l’école et par l’enseignement ne fait qu’accentuer des inégalités structurelles. C’est évidemment une position inconfortable et par ailleurs intenable pour l’enseignant. Le seul discours possible au quotidien est en effet le discours méritocratique car c’est le seul qui peut faire sens pour le professeur et pour les élèves. Si je commence à penser que mes cours sont inutiles et que mes élèves sont condamnés à l’échec, je ne fais plus cours. Si les élèves pensent que tout est déjà joué, alors ils ne travailleront plus.

La sociologie de Bourdieu nous pose donc un problème essentiel qu’il nous faudra résoudre en tant que classe : celui du sens de notre action.

Il pose aussi une question très concrète à l’enseignant : comment exposer sa thèse sans déclencher l’hostilité ou le mépris, qui seraient les deux faces d’une réaction attendue à l’expression de la « violence symbolique » latente dans le discours à venir et à tenir.

Critiquer la sociologie pour son déterminisme, c’est donc cela moi faire erreur sur la nature de la science (tout science causale est déterministe) et confondre jugement scientifique et jugement moral. En démontrant que l’école parvient difficilement à éliminer les inégalités sociales, le sociologue ne porte pas de jugement moral sur les capacités scolaires d’un fils d’ouvrier ni ne condamne par avance un destin individuel à l’échec. Car il faut tenir la tension : faire cours de sociologie, c’est aussi montrer qu’il n’y a jamais de déterminisme absolu, que le probable n’est pas le certain. Je reprends un exemple que j’avais abordé dans ma critique du livre de Bronner et Géhin :

Si seuls les catholiques pratiquants avaient voté en 2017, François Fillon aurait été élu dès le premier tour. Sur ce point, les statistiques convergent. On peut donc prédire assez facilement, au niveau macrosociologique, le vote des catholiques pratiquants de l’analyse de l’habitus catholique, de l’étude du capital culturel, religieux, symbolique et économique de ces populations, et du lien avec le projet, le programme et la personnalité de François Fillon. Pour autant, dire que le capital culturel des catholiques pratiquants porte un fort vote à droite pour François Fillon ne rend pas raison de toutes les opérations mentales qu’un catholique pratiquant réalise avant de se décider. En observant le résultat final (la majorité des catholiques pratiquants ont voté Fillon, donc Fillon est le choix des catholiques), le sociologue agrège une myriade de microdécisions individuelles, d’opérations mentales diverses et parfois contradictoires. Deux individus catholiques peuvent voter Fillon mais fort différemment : après avoir longuement hésité ou sans hésitation, avec enthousiasme ou avec défiance, par défaut ou par adhésion, par rejet ou par principe, etc. La phrase “l’électorat catholique vote Fillon” agrège artificiellement une myriade de microdécisions individuelles comme s’il y avait une entité abstraite, “le” catholique, ayant “un” habitus qui le fait voter Fillon. La sociologie, en mettant en évidence des déterminismes statistiques, n’exclue donc pas pour autant un libre-arbitre. Le sociologue ne juge pas des opérations mentales des individus.

Des sociologues de tradition bourdieusienne comme Bernard Lahire ont pu réussir à faire tenir libre-arbitre et déterminisme ensemble en expliquant que l’individu est pris dans des structures différentes et parfois contradictoires (socialisation contradictoire) et que, dès lors, “son stock de dispositions, d’habitudes ou de capacités ne sera pas unifié. Il aura en conséquence des pratiques hétérogènes ou contradictoires, variant selon le contexte social. C’est ce que l’on observe souvent lors de l’entrée en couple ou de l’apparition du premier enfant. Certaines femmes, qui avaient adopté le style de vie d’une femme « moderne » et « émancipée », retrouvent à cette occasion ce rôle traditionnel de la femme au foyer dont elles avaient incorporé les habitudes sans toujours s’en rendre compte. La même personne se trouve ainsi porteuse d’au moins deux schémas d’action domestique. En fonction du mode d’interaction instauré avec le conjoint, l’un des deux schémas est activé et l’autre mis en veille” (Lahire, 2010).

On peut donc faire l’hypothèse de l’incorporation, par chaque acteur, d’une multiplicité de schèmes d’action ou d’habitudes. Ce stock de modèles, plus ou moins étendu selon les personnes, s’organise en répertoires, que l’individu activera en fonction de la situation. (…) On a tendance à considérer, dans une société différenciée, l’homogénéité des dispositions de l’acteur comme la situation modale et la plus fréquente. Il nous semble qu’en réalité cette situation est la plus improbable et la plus exceptionnelle. Il est beaucoup plus courant en effet d’observer des individus porteurs d’habitudes disparates et opposées. L’homme pluriel est la règle plutôt que l’exception. (…) Tant que la sociologie se contentait d’évoquer l’acteur individuel à propos d’un champ de pratiques singulier, elle pouvait faire l’économie de l’étude des logiques sociales individualisées. Mais dès lors que l’on privilégie l’individu (non comme atome et base de toute analyse sociologique mais comme le produit complexe de multiples processus de socialisation), il n’est plus possible de se satisfaire des modèles d’action utilisés jusque-là. La sociologie psychologique, qui entend saisir l’individu sur des scènes et dans des contextes différents, prend à bras-le-corps la question de la réalité sociale sous sa forme individualisée et intériorisée. Bernard Lahire, 2010

La sociologie est utile

L’inutilité de la sociologie est je pense le point le plus facile à réfuter. La sociologie ne prétend pas que ses concepts centraux soient abscons. La socialisation, tout le monde comprend très bien ce que c’est. Parce que l’objet d’étude (le monde social) est assez large, et sa perception par le quidam immédiate. Comme on l’a vu, c’est précisément parce que l’objet d’étude du sociologue est “naturel” pour le quidam qu’il doit spécialement se méfier d’une sociologie trop spontanée. A l’inverse, les concepts centraux de l’économiste (mettons le prix, l’investissement, la croissance, le marché) ne sont pas spontanés. Sans avoir fait d’études d’économie, on ne peut pas vraiment les deviner ou les comprendre. D’autant que l’économie est aussi, avec le droit, la science des gouvernements : impossible de prétendre candidater aux élections présidentielles sans présenter un programme économique, sans avoir au moins quelques raisonnements d’économie. Ce n’est pas le cas avec la sociologie.

Au final, malgré toutes les critiques dont il peut faire l’objet l’économiste est “naturellement” perçu comme scientifique. Alors que ce dernier doit faire attacher une importance particulière pour ancrer la théorie dans la réalité des faits économiques, le sociologue au contraire doit s’attacher à se distancier des représentations spontanées du monde social, s’il veut parvenir à faire œuvre de science (cela n’oblige pas à écrire comme Bourdieu).

Donc, que les objets centraux de la sociologie soient spontanés n’est pas un problème tant que le sociologue est capable d’un certain niveau d’abstraction. En disant que nous sommes socialisés, le sociologue énonce des évidences ? Mais le sociologue ne se contente pas de dire que nous sommes socialisés ! Ce qui est intéressant, c’est de montrer comment ! Sinon, on pourrait faire exactement la même remarque qu’on a fait à Newton en son temps : monsieur Newton nous explique que les choses tombent, et l’on parle de révolution scientifique ! Newton n’explique pas que les choses tombent : il explique comment. Lorsque Stéphane Beaud écrit l’excellent article Les trois soeurs et le sociologue (2014), il ne se content pas de dire : une famille maghrébine transmet des normes et des valeurs à ses enfants. Derrière son analyse, il y a une explication détaillée du pourquoi et du comment. Comment l’école influence-t-elle les parcours scolaires des uns et des autres ? Quid du rôle du père ? de la mère ? Comment les normes et les valeurs transmises sont-elles différenciées entre garçons et filles, et quelles conséquences sur leur parcours ? Quid du contrôle social des filles ? Quelle expérience des discriminations ? Etc., etc.

Ainsi, la sociologie est fort utile et elle l’est d’autant plus qu’elle est une science fondée sur un haut niveau empirique. Car si la sociologie est parfois accusée d’être une prose militante, c’est parce que certains sociologues (qui en ont en tout cas les titres universitaires) se comportent en réalité comme des philosophes critiques (du type foucauldien), refusant de faire du terrain (exemple évident : Lagasnerie). Ils écrivent des proses entières de critique du Pouvoir, de l’Etat, une analyse des Classes, toujours avec des majuscules, car ils vont jamais dégrossir leurs concepts sur le terrain. Sans même parler d’une certaine sociologie américaine caricaturale (là encore, plus proche d’une philosophie militante), et caricaturée par les multiples canulars dans les revues postmodernes, de Sokal à la plus récente affaire des Grievance studies Hoax. Pourtant, une sociologie sans terrain est une sociologie morte, c’est une “absurdité sociologique” pour reprendre Passeron.

Ce qui fait la force de la sociologie, c’est qu’elle fonde ses affirmations sur un terreau empirique. N’importe quel philosophe du dimanche peut écrire une longue analyse larmoyante, énervée ou incisive sur “la perte des valeurs”, “la famille qui disparait”, “la demande de justice sociale qui monte des classes populaires”, le “sentiment de déclassement”, “l’ascenseur social”, “les conflits sociaux à répétition”, “l’atomisation du lien social”, “la domination” et autres choses du même genre. Mais seul le sociologue peut fonder ou infonder ces discours à partir d’une analyse de terrain, qu’elle soit quantitative ou qualitative. Le sociologue analyse la famille statistiquement, réalise des enquêtes européennes sur les valeurs de justice sociale, mesure le déclassement, étudie et classifie le lien social, quantifie la mobilité sociale, établit une typologie des conflits, discute les concepts de groupe et classes sociales, essaie de les mesurer, etc.

Enfin, la sociologie est aussi une science appliquée, qui se pratique (pas assez, à mon avis). Il existe des sociologues dans les entreprises, les écoles, les organisations. Chargés d’établir un diagnostic sur le harcèlement sexuel dans une entreprise, d’étudier une crise de gouvernance interne, de mesurer les migrations ou encore de mettre en évidence la façon dont les acteurs jouent avec les règles (exemple : les fameuses “zones d’incertitude” de Crozier). Même aux pouvoirs publics, cela est utile : les victimes de délits parlent plus facilement aux sociologues qu’aux policiers et les statistiques sociologiques sur la délinquance sont donc divergentes de celles publiée par la police.

Ecologie : l’innovation ou rien

crise ecologique

Ce n’est aujourd’hui un mystère pour personne que nous vivons une crise écologique sans précédent. Ses principaux traits sont l’épuisement des ressources non renouvelables, le réchauffement climatique, et l’effondrement de la biodiversité. A partir de là, trois grandes réactions se dessinent.

1. Pessimistes et collapsologues

Ils considèrent que c’est déjà trop tard. Sans ressources énergétiques, sans alimentation et avec un réchauffement intenable, nous allons vers l’effondrement généralisé : social, urbain, alimentaire, démographique, etc. On imagine alors un retour à un monde tribal et violent, marqué par les famines dignes de l’Europe à la fin de l’empire romain d’occident. A l’intérieur de ce discours on trouve tout le courant de la collapsologie, qui estime que l’urgence est de préparer un tel monde à venir, par exemple en créant de petites communautés de survie type monastiques avec potager, élevage, autosuffisance, sobriété de vie.

Tout ceci pose des questions évidentes. D’abord sur le plan du constat scientifique. Si la crise écologique n’est pas discutable, ses modalités et ses échéances le sont. Prétendre que l’effondrement est 1° forcément général 2° forcément certain 3° (surtout) datable à brève échéance, par exemple 10 ans, comme je l’ai entendu de la bouche de collapsologues, n’a rien de scientifique.

Forcément général ? Si on comprend l’idée qui consiste à globaliser la pensée pour prendre de la hauteur, sur le mode du “tout est lié”, le risque est de relier des phénomènes qui n’ont qu’un vague rapport entre eux. La pensée scientifique consiste par définition à isoler les causes et distinguer les concepts. Le concept d’effondrement de la biodiversité est scientifique. Le concept d’effondrement tout court, un effondrement “civilisationnel” qui inclurait toutes les dimensions de la vie humaine actuelle, relève plutôt de la mystique ou de la philosophie.

Forcément certain ? Datable ? Les scientifiques (à commencer par ceux du GIEC) modélisent différents scénarios, du plus dangereux au moins dangereux, en fonction des multiples paramètres imbriqués, parmi lesquels la technologie disponible, les émissions prévisibles, la capacité de la biosphère à en absorber une partie, les réactions humaines et les décisions politiques. Dès lors, il est discutable de prétendre que le scénario est écrit à l’avance et qu’il est datable à brève échéance. Avoir une démarche scientifique, c’est estimer sur la base d’arguments factuels la probabilité des scénarios A, B, C en fonction des paramètres X,Y,Z. Et montrer ce qui change si on fait varier un paramètre. Non pas affirmer que tous les paramètres étant déjà écrits, un seul scénario va se produire, dans N années. Voir par exemple cet article du Pharmachien (lien).

Enfin, à supposer que le constat soit exact (l’effondrement sera général, certain et rapide), cette vision ne peut pas définir un projet politique en 2019. Quelques individus motivés et volontaires peuvent sans doute créer ces sortes de communautés autosuffisantes qu’ils appellent de leur vœux (grand bien leur fasse !) ; mais cela restera des initiatives individuelles, et isolées. Vivre ainsi en communauté n’a rien d’aisé, tous les utopistes des siècles passés, du phalanstère de Fourrier aux plateaux du Larzac en passant par les sectes religieuses en ont fait l’amère expérience. Si les moines et les moniales, quant à eux, y réussissent plutôt bien, c’est parce qu’ils s’astreignent à des règles de vie très strictes, avec une organisation sociale hiérarchisée, et qu’ils sont portés par une foi commune qui ancre une solide conscience collective. Il y a quelques mois, j’ai regardé le film “Le Grand Silence”, superbe documentaire sur la vie des chartreux. Ils n’émettent pas beaucoup de CO². Mais ils vivent littéralement dans le dénuement, leur mode de vie n’ayant pratiquement pas changé depuis le Xème siècle. Soyons clair : ça ne fait rêver personne.

Alors, que faire pour survivre à la crise écologique ? Imposer le mode de vie monastique ? Soit une deuxième approche.

2. Une bonne dictature verte

Puisque c’est tout la société qui doit changer, et que l’approche volontariste ne suffit pas, alors il nous faut une bonne dictature verte. Le retour des kolkhozes. Cette position n’est évidemment jamais affirmée telle quelle par les écologistes radicaux, mais est implicite dans nombre de discours et de propositions.

Par rapport aux pessimistes, ces écologistes considèrent qu’il n’est pas trop tard si l’on prend les bonnes mesures énergiques qui s’imposent, c’est-à-dire si le pouvoir politique porte lui-même l’initiative radicale qui convient à la situation. En général, ces propositions tiennent en un mot : interdire.

Il faut interdire les trajets en avion intérieur et extérieur, ou bien avoir un nombre limité par personne ; interdire les centre-ville aux voitures (ou interdire les voitures tout court, d’ailleurs) ; interdire les objets en plastique ; interdire la publicité qui créé un besoin superflu ; interdire les pesticides ; interdire les constructions neuves pour limiter l’urbanisation ; interdire la chasse ; interdire d’arroser son jardin pour économiser l’eau, et interdire de le tondre pour favoriser les insectes. Interdire les dosettes de café, ça pollue, et interdire les croisières, ça pollue encore plus. Interdire la viande, bien entendu ! Interdire, interdire, interdire.

Il ne s’agit pas de discuter ici telle ou telle mesure, encore moins de dire qu’interdire n’est jamais une solution (parfois, c’en est une). Mais de constater qu’il existe un projet politique écologique basé sur l’instauration, petit à petit, d’une véritable dictature au nom de la survie de la planète. Une dictature qui sera basée sur un contrôle social étendu de toutes les dimensions de l’existence, et en particulier celle qui touche à la consommation, de façon à forcer chaque individu à adopter un mode de vie plus propre.

Ce projet sauverait-il la planète ? Sans doute. Mais on voit immédiatement qu’il n’a aucun avenir politique. Personne ne souhaite une dictature verte, même pour sauver la planète. Quand des milliers de personnes sont capables de se mobiliser pendant autant de mois, avec une telle force, pour défendre leur pouvoir d’achat et leur droit de rouler à plus de 80km/h sur les routes nationales non séparées d’un terre-plein central, autant dire que la dictature verte n’est pas pour demain.

Ce projet n’a pas d’avenir politique, et il est de toute façon non souhaitable. Si pour survivre, il faut renoncer à tout ce qui fait le sel de la vie, que vaut-il la peine de survivre ? Car consommer fait (aussi) partie du plaisir de l’existence. Quand on pense à la “société de consommation”, on imagine toujours la vision caricaturale du jeune cadre trentenaire qui change de téléphone tous les six mois. Mais consommer, c’est d’abord consommer des services, et in fine consommer de l’énergie, qui nous rend la vie hautement agréable : l’électricité, les transports (donc la mobilité), les loisirs, les voyages, internet, le chauffage, et tous les objets en plastiques dont nous nous servons quotidiennement : c’est un confort que nous avons accumulé au fil des siècles, et auquel il est très difficile de renoncer. Même quand on est convaincu de la nécessité, d’ailleurs ! Beaucoup d’écologistes militants qui tiennent un discours radical ont une empreinte écologique dix fois supérieure à la mienne, ne serait-ce que tous ces voyages en avion pour convaincre le peuple de l’urgence de la transition. Sans parler de ces présentations powerpoint faites avec un ordinateur dont la production et l’usage génère du CO² (horresco referens) pour montrer la gravité du problème, dans une salle chauffé (enfer !), de ces nombreux posts Facebook qui génèrent de la chaleur dans une ferme de serveurs californienne, etc. Ce n’est pas une surprise : il est beaucoup plus facile de discourir du changement que de se l’appliquer à soi-même, et si c’est déjà le cas des écologistes convaincus, que dire des non-convaincus ? On comprend que la thèse complotiste du “réchauffement climatique qui n’existe pas” fasse florès, elle permet de donner une assise pseudo-scientifique à une absence totale de changement de son propre mode de vie.

Ecrivant cela, je ne prétend nullement qu’il n’y a rien à faire sur le plan des décisions politiques en matière d’écologie. Bien au contraire ! Il faut souvent taxer, parfois interdire, beaucoup inciter. Mais je note que, selon les écologistes eux-mêmes, les demi-mesures ne seront pas suffisantes. Car la crise est déjà trop avancée. Aux dires même des spécialistes de la crise écologique, taxer le kérozène (mesure pourtant nécessaire) apparaît comme dérisoire vu les enjeux. Dès lors, il convient d’en tirer les conclusions qui s’imposent : une dictature verte ou la mort. Il est pour moi très clair que nos contemporains préfèreront la mort. Prétendre le contraire, c’est se leurrer gravement sur notre attachement à notre confort, et oublier que nous vivons dans des sociétés où le processus d’individualisation a atteint un aboutissement inégalé : tout le monde pense aujourd’hui son rapport au monde en fonction de sa propre vie et de ses propres convictions. Il paraît alors inenvisageable à chacun d’imaginer laisser l’Etat avoir un droit de regard aussi radical et extensif sur mon choix de consommer tel ou telle chose au nom d’un hypothétique but collectif, alors que la pensée même d’appartenir à un collectif en hérisse la majorité. Nous sommes attachés aux libertés individuelles. Et nous ne sommes pas des chartreux.

3. L’innovation ou rien

Si le projet collapsologique de petites communautés autosuffisantes restera marginal, et si la dictature verte est impossible, et puisqu’on ne peut pas éviter la crise écologique, alors c’est l’innovation ou rien.

Innovation est un grand mot qui peut désigner bien des choses. Pour aller vite, distinguons après Mensch (1975) l’innovation fondamentale, motrice des cycles économiques et la croissance par “destruction créatrice” (Schumpeter), et la pseudo-innovation, simple différenciation marketing qui ne fait que retarder la saturation des marchés. D’un côté, l’électricité ou internet, de l’autre le dernier iPhone. De Schumpeter à Solow et de Samuelson à Romer, des générations d’économistes ont modélisé et approfondi la question de l’innovation pour comprendre pourquoi elle était aussi importante dans la croissance : pour aller vite, résumons en disant qu’elle produit une amélioration de la productivité, donc de l’efficacité avec laquelle nous utilisons les ressources dont nous disposons (capital et travail), ce qui nous permet de nous enrichir et en même temps de travailler moins.

Analyser le rôle de l’innovation dans la croissance est une chose, se risquer à prédire l’avenir en est une autre. C’est une partie essentielle de la science, mais un art ô combien difficile. Du point de vue économique, il est très difficile de prédire si nous allons vers un nouveau régime de croissance forte porté par des innovations fondamentales, ou si, au contraire, nous sommes entrés dans l’ère de la stagnation séculaire.

D’un côté, des économistes “néo-schumpétérien” comme Philippe Aghion, pour qui de nouvelles phases de fortes innovations sont déjà enclenchées. Si elles ne sont pas encore visibles, c’est qu’on sait mal mesurer l’innovation d’un point de vue comptable. Quand un nouveau produit sort, il est généralement plus cher, si bien qu’on enregistre dans un premier temps une simple inflation avant de constater la différence de qualité. Plus l’innovation est forte, plus l’inflation est surestimée. Quelles innovations seraient alors censées nous sauver la mise ? On peut penser aux innovations suivantes (liste non exhaustive) : la généralisation des voitures électriques ou hybrides, des modes de transport plus efficaces et plus propres (BHNS, bus électriques), le tout alimenté par de nouvelles sources d’énergie, en partie renouvelables et surtout portées par la fusion froide, une diminution du C0² émis par unité de PIB en raison d’une meilleure isolation des logements, de la généralisation de pompes à chaleur dernier cri, le développement de l’économie circulaire, du recyclage, de l’autopartage et du partage de biens en général, la génération et l’amélioration de puits de Co², le pétrole de synthèse, l’agriculture urbaine, etc.

En quoi ces innovations résolvent-elle la crise écologique ? Parce qu’elles conduisent à découpler la croissance de l’énergie. Ce découplage (qui restera toujours relatif) est absolument nécessaire à la diminution de l’empreinte écologique de l’espèce humaine. Comme le montre le montre Alain Grandjean dans un article absolument indispensable (lien), ce découplage est en réalité déjà engagé. Grandjean montre que l’efficacité énergétique pour chaque dollar de PIB s’améliore depuis des décennies. En terme d’économie bas-carbone, nous faisons déjà beaucoup mieux que nos parents. Mais sommes nous assez rapides ?

Ralentissement récent de la réduction du ratio Energie/PIB (en base 100)

Source : Grandjean.

Loin de cet optimiste, les économistes tenant de la stagnation séculaire (Gordon en tête de file) estiment que les innovations contemporaines ne sont pas assez fondamentales, pas assez génératrice d’emplois, et/ou ne seront pas assez rapides compte tenu de l’urgence écologique. Pas assez fondamentales, car entre inventer l’électricité et inventer Facebook, tout le monde voit bien ce qui change le plus la vie. Les innovations modernes ne seraient pas à même d’enclencher des cycles économiques, car elles ne bouleversent pas suffisamment les modes de production. Pas assez créatrices d’emploi, car les innovations modernes sont fortement marquées par l’immatériel : Facebook ne produit rien de tangible et repose entièrement sur le capital coordonné par quelques salariés de haut niveau. Dès lors, la croissance qui en résulte est fortement inégalitaire, ses bénéfices vont à quelques ultraqualifiés et aux possesseurs d’actifs du type brevets. Tout le reste est produit par des robots. C’est la principale leçon de Haskell et Westlake (2018) : nous allons vers un “capitalisme sans capital” fortement inégalitaire, le cas le plus criant étant celui des Etats-Unis. Pas assez rapides, enfin, car les innovations qui arrivent se diffusent trop lentement et les principaux pays émetteurs de Co² ne sont pas nécessairement les pays qui avancent le plus vite : la Chine étant le meilleur exemple. Principal émetteur de la planète, ce pays ne se développe pas aussi mal que l’Angleterre du XIXème, mais est encore loin du compte : plus de 60% de l’énergie consommée en Chine provient encore, à ce jour, du charbon.

Encore une fois, il est difficile de trancher cette question qui relève par définition de la futurologie. En réalité, si la tâche de l’économiste peut être d’étudier les conséquences de telle ou telle innovation, notamment sur l’emploi, ou encore de réfléchir au meilleur moyen de soutenir l’innovation et l’investissement notamment dans les nouvelles énergies (crédit d’impôt recherche ou investissements publics, crédits bancaires ou capital-risque) ou de réduire les externalités négatives induites par la pollution (normes, taxes ou marché de quotas…), la question plus fondamentale de la création future des innovations relève plutôt de l‘analyse de l’ingénieur. Economiste, je ne suis absolument pas qualifié pour dire si le projet ITER sera rentable énergétiquement à moyen terme, même si je vois bien tous les apports potentiels de la fusion froide. En tout cas, Joseph Schumpeter, le premier à avoir sérieusement étudié l’innovation comme moteur du capitalisme, était plutôt pessimiste : dans les années 1920, il estimait que la gestion bureaucratique des grandes organisations engendrerait une réduction de la place de l’entrepreneur-innovateur et donc de la prise de risque, entrainant à terme une disparition de l’innovation.

Conclusion

Je ne sais pas si nous allons sauver la planète, ou plutôt si nous allons nous sauver nous mêmes, car la planète survivra. Car je ne sais pas si les innovations dans 30 ans seront assez radicales et assez rapides pour cela. De plus, “crise écologique” est un terme générique qui désigne des choses très différentes, avec des dimensions quantitatives (l’épuisement des ressources), qualitatives (le réchauffement climatique) ou les deux (la perte de biodiversité), et qui appellent des réponses différentes. Par exemple, la grande peur de manquer de pétrole apparaît aujourd’hui plutôt dépassée : les technologies d’extraction ayant beaucoup évolué, les réserves ont augmenté, et l’on sait aujourd’hui qu’on ne va pas manquer de pétrole à moyen terme. Le problème beaucoup plus urgent est celui du réchauffement climatique, qui nous interdit de brûler celui dont on dispose !

Cependant, je suis persuadé que nous n’avons d’autre choix que d’innover, d’innover plus, plus vite, et d’innover encore. Les écologistes n’adhèrent généralement pas à ce discours, pour deux raisons à mon avis :

  • ils considèrent, dans une perspective pessimiste, que les innovations modernes sont avant tout cosmétiques, et donc présentent une logique de “greenwashing” (ce qui n’est vrai que pour certaines : le greenwashing existe, les vraies innovations aussi) ;
  • ils estiment plus fondamentalement que l’innovation ne fait que poursuivre la logique générale du système capitaliste de consommation, alors qu’il faudrait en changer.

Ce en quoi je suis parfaitement d’accord : en écrivant “l’innovation ou rien” je suis parfaitement conscient que je ne cherche aucunement à bouleverser le système. Mais c’est précisément pourquoi j’ai écrit les deux premières parties de cet article : “bouleverser le système” ou “renoncer à la société de consommation” n’est rien d’autre qu’un terme pour “dictature verte” (si c’est imposé par les pouvoirs publics) ou “collapsologie” (si ça vient de la société civile). Dans ce dernier cas, c’est déjà possible, et rien ne vous empêche de vous mettre à la vie monastique. Cela restera marginal. Parce qu’il est facile de tenir de grands discours sur le renoncement à la société de consommation et le “bonheur dans la sobriété” ; plus difficile de renoncer soi-même à des décennies de confort. En réalité, nous faisons déjà (presque) tous des efforts : plus ou moins importants en fonction de nos convictions et de nos possibilités, certes, mais l’écologie imprègne désormais, dans les pays développés du moins, toutes nos décisions d’achat. Seulement, rappelons que pour respecter l’accord de la COP21, ce n’est certainement pas quelques légumes dans son jardin et aller au travail en vélo qui suffiront. Le smicard français émet déjà beaucoup trop de Co². Il vous faut renoncer à l’essentiel de vos transports, de votre chauffage, de vos appareils de loisirs. On parle de revenir au mode de vie “propre” du XVIIème siècle, où l’agriculture nourrissait grosso-modo 800 millions d’êtres humains. Que fait-on du surplus ? Seule l’innovation peut permettre de conserver au moins une part de ce confort acquis tout en préservant la planète.

Il est certain que la course à l’innovation implique parfois des produits absurdes, comme ces mini-drones chinois censées remplacer les abeilles disparues. Cependant, ce serait exagéré de réduire toutes les innovations à cela. Parce que la dictature verte n’est pas une option, parce que le retour à la vie monastique n’est pas engagé, parce que la crise écologique est bien réelle : c’est l’innovation ou rien.

Faut-il baisser les dépenses publiques ?

« Nous dépensons 57% de notre PIB en dépenses publiques ».

Le chiffre a plusieurs fois été évoqué par Macron et le gouvernement pour justifier, désormais dans le cadre du « Grand Débat », la baisse des dépenses publiques (jugée urgente). Le chiffre est exact (57% du PIB, c’est 1250 milliards environ) mais il y a pas mal de remarques à faire avant d’en inférer qu’il est urgent de diminuer le nombre de fonctionnaires.

1. On a 1250 milliards de dépenses publiques. Sur ces 1250 milliards, il y a 800 milliards de Sécurité sociale. Le budget de la Sécu sera en 2019 (pour la première fois depuis 18 ans) en excédent, et les frais de gestion sont très faibles, de l’ordre de 5%. Donc on a déjà 760 milliards qui repart directement dans les poches des Français. Viennent ensuite les aides sociales (au sens strict, c’est-à-dire les minimas sociaux) versés par l’Etat. Le poste de dépenses est d’environ 25 milliards pour une dizaine d’allocations, dont près de la moitié pour le RSA. Soit 760 + 25 = 785 milliards, soit plus de 60% (785/1250 = 62.8%) des dépenses publiques qui est directement redistribué aux Français. Il faudrait affiner avec les collectivités locales mais c’est un ordre de grandeur. Premier point, donc : le chiffre des 57% du PIB en dépenses publiques représente beaucoup plus une estimation de la redistribution (argent qui *transite* par l’Etat) qu’une estimation du coût de l’Etat, comme certains éditorialistes (et le gouvernement) le sous-entendent. En réalité, plus de 60% de cet argent « dépensé par l’Etat » est dépensé par les Français comme ils l’entendent. Ce montant peut être diminué, certes, mais cela signifie amoindrir la redistribution, au détriment des plus pauvres qui en bénéficient.

2. Reste les 40%, soit 500 milliards qui ne sont pas directement redistribués. C’est peut être là que se concentrent les critiques libérales, insistant sur les 5 millions de fonctionnaires en France (1/5ème de l’emploi, record de l’OCDE), sur le poids de l’Etat et de la bureaucratie. Là encore cependant, plusieurs remarques sont nécessaires pour prendre du recul. La quasi-totalité de cet argent (tout, moins les intérêts de la dette de 45 milliards soit environ 455 milliards) finance des services publics, soit en payant des agents (fonctionnaires et assimilés) soit par des dépenses d’investissement et de fonctionnement. Il y a donc deux grandes questions.

3. La première question est : peut-on se passer du service public untel ? Il est aisé de clamer qu’il faut baisser les dépenses publiques, il est beaucoup plus difficile de déterminer ce dont il faut se passer. Moins d’infirmières, moins d’enseignants ou moins de juges ? Ou peut être moins de policiers ? C’était l’un des arguments d’Olivier Passet (Xerfi) : si l’on compare non pas le nombre de fonctionnaires mais les emplois utilisés pour chaque fonction (police, justice, éducation…), indépendamment du statut, la France se situe dans la moyenne basse de l’OCDE, loin derrière l’Allemagne ou encore le Royaume-Uni et même les États-Unis. En gros, les autres pays utilisent encore plus d’agents pour les services publics, mais ils ont moins souvent un statut de fonctionnaires. Ce qui explique le paradoxe de la France, avec à la fois beaucoup de fonctionnaires par habitant mais pas plus de médecins ou d’enseignants. De quoi peut-on se passer ? Il y a de bonnes chances que la réponse soit pas grand chose, à part sans doute quelques coûteux comités Théodule (genre le CESE et autres Haut Conseil machin). C’est déjà ça, mais ce n’est rien qui nous ferait économiser des milliards et permettrait de baisser massivement l’impôt, comme le prétend le gouvernement.

4. De plus, à supposer qu’on identifie ce dont on peut se passer (mettons, les emplois de fonctionnaires territoriaux), il est difficile, concrètement, d’identifier les services/emplois à supprimer. Cela nécessite de disposer d’une bonne information sur la productivité de chaque service : de nombreux travaux de sociologues et d’économistes ont montré que dans une grande bureaucratie (c’est vrai aussi dans une grande entreprise) c’est extrêmement difficile. Cela tient à la structure très hiérarchique de telles organisations et à l’absence de bonne diffusion de l’information. On ne touche pas à certains salariés, mêmes incompétents. Selon le principe de Peter, tout employé compétent est promu au niveau hiérarchique supérieur jusqu’au point où il atteint son seuil d’incompétence ; les employés incompétents n’étant jamais rétrogradés et rarement virés, un ministre qui voudrait « réduire les dépenses » a toutes les chances de ne pas réduire les bonnes.

5. Deuxième question : un service qui nous est utile serait-il plus efficace/moins cher s’il était privatisé ? On garde le service mais on fait appel au privé au lieu d’embaucher un fonctionnaire. Si une commune embauche un cantonnier pour ramasser les poubelles, ce sera comptabilisé en « dépenses publiques + fonctionnaires » ; si, comme en Allemagne, elle fait appel à une entreprise privée, cela sera une dépense publique mais il n’y aura pas d’embauches de fonctionnaires car il s’agit de sous-traitance. Qu’est-ce qui est préférable ? Qu’est-ce qui est le plus rationnel ? Contrairement aux idées reçues sur les économistes qui défendraient systématiquement le marché, la réponse académique (ici, l’économie des organisations, et notamment les travaux de Coase et Williamson) est « ça dépend ». Ça dépend essentiellement de trois critères : spécificité des actifs (est-il facile de trouver un individu ayant les compétences de cantonnier sur le marché du travail ? puis-je trouver une autre entreprise qui sait fabriquer une centrale nucléaire ? etc.), de la récurrence de la relation (ai-je besoin d’un cantonnier ponctuellement ou en permanence ?) et enfin de la possibilité de comportements opportunistes. Le comportement opportuniste, c’est le risque que la personne, avant la signature d’un contrat, biaise l’information (même involontairement) car elle détient une information que le co-contractant n’a pas (asymétrie d’information) ; ou après la signature du contrat, ne mette pas toute l’énergie attendue par le co-contractant en cherchant son intérêt à court terme (risque d’aléa moral). On pourrait ajouter en quatrième critère le poids des coûts fixes qui fait qu’il est parfois préférable d’avoir un monopole public pour éviter un monopole privé, qui fera la même chose plus cher : c’est le cas des autoroutes par exemple.

6. Quelques exemples. Comme l’a rappelé Loïc Steffan, le système de santé français, largement public, est bien plus efficace que le système américain quand on compare à la fois les résultats et le coût. Les Américains soignent proportionnellement moins de personnes pour un coût plus élevé. C’est parce que la santé est un secteur où les comportements opportunistes peuvent être nombreux : seul l’assuré connaît bien son état de santé, l’assureur le connaît mal. Si le secteur est privé, les compagnies d’assurance vont dépenser des sommes folles en bureaucratie pour éviter les patients malades en leur faisant faire de nombreux check up de santé avant des les accepter comme clients, en rendant les contrats difficiles à comparer, en faisant payer des franchises (un américain qui veut entamer une chimio appelle d’abord son assurance pour savoir combien il paye de sa poche, surprise), et en élevant les primes moyennes. On voit alors émerger un système artificiellement coûteux et inefficace où, à l’extrême, les personnes en bonne santé ne veulent pas payer pour une assurance qu’elles jugent trop chère et où celles en mauvaise santé ne sont pas couvertes : c’est la sélection adverse. Le moyen de réduire l’asymétrie d’information est d’universaliser le système (ce qui dilue le risque sur l’ensemble des citoyens), de rendre l’assurance obligatoire (pour éviter que les personnes en bonne santé refusent de payer pour les malades), et de centraliser les informations et la gestion des dossiers : c’est exactement ce que fait la France avec la Sécurité sociale et aux dernières nouvelles ça marche très bien.

Inversement, pour reprendre l’exemple du cantonnier, supposons un fort aléa moral, une relation peu récurrente et des actifs peu spécifiques. Autrement dit, une commune qui n’a besoin que d’une mission ponctuelle, qui sait qu’elle pourra facilement trouver une personne sur le marché du travail qui dispose des qualifications nécessaires et qui ne peut que mal contrôler le travail du cantonnier : elle a alors tout intérêt à faire appel à une entreprise privée qui se chargera des espaces verts plutôt que d’embaucher un fonctionnaire payé même en l’absence de travail, qui pourra avoir une productivité faible, n’ayant aucun risque de perdre son emploi quelle que soit la qualité de son travail (aléa moral). Cela implique cependant de bien rédiger les contrats (coûts juridiques) car l’entreprise privée ne fera pas ce qui n’est pas prévu dans le contrat. C’était l’exemple que prenait Delaigue avec l’entreprise qui estime qu’il n’est pas dans son contrat de chasser les guêpes du conteneur à verres.

Conclusion

Les 57% de dépenses publiques se répartissent grosso-modo entre 35% de redistribution (c’est donc en réalité de la dépense privée qui *transite* par les pouvoirs publics) et 22% de service publics. On peut toujours améliorer la redistribution, mais on voit mal ce qui permettrait de diminuer beaucoup ce poste. Un exemple classique est le cas des retraites. La France a un régime de retraites par répartition public donc les retraites sont intégrées dans les 57% de « dépenses publiques ». C’est quasiment un tiers du budget de la Sécurité sociale, environ 220 milliards. Si on voulait « économiser » sur ce point, ce serait forcément en baissant les pensions, au profit de régimes privées, qui n’ont nullement fait la preuve de leur efficacité, bien au contraire dans le cas des États-Unis.

Reste les 22% de services publics. On peut toujours trouver des secteurs où le privé ferait mieux et moins cher. La concurrence a fait la preuve de son efficacité dans nombre de domaines, mais loin s’en faut que ce soit dans tous. Personne ne souhaite aujourd’hui revenir au temps du monopole public de France Télecom et autres PTT quand on voit le bien que la stratégie agressive de Free a fait sur la facture moyenne de téléphonie et sur l’innovation dans le secteur. Les arguments montrent également qu’une mise en concurrence des trains via un système d’appel d’offres (enchères) produirait un service plus efficace pour le même prix. En revanche, dans le cas de la santé, le système française se révèle plus efficace que le système américain tout en étant moins cher. C’est quasiment du cas par cas et c’est complexe. Loin d’une approche idéologique à base de « il faut baisser les dépenses publiques parce qu’il le faut ».

De quoi le salaire est-il le signe ?

Un nouveau travail dans la catégorie “agrégation”.

L’étymologie du mot « salaire » renvoie au sel, qui fut pendant longtemps une denrée rare et précieuse car c’était le seul moyen de conserver les aliments. Celui qui reçoit une solde (le soldat) perçoit du sel (un salaire). Dans le sens moderne, le salaire désigne la rémunération que reçoit un salarié en échange de son travail. Cette rémunération se fait aujourd’hui sous forme de monnaie fiduciaire et non plus en échange de denrée.

Lire la suite

Cinq commentaires sur les Gilets Jaunes

 gilet-jaune

Même quand on connaît la tradition de violence urbaine des Français, les images de Paris en feu impressionnent. On atteint une crise paroxystique qui s’installe dans la durée. J’ai le sentiment que la dernière fois qu’on avait connu une telle violence, c’était en 2005. Bien sûr ce n’est pas le premier mouvement social avec une dimension violente depuis 2005. Mais les précédents étaient très spécifiques, centrés sur le retrait d’une loi ou d’une mesure. Ils ne touchaient que les publics concernés, et la démobilisation était assez rapide une fois la mesure retirée (écotaxe en 2013) ou confirmée (loi travail, Parcourssup, mariage pour tous,…). La seule exception est peut être Nuit Debout mais le mouvement était trop parisiano-centré et idéologiquement marqué pour concerner les classes moyennes et populaires. Là, on a un mouvement vraiment populaire avec une conjonction de colères qui explosent. Lire la suite