Le libéralisme aujourd'hui

Abstract. French renowned economist Henri Lepage is interviewed by independent journalist Grégoire Canlorbe on a variety of topics, including the precautionary principle, prudential regulation, the TBTF problem, Vilfredo Pareto's business cycle theory, and the place of the division of labor in free-market economics. He also develops the current promising rebirth of heterodox Austrian economics through the work of the Bank for International Settlements's economists.

PREMIERS PROPOS

  Grégoire Canlorbe : Votre ambition dans les divers essais que vous avez écrits au cours de votre carrière, a été notamment de montrer que le libéralisme, comme idéologie prétendant régir la vie en société, se fonde sur des arguments proprement scientifiques, dont la plupart ont été conçus au XXème siècle. Ce projet est particulièrement net dès vos trois premiers ouvrages Demain le capitalisme, Autogestion et capitalisme, et enfin Demain le libéralisme, parus au tournant des années 1970 et 1980.

  Henri Lepage : Mon ambition, quand j'ai écrit ces livres, n'était pas exactement celle que vous décrivez. Elle était beaucoup plus modeste. C'était celle d'un journaliste économique, dont le sujet n'était pas seulement de tenir la chronique de l'actualité économique du jour, mais qui s'intéressait aussi et beaucoup à l'évolution des idées, en particulier dans les milieux universitaires. C'est ainsi qu'à l'époque où j'étais à la revue Entreprise, je m'étais notamment fait connaître par une série d'interviews demandant à de jeunes professeurs ou chercheurs de talent de m'expliquer en termes suffisamment simples ce qu'il y avait de neuf en matière de théorie économique. Dans ces temps-là (début des années 1970) ce genre de reportage n'était pas très courant.

La rédaction de mon premier livre – Demain le capitalisme, paru en 1978 – s'est placée dans une complète continuité avec cette activité de journaliste. Il s'agissait fondamentalement d'un reportage d'idées sur les travaux d'universitaires américains dont les analyses et les conclusions renouvelaient le débat politique en donnant un sérieux coup de jeune à des idées libérales qui, à l'époque, paraissaient appartenir définitivement au monde du passé.

Je tiens à souligner que le sujet de mes premiers livres n'était pas le libéralisme en soi. Mon propos était, d'abord, d'attirer l'attention du public français sur le fait qu'aux Etats-Unis la science économique était alors le théâtre de progrès, et même de bouleversements considérables au point que ceux qui avaient quitté les facultés quinze ou vingt années plus tôt se retrouvaient désormais avec un stock de connaissances totalement dépassées ; ensuite de montrer comment ces nouveaux apports de la théorie économique confortaient les idées libérales et permettaient de renouveler le débat idéologique en leur conférant une capacité offensive nouvelle face à la déferlante des idées anti-économiques et anti-libérales qui, à l'époque, s'installaient en maîtres dans les universités et à travers les médias. De ce point de vue, je crois que je n'ai pas lieu d'être déçu de ce qui s'est passé par la suite, même si j'ai souvent le sentiment qu'en matière de connaissance du libéralisme et des idées libérales il nous faut aujourd'hui quasiment tout reprendre à zéro. Mais la multiplication du nombre de sites et de blogs libéraux sur internet montre que ce travail n'a pas tout à fait été en vain.

Grégoire Canlorbe :  Aux antipodes d’une conception exclusivement « moralisante » du libéralisme, qui réduirait celui-ci à un discours vain et lénifiant sur le caractère sacré de la personne humaine et de sa propriété privée, Walter Lippmann insistait lui aussi dans son ouvrage de 1937, La Cité libre, sur la dimension proprement cybernétique de la doctrine libérale : plus précisément, son approche théorique des mécanismes d’autorégulation opérant au sein de la division du travail de plus en plus étendue qui caractérise le mode de vie de l’humanité depuis le milieu du XVIIIème siècle.

  « Le libéralisme, écrit-il, a pour premier principe que le marché, régulateur primordial de la division du travail, doit être conservé et perfectionné. Le libéralisme a eu pour mission historique de découvrir l'importance de la division du travail ; sa tâche, encore inachevée, est de montrer la meilleure façon d’adapter la loi et la politique à un mode de production dans lequel le travail humain est spécialisé, et qui rend en conséquence les individus et les sociétés de plus en plus dépendants les uns des autres dans le monde entier. La philosophie libérale est basée sur la conviction que, sauf en cas de danger ou de guerre, l’autorité, publique ou privée, est incapable de bien régler la division du travail, que le mode de production inauguré il y a cent cinquante ans est par essence une économie marchande, que par conséquent le vrai progrès consiste non pas à gêner ni à supprimer le marché, mais à le conserver et à l’améliorer."

  Comment évalueriez-vous les vices et mérites de cette définition au regard de l’évolution postérieure des arguments économiques et philosophiques du libéralisme ?

Henri Lepage : Je suis quelque peu inquiet de la manière dont votre question est rédigée. Vous présentez le libéralisme comme « une idéologie prétendant régir la vie en société »... En réalité le libéralisme ne prétend rien. Et surtout pas « régir la vie en société ». Vous tombez dans les travers du sociologisme. Les libéraux prétendent seulement que plus une société est complexe plus il est essentiel de s'en remettre aux effets cybernétiques de la liberté individuelle (Hayek) – pas seulement ceux de la division du travail évoqués dans votre citation de Walter Lippmann.

Cette citation est très datée. Elle me fait l'effet d'un discours très paléo-libéral. Pourquoi ? Parce que, comme chez tous les libéraux de cette époque, le libéralisme y est conçu exclusivement par rapport à l'organisation de la production des biens matériels. Or le libéralisme, c'est beaucoup plus que cela : une philosophie globale de la liberté individuelle comme fondement du vivre et réussir ensemble (et pas seulement du produire ensemble). Bien sûr que le marché est au cœur de la doctrine libérale. Mais il n'est que la concrétisation dans l'ordre productif du principe lockéen que c'est dans la liberté des contrats et la libre expression juridique des volontés, et non dans une autorité organisatrice, que s'ancre l'aptitude des êtres humains à progresser collectivement (si, bien sûr, vous croyez encore à cette idée de progrès !).

Ramener tout le libéralisme à la seule dimension de la division du travail, comme l'écrit Lippmann, est abusivement réducteur. Le libéralisme d'aujourd'hui ne se réduit pas à un économisme de type hobbésien. C'est aussi, et à titre égal, pas seulement subsidiaire, une philosophie du droit et de l'action humaine que, par un étonnant détour de l'histoire, on redécouvre aujourd'hui grâce non pas aux juristes (convertis à la doctrine du positivisme juridique : « le droit c'est la loi, point barre... ») mais aux recherches et travaux innovants de ces économistes spécialistes de la microéconomie dont j'ai entrepris de révéler l'existence au grand public dans mes livres des années 1980.

LE PRINCIPE DE PRECAUTION CONTRE LE DROIT

  Grégoire Canlorbe : Précisément, vous ne faites pas mystère de vos griefs envers le principe de précaution que vous assimilez à un principe de subversion du langage et de la pratique juridique, ébranlant les fondements mêmes de la société de droit. À mesure que son influence s’étend, le principe de précaution pourrait bien nous faire revenir subrepticement à « la civilisation du bouc émissaire ». Pourriez-vous revenir sur cette mise en garde ?

  Henri Lepage : Il s'agit d'un problème essentiel, tellement important que malheureusement il est impossible de faire l'économie d'une explication circonstanciée.

Le fait fondamental est la tendance de notre droit de la responsabilité civile à abandonner, depuis la fin du XIXème siècle, la faute comme critère moral d'incrimination et y substituer la notion moderne de responsabilité collective. Quelles en sont les conséquences ?

Tout accident est la conséquence d'une chaîne de causalités qui, à la limite, peut être presque infinie. Chaque accident est le produit d'une chaîne causale qu'on peut reconstituer, si on veut, jusqu'au Big Bang qui a donné naissance à notre univers. Si un gosse, un jour de 14 juillet fait éclater un pétard qui met le feu à la grange du maire, pourquoi ne pas remonter jusqu'au Chinois qui a inventé la poudre il y a plus d'un millier d'années ? N'est-ce pas à cause de son invention qu'un tel événement a pu se produire ?  Pour que la responsabilité soit un concept utile, il faut interrompre cette chaîne des causalités quelque part, et disposer pour cela d'un critère. Dans la traduction occidentale du droit, ce critère est celui de la faute – que celle-ci s'apprécie en fonction d'attributs objectifs comme le meurtre ou l'invasion de propriété, ou qu'elle résulte d'une évaluation subjective des faits de nature jurisprudentielle. La théorie de la faute permet de s'arrêter à un maillon de la chaîne en donnant à ce maillon une signification morale. La faute est dès lors considérée du point de vue juridique comme la fin de la chaîne. Toutes les causes précédentes sont alors effacées et deviennent invalides.

Que se passe-t-il lorsque l'on élimine la faute comme condition de la responsabilité ? Tous les maillons de la chaîne reçoivent la même qualification morale. Pourquoi s'arrêter là plutôt qu'ailleurs ? Pourquoi s'en tenir au gosse et ne pas condamner l'inventeur chinois ? Pourquoi pas le maire qui a "omis" d'interdire les pétards à moins de 50 mètres de toute habitation ? Pourquoi pas 500 mètres ? (Ce serait encore plus sûr). Pourquoi ne pas les interdire totalement ? Dès lors qu'il manque ce critère moral, il n'y a plus qu'une solution : c'est au législateur qu'il appartient de choisir, et de décider sur les épaules de qui retombera le devoir de responsabilité. Le législateur devient celui qui distribue le risque par décret. On passe dans un nouveau type de régime juridique où une certaine activité se trouve légalement qualifiée comme risquée et un certain acteur dans le déroulement de cette activité est purement et simplement désigné comme l'auteur du risque, et donc comme coupable, chaque fois que l'accident se réalise. La responsabilité ne devient plus qu'un terme générique pour toutes sortes de distributions de risque imposées par les autorités politiques.

Une telle évolution est profondément dommageable. Pour deux raisons. La première tient à ce qu'elle introduit dans le domaine de la responsabilité civile un élément inévitable d'instabilité, contraire à la tradition du droit, et à la fonction même du droit. Si c'est le législateur qui décide de la répartition des risques, ce qu'une législature fait, pourquoi la prochaine ne le déferait-elle pas, si la majorité des citoyens ont entretemps changé d'avis ?

Grégoire Canlorbe : La seconde raison ?

Henri Lepage : Elle est tout simplement que le choix du législateur ne peut qu'être arbitraire (puisqu'il n'y a plus l'élément "moral" qui permet de faire le tri entre les différents niveaux de causalité possible). L'attribution du risque va se faire en fonction de critères "politiques" dominés par des processus de lobbying. Le fait que celui-ci plutôt que tel autre soit désigné comme "responsable" — du moins aux yeux de la loi — sera d'abord et avant tout le reflet d'un rapport de force politique.

On deviendra "responsable" non pas en fonction d'une conception morale fondée sur des valeurs universelles ayant subi le test d'une longue histoire philosophique et jurisprudentielle, mais parce qu'on se trouve, à une certaine époque, dans des circonstances que l'on ne contrôle pas, plutôt du mauvais côté du manche. Question de malchance ! Et si c'est de la malchance, la responsabilité est donc un paramètre sur lequel, à l'envers de toute la tradition philosophique et juridique sur laquelle s'est fondé le développement de l'Occident, je ne peux avoir aucune influence. Je dois m'y soumettre comme à toute fatalité. C'est quelque chose qui m'échappe, qui m'est totalement extérieur. Voilà revenu le "fatum" de l'Antiquité ! Exit l'idée même de "responsabilité individuelle", l'idée que les hommes conservent une certaine part de contrôle sur leur destinée, que l'exercice de leur "responsabilité civile" est précisément l'un des éléments les plus importants de ce contrôle moral sur leur vie.

On passe dans un autre univers. Un univers qui conduit directement à une pratique de la responsabilité conçue comme un instrument mécanique de contrôle social : il s'agit de susciter chez l'individu les bons stimuli — comme pour les souris de laboratoire — de manière à lui inculquer les bons réflexes, ceux qui sont nécessaires à la réalisation des plans formés par le législateur. Le communisme a vécu, mais le socialisme, lui, est loin d'être mort ! Avec une telle évolution du droit il s'installe plus que jamais au cœur même de nos esprits.

Une troisième conséquence du passage à une conception "objective" de la responsabilité est d'instiller la discorde, le conflit au cœur même des rapports juridiques, alors qu'en toute logique la fonction du droit est au contraire d'être un facteur de concorde. C'est la raison pour laquelle les juristes — du moins les bons, les vrais — insistent sur l'exigence de stabilité des règles de droit. Dès lors que la décision du législateur de faire retomber le risque sur une catégorie particulière d'individus ne peut plus s'expliquer par référence à des valeurs morales stables, il est normal qu'elle soit ressentie comme arbitraire, et donc contestable par ceux-là même qui se sentent ainsi visés. Le droit perd sa fonction fondamentale de cohésion, pour devenir un instrument de politisation généralisée de la société.

C'est dans cette perspective de dégradation fondamentale du droit qu'il faut replacer le problème du principe de précaution.

Grégoire Canlorbe : C'est-à-dire ?

Henri Lepage : Par définition, le principe de précaution découlerait de la responsabilité que l'humanité présente aurait vis à vis des générations futures d'assurer qu'elle leur transmettra un monde encore vivable. L'idée est jolie, elle séduit. Mais ce ne sont que des mots. "Le Principe Responsabilité" relève du galimatias de philosophe en quête d'audience. Ce ne peut être un concept juridique, un concept fondateur de droit. Tout simplement parce que si les mots ont un sens, si les concepts ne sont pas des vases creux que l'on peut remplir avec n'importe quoi au gré des humeurs politiques de majorités changeantes, parler de "responsabilité collective" est une incohérence sémantique, c'est une contradiction dans les termes.

En raison même de la nécessité d'une "faute" comme condition nécessaire de déclenchement de la responsabilité, la notion même de responsabilité ne peut qu'être individuelle. La responsabilité ne peut être qu'un attribut de personnes dotées de conscience, et donc d'un sens moral. Or, sauf à être pleinement marxiste, au sens philosophique du terme, la notion de conscience — et donc de responsabilité — ne saurait s'appliquer à des entités collectives. Donc la formulation du principe de précaution est viciée à la base. On ne peut attendre d'une collectivité qu'elle soit dotée ni d'une conscience, ni d'un sens moral, autres que ceux attachés aux individus qui en font partie.

Par ailleurs, le principe de précaution aboutit à placer la notion de risque comme élément central de déclenchement d'une action juridique alors que la notion même de "risque objectif" n'existe pas. On nous propose un système intellectuel qui nous donne une apparence réconfortante d'objectivité : il suffit d'évaluer, de mesurer les risques, et de comparer pour prendre des décisions. L'évaluation, la mesure, c'est le travail de la science, des savants. Puis, ensuite, viennent les politiques qui vont prendre la décision en fonction de ce que leurs diront les agences spécialement créées. Ce raisonnement confère au risque les attributs d'une grandeur susceptible de faire l'objet de mesures répondant à tous les critères d'objectivité qui sont aujourd'hui considérés comme l'apanage d'une démarche scientifique. Or, c'est loin d'être le cas. Ce n'est même pas du tout le cas. Le "risque objectif" n'existe pas. Ce qui existe, ce sont des espérances individuelles qui font que, ex ante, nous gérons nos actes en fonction d'anticipations de gains ou de pertes. Le risque n'apparaît qu'ex post lorsque nous essayons a posteriori de reconstituer les probabilités statistiques que nous avions de réaliser ou non nos espérances. Comme cette distinction subtile passe au-dessus de la tête de la plupart des gens, même des juges, faire du principe de précaution un critère de responsabilité conduit à confier aux tribunaux le soin de juger, ou de trancher les conflits en responsabilité, en fonction d'une information qui, par définition, n'existait pas au moment où les décisions qui ont déclenché le dommage étaient prises. Autrement dit, on va demander aux juges de vous sanctionner en décidant a posteriori de ce que vous auriez du faire (ou ne pas faire) en fonction d'un ensemble d'informations qui n'étaient pas disponibles au moment où vous aviez à prendre la décision.

Grégoire Canlorbe : On entre effectivement dans un univers délirant !

Henri Lepage : La tâche n'était déjà pas facile depuis qu'au milieu du 19 ème siècle on avait abandonné la doctrine de l'emissio romain, et avec elle le critère de la propriété comme élément d'établissement de la preuve d'une faute. Mais désormais, c'est autre chose. Comment savoir quels éléments seront pris en compte par le tribunal ? Comment seront calculées les soi-disantes probabilités "objectives" qui guideront sa décision et dont on assumera que vous auriez dû en tenir compte dans l'élaboration de votre décision ? Apparemment la démarche d'une cour de justice restera en principe la même : reconstituer l'univers de celui que l'on accuse au moment des faits afin de déterminer s'il y a eu faute de sa part. Mais au lieu de se référer à un élément stable et "objectif" — car faisant partie d'un corps de valeurs universelles reconnues par tous et dont l'usage a été poli par la jurisprudence : l'élément "moral" évoqué plus haut — le débat sera désormais essentiellement informé par des arguments de type scientifique dont on sait, avec les querelles en cours autour de phénomènes comme l'effet de serre, à quel point ils sont souvent de nature contingente, et même politique, et sujets à fréquentes contestations et révisions.

Si l'on veut vraiment détruire la justice, il n'y a donc sans doute pas meilleure bombe ! On ne peut pas faire d'un concept aussi flou et aussi aisément manipulable la pierre de touche du régime juridique de demain. Sauf si le véritable objectif est de nous faire définitivement sauter le pas d'un autre ordre social. Pris au sérieux, le principe de précaution conduirait rien moins qu'à la négation pure et simple du libre arbitre individuel dans la mesure où ce n'est plus la conscience qui présidera à la prise de risque (l'information personnelle éclairée et tempérée par la conscience), mais l'application de règles et de critères imposés en fonction de l'idée qu'une opinion dominante — médiatisée par ses prêtres — se fera de ce à quoi correspond le savoir scientifique du moment

L'attribution d'une culpabilité devient alors un artifice, un simulacre de justice qui consiste à désigner en définitive le morceau de la chaîne qui fera le meilleur coupable, selon les objectifs économiques ou politiques poursuivis. Suivant les circonstances, on cherchera en priorité quel est celui qui est le mieux à même de payer (la politique de "deep pocket" des tribunaux américains), ou tout simplement la tête à couper la plus médiatique, celle qui fera le plus d'effet, et permettra d'orienter l'opinion publique "dans la bonne direction". Et autant que possible chacun cherchera à faire en sorte que la victime désignée — le bouc émissaire de René Girard ? — appartienne à l'autre camp.

On retrouve l'état d'esprit des chasses aux sorcières d’autrefois. Ce n'est pas une simple métaphore. On sort clairement du Droit, tel qu'il a été conçu et développé par nos ancêtres comme instrument de civilisation et de civilité. On rentre dans ce qu'il faut bien appeler un univers de "non-Droit". Est-ce cela que l'on veut ?

REGLEMENTATION PRUDENTIELLE  : LA GRANDE PANNE MONETAIRE

  Grégoire Canlorbe : Passons à un autre sujet. Alarmé par la régulation prudentielle des banques, les opérations effrénées de quantitative easing, et le développement sans précédent des taux négatifs — au niveau des taux courts gérés par les banques centrales, mais aussi sur le marché des obligations à plus ou moins long terme — vous jugez la situation de l’économie mondiale fort préoccupante. Vous appréhendez le recours à des mesures de plus en plus extrêmes telles que « Helicopter money » et l’interdiction du cash. Pourquoi les approches théoriques et méthodologiques qui encadrent actuellement la politique monétaire sont-elles impuissantes à prédire et comprendre les effets délétères de ces procédures dites non conventionnelles ?

  Henri Lepage : Actuellement (décembre 2016, NDLR) c'est presque l'euphorie. En quelques semaines, le climat économique en Amérique s'est complètement retourné. Et, par contagion, il se passe un peu la même chose sur les marchés européens. C'était déjà le cas avant les élections US, mais l'élection de Donald Trump y a donné un sacré coup de fouet. Sa promesse de retour à un grand programme keynésien de dépenses publiques a dopé les Américains. Le mot à la mode actuellement est celui de reflation. On y parle même de Growthflation pour évoquer l'idée d'un retour à une croissance inflationniste.

Personnellement, je me méfie beaucoup de ces emballements psychologiques de nature quasiment miraculeuse. Ils ne durent souvent que ce que dure un feu de paille. Ils ne résistent pas à la pression de la réalité. Qu'il y ait un mieux, c'est incontestable. Mais ce n'est pas la première fois que cela se produit depuis la fin de la Grande Récession (on ferait mieux de dire la Très Grande Récession vu le très faible rythme de croissance — moins de 1% de moyenne — qui perdure depuis huit ans). En 2014 déjà, alors qu'elle annonçait (prématurément) la fin de son troisième programme de quantitative easing, la Fed avait crié victoire en prétendant qu'enfin l'économie américaine était en train d'atteindre sa vitesse de décollage. Et puis en août 2015, il y eut le décrochage de la croissance chinoise, suivi de la dévaluation du Yuan, et de tous les remous financiers auxquels on a alors assisté sur les marchés financiers, au point que les analyses les plus alarmistes se sont mises à circuler à l'approche de la fin de l'année et au début de 2016. Etait-ce l'annonce d'un prochain Armageddon économique et financier ? Certains y croyaient dur comme fer. Je dois avouer que moi-même je me suis laissé contaminer par cette vision du retour proche d'une nouvelle crise financière. Mais le ciel s'est dégagé, la situation s'est normalisée. La Fed a de nouveau pu faire passer son message comme quoi les USA étaient en train de retrouver le plein emploi.

Grégoire Canlorbe : Cette fois-ci est-elle la bonne ?

Henri Lepage : Je vous répondrai qu'il faut rester extrêmement prudent. Depuis la crise, la conjoncture américaine est en effet extrêmement instable. D'un semestre, ou même d'un trimestre à l'autre, le climat se retourne du tout au tout. Les nouvelles paraissent bonnes un jour, pour redevenir mauvaises le lendemain. Et le résultat est que d'une année sur l'autre, les prévisions de croissance des spécialistes, en particulier de la Fed, se trouvent démenties par les faits. La croissance est toujours plus basse qu'annoncée. Ceci est vrai même pour cette année. Certes les dirigeants américains peuvent être fiers de leur taux de chômage redescendu en dessous des 5%, seuil traditionnellement retenu comme marque du plein emploi. Mais il ne faut pas perdre de vue que, depuis la crise, plus de quinze millions de personnes sont sorties du marché de l'emploi et que, pour l'instant, il n'y en a pas beaucoup qui y soient rentrées. Même chose pour le retour tant attendu de l'inflation. L'indice des prix a cessé de baisser, il remonte. On noterait des frémissements sur le marché des rémunérations. Bonnes nouvelles pour ceux qui considèrent que le retour d'une certaine inflation est le préalable à une vraie reprise. Mais, si l'on regarde dans le détail, il semble que l'accélération de la hausse des prix au cours de l'année écoulée s'explique presque entièrement par l'arrêt de la baisse des prix du pétrole et de l'énergie. De plus, à côté de ces données macroéconomiques, il y a aussi toutes les informations beaucoup plus ambiguës, voire contraires, qui remontent des enquêtes statistiques de terrain. Par exemple celles qui concernent les ventes de détail, les chiffres d'affaires de la distribution, le sentiment des acheteurs professionnels, la baisse pendant pendant quinze mois consécutifs de la production industrielle, la montée du nombre des défaillances en matière de crédit, en particulier celles qui concernent le crédit automobile ou le crédit aux étudiants, nouveaux domaines de prédilection des emprunts pourris. Enfin, il y a la hausse du dollar dont la valeur par rapport à l'euro a monté de 31% en 36 mois (36 % en 48 mois par rapport au Yen).Traditionnellement la hausse de la valeur externe de la monnaie est interprétée comme un signe de vigueur économique, de redressement de la compétitivité. Mais il n'est pas certain que ce soit le cas aujourd'hui : il n'y a pas de boom des exportations américaines. Cette hausse de la monnaie US, qui se poursuit depuis la mi-2014, n'est pas du tout un événement dont les Américains devraient se réjouir ; mais, au contraire, le symptôme d'un piège dans les mailles duquel la mondialisation financière les enferme plus que jamais du fait même de la place prédominante (on pourrait même dire impériale) qu'y occupe le dollar. Ce qui n'est pas sans ironie.

La grande erreur que commettent tous les prévisionnistes, en particulier ceux des grandes banques centrales, est de raisonner en fonction de modèles de perception, de représentation, et donc de modélisation macroéconomique, qui sont désormais obsolètes. Ce n'est pas moi qui le dit, mais les experts de la BRI (la Banque des règlements internationaux à Bâle, qui joue en quelque sorte le rôle de banque des banques centrales), dans des études sans ambiguité. Il faut rendre hommage à la probité et au courage professionnel de ces économistes car il s'agit de gens qui ne sont que les employés des banquiers centraux mais qui, néanmoins, depuis plusieurs années, persévèrent dans la publication d'analyses et de travaux de recherche qui ne sont pas faits pour faire spécifiquement plaisir à leurs patrons.

Grégoire Canlorbe : Que disent ces économistes de la BRI ?

Henri Lepage : Pour résumer, très brutalement (car ce n'est évidemment pas de cette façon qu'ils s'expriment), que ce sont les banques centrales elles-même qui sont responsables de la situation à laquelle se retrouvent aujourd'hui confrontées les grandes économies mondiales, mais aussi, bien sûr, par ricochet, les économies leaders du monde émergent. Et cela en raison du vieillissement des cadres théoriques et empiriques qui structurent le fonctionnement de leurs méga modèles de prévision économique conçus pour l'essentiel dans les années 1980, sur la base de ce qu'était la science économique de cette époque. Bien sûr, ces modèles ont évolué, ils se sont enrichis, ils sont devenus de plus en plus complexes. Alors que, dans les années soixante-dix, économistes keynésiens et économistes monétaristes formés par Milton Friedman s'affrontaient dans des débats homériques, les modèles de nouvelle génération ont absorbé la synthèse des deux courants en intégrant certaines des grandes idées innovantes du monétarisme dans une structure de base macroéconomique fondamentalement keynésienne. Et c'est cette synthèse qui, depuis lors, soit depuis plus de trois décennies (depuis l'arrivée de Greenspan à la tête de la Fed, pour être plus précis), guide et éclaire l'action et les décisions des banques centrales.

On devrait dire : éclaire de plus en plus mal. Le grand problème est en effet que ces modèles datent d'une époque où la représentation des mécanismes de transmission des mouvements de la conjoncture restait fondamentalement liée à une conception nationale et territoriale de l'économie. Ces grands systèmes de prévision sont en fait fondés sur un modèle keynésien d'économie close où la réalité économique qui compte est d'abord et avant tout nationale. Certes on y prend en compte les interpénétrations avec l'environnement international, mais essentiellement par la modélisation des relations commerciales (exportations, importations, balance commerciale). En sont exclus les phénomènes d'interpénétration et d'interdépendance monétaire ou financière. Tout simplement parce que cette macroéconomie reste étroitement keynésienne et que, nonobstant quelques emprunts à la théorie monétariste, elle reste fondamentalement attachée à la théorie dite de neutralité de la monnaie – c'est à dire l'idée que la monnaie n'est qu'un voile, qui ne joue que dans le court terme, et qui n'exerce donc aucune influence déterminante sur l'évolution à long terme de l'économie réelle. De même, les variables financières – comme par exemple l'évolution du niveau et du taux d'endettement, le poids du service de la dette, tant privé que public – n'y jouent aucun rôle.

Banque centrale

L'échec des banques centrales.

Or la grande caractéristique du processus de mondialisation enclenché dans les années 1990, et accéléré depuis l'entrée dans le XXIème siècle, est qu'il ne concerne pas seulement les échanges commerciaux mais tout autant, et plus encore, la finance et aussi (ce que l'on oublie souvent) la monnaie. Nos économies nationales sont de plus en plus immergées dans une réalité mondiale qui fait que désormais l'évolution macroéconomique de nos pays dépend tout autant, sinon plus, de ce qui se passe sur les marchés financiers et monétaires mondiaux que des décisions prises par les autorités à l'intérieur de leurs frontières. Et cela est maintenant vrai même pour les Etats-Unis. Le temps où le statut privilégié du dollar au sein du système monétaire international dotait l'Amérique d'un pouvoir d'influence économique et financier asymétrique sur le reste du monde est révolu. Aujourd'hui, ce pouvoir s'exerce dans les deux sens, autant dans le sens reste du monde (et notamment les pays émergents, en particulier la Chine) vers l'économie américaine que dans le sens traditionnel de l'économie américaine vers le reste du monde. Les difficultés rencontrées par la Fed pour mettre en œuvre ses projets de normalisation monétaire par la hausse des taux en sont une illustration. Dès lors que le dollar Made in World (c'est à dire les liquidités libellées en dollar fabriquées en dehors du système bancaire américain, sur le marché des eurodollars) représente quelque chose comme 60 % de l'ensemble mondial des actifs liquides libellés en dollars assimilables à de la monnaie, contre seulement 40 % au dollar Made in USA, il faut admettre que les Etats-Unis ont perdu une très large part de leur indépendance monétaire, et cela malgré leur impressionnante puissance de première économie mondiale. Or, cela n'apparaît nulle part dans les modèles supposés guider les décisions de la banque centrale. Ceux-ci n'en tiennent aucun compte. Avec pour résultat des prévisions économiques auxquelles on ne peut accorder qu'une confiance de plus en plus limitée, et une banque centrale qui donne le sentiment de ne plus rien commander du tout.

Ainsi la conjoncture américaine dépend de moins en moins de ce qui se décide à Washington, et de plus en plus de ce qui est décidé non seulement à Pékin ou ailleurs, mais surtout au niveau très décentralisé de tous ces acteurs privés internationaux — banques, entreprises, établissements financiers, fonds monétaires, investisseurs.... – qui forment ce que certains économistes, comme Perry Mehrling, appellent la Global Money.[1] Voilà pourquoi, personnellement, je reste fondamentalement très prudent sur les perspectives économiques de l'Amérique – et en particulier sur l'idée qu'on y serait, quoi qu'en dise le marché sur les taux futurs, à la veille d'un retour remarqué de l'inflation. Car, quand on regarde l'économie mondiale, c'est la tendance à la déflation monétaire qui continue de persister.

Grégoire Canlorbe : Qu'est-ce qui vous fait dire que la déflation monétaire est le phénomène de fond qui commanderait nos évolutions économiques actuelles ?

Henri Lepage : D'une conception étroite de la monnaie réservée aux moyens de paiement créés dans le cadre du monopole d'émission d'une banque centrale, on est passé à une notion plus large tenant compte de ce que les banques elles-mêmes, par leur activité de crédit, sont elles aussi source de création de moyens monétaires privés. On est ainsi passé de l'aggrégat M0, à M1, puis M2 et M3. Mais c'était sans compter sur le génie et l'inventivité des financiers et des banquiers. Avec la mondialisation est arrivée une nouvelle génération d'institutions financières non bancaires spécialisées dans la fabrication de nouveaux actifs présentant des caractéristiques de liquidité proches de celles de la monnaie bancaire. D'où la naissance d'un nouvel aggrégat, M4 Divisia, qui désigne la masse monétaire globale au sens le plus large. Il regroupe les actifs monétaires d'origine étatique (espèces + réserves + bons du Trésor), plus la monnaie des banques (les dépôts), mais également les actifs monétaires liquides ou quasi-liquides issus du secteur financier non bancaires (commercial paper, repos, titres de créances négociables...), en pondérant la part de chaque catégorie dans le total par son degré de liquidité (moneyness). Appliquée à l'économie américaine cette nouvelle mesure de la monnaie fait apparaître une réalité très différente de celle que les médias nous dépeignent chaque jour.[2]

Avec la succession des opérations d'ajustement quantitatif et autres opérations Twist nous avons le sentiment que, depuis 2010, la Banque centrale a noyé le pays sous les liquidités. En réalité c'est faux. Ce qui a explosé, c'est le volume de la monnaie banque centrale (multipliée par 4) alors que, pour la même période, la création de monnaie bancaire  — qui représente 80% de la masse monétaire globale — n'a progressé que de 1,5 % par an (ce qui est très faible comparé à un trend moyen de long terme de près de 5%). Ces chiffres nous révèlent que même en augmentant considérablement le volume de la monnaie de base, et en nourrissant ainsi l'illusion d'une politique monétaire ultra généreuse, l'action de la banque centrale n'a pas empêché que l'économie US continuât de souffrir, pratiquement jusqu'à aujourd'hui, d'une forte pénurie d'offre de crédit (dont les principales victimes ont été les petites et moyennes entreprises).

Depuis un an, le rythme de croissance de M4 s'est modérément accéléré, rompant avec la tendance moyenne des huit dernières années. C'est incontestablement une bonne nouvelle, qui explique sans doute une grande part de l'amélioration du climat économique actuel. Mais il faut absolument cesser de croire que le mariage quantitative easing et taux d'intérêt bas est nécessairement le gage d'une plus grande facilité monétaire, et donc, en l'occurrence, d'une plus grande abondance de dollars.

Maintenant, regardons ce qu'il en est du dollar off shore, c'est à dire des moyens de paiement internationaux essentiellement assis sur des créances libellées en dollars et qui résultent de l'activité des réseaux de la finance de marché mondiale (ce que l'on appelle plus familièrement, et de manière erronée, à mon avis, le Shadow Banking[3]la finance de l'ombre).[4]

On pourrait penser que l'addition de tous ces quantitative easing aux Etats-Unis, en Grande-Bretagne, dans la zone euro et au Japon se traduisent au plan international également par une très grande aisance monétaire. Mais là aussi c'est exactement l'inverse que l'on observe. Donner une mesure du volume total de ce stock de Global Money est une tâche impossible. Tout ce dont on dipose sont des évaluations provenant de la Banque des réglements internationaux sur la valeur notionnelle globale des différentes catégories de produits offerts par les établissements financiers du marché de l'eurodollar (Repos, commercial paper, CDS, CDOs, Interest Rates Swaps...), complétées par l'étude des bilans en eurodollars des principaux acteurs de ce marché. Or toutes les informations ainsi obtenues convergent pour faire apparaître un mouvement de contraction de l'eurodollar — donc de rétraction des liquidités monétaires mondiales — qui a été très brutal au moment de la grande crise financière, qui s'est quelque peu stabilisé ensuite, mais a repris de plus belle, en particulier à partir de l'année 2014 (ce qui correspond à l'amorce de la remontée du dollar sur les marchés mondiaux) et qui ne paraît pas près de s'arrêter. La remontée du dollar est le produit d'une situation de rareté croissante qui rend de plus en plus problématique la position des nombreuses entreprises qui, de par le monde, se sont endettées à long terme en dollars pour profiter des bas taux d'intérêt de l'après-crise.

Grégoire Canlorbe : Quelle serait l’origine de cette grande panne monétaire mondiale ?

Henri Lepage : Fondamentalement la cause se trouve dans l'hystérie réglementaire qui s'est emparée des pouvoirs publics au moment de la crise financière.

Plus jamais cela ! nous a-t-on dit. Les banques ont été beaucoup trop imprudentes ! Nous devons la gravité de la crise au degré absurdement élevé de leurs effets de levier. Pour éviter de nouvelles crises du même genre, il faut absolument les contraindre à réduire leurs pyramides d'endettement, leur imposer de recapitaliser à tout prix leurs bilans. D'où tout le programme de mesures réglementaires nouvelles édicté en 2010 par Comité de Bâle (Basel Committee on Banking Supervision) connu sous le nom de Bâle III et qui concerne le renforcement des exigences en matière de fonds propres et de liquidité, la création de nouveaux ratios destinés à limiter le recours abusif à l'effet de levier ainsi que la mise en place de divers éléments prudentiels visant à contenir le risque systémique (comme la contrainte discriminatoire de ratios plus élevés pour les entreprises relevant de la catégorie dite des Too Big To Fail).

Mais ce genre de réforme n'est pas gratuit. Il est bien de vouloir renforcer la capacité de résilience des établissements bancaires, mais l’addition de ces dispositions – en particulier le relèvement des ratios de fonds propres et des ratios de liquidité – conduit à un alourdissement notable du coût marginal des activités de crédit. Les banques sont des entreprises de production comme les autres. Elles produisent des prêts. Mais si le coût marginal de leur production augmente, elles vont réduire leur offre. Et l'effet est d'autant plus important que, dans le même temps, la permanence de taux zéro réduit encore la rentabilité de leur activité. C'est exactement ce qui s'est passé — d'où l'échec des QE et le constat paradoxal que les milliards de rachats d'actifs effectués par la banque centrale n'ont débouché sur aucune relance monétaire réelle alors qu'au contraire tout le monde croit que l'économie est inondée de liquidités.. L'accélération de la planche à billets (virtuels) n'a pas été suffisante, et de très loin, pour compenser la déflation monétaire privée induite par le renforcement de la réglementation prudentielle (selon certaines estimations privées, aux Etats-Unis, le déficit serait de l'ordre de… 7 000 milliards de dollars !  à comparer aux 4 500 milliards de réserves excédentaires accumulées par la Fed[5]).

Il était normal que, dans une perspective de moyen/long terme, les autorités se préoccupent de voir les banques recapitaliser leurs bilans. Mais il était criminel de les y contraindre en pleine crise économique, et alors même que la reprise continuait de vaciller. De toute façon elles s'y seraient mises spontanément, comme en témoignent les dernières études de la BRI qui montrent que les banques ont reconstitué une marge de sécurité en fonds propres en moyenne supérieure de 5 points aux ratios obligatoires.[6] On pourrait s'en féliciter. Malheureusement il y a tout lieu de croire que ce surcroît de précaution est tout simplement le produit de l'insécurité institutionnelle et réglementaire entretenue par le flot continu de nouvelles contraintes en cours de mise en place ou en cours de discussion. A Bâle les négociations continuent pour définir le contenu des dernières réformes à imposer. Cette queue de négociation a déjà été baptisée Bâle IV. Or certains estiment que, combinées aux contraintes complémentaires qui résultent de la loi Dodd-Frank, ce dernier train de mesures pourrait se traduire par un déficit supplémentaire de près de … 7000 milliards d'ici 2019[7] !

Parmi les mesures les plus dommageables, deux sont très récentes. Il s'agit des dispositions américaines qui concernent le ratio de liquidité et le régime de valorisation du bilan des fonds monétaires institutionnels. Dans le premier cas, le législateur a décidé que désormais les contraintes du ratio de liquidité (Leverage Coverage Ratio – LCR) s'appliqueront à l'ensemble consolidé des activités des groupes bancaires US au plan mondial, c'est à dire y compris toutes les succursales à l'étranger ; ce qui représente une sacrée extension. La seconde oblige désormais les Prime Money Market Funds à publier leurs comptes en utilisant la valeur de marché de leurs actifs, ce qui ruine leur promesse commerciale de toujours satisfaire sur l’instant les demandes de remboursement de leurs clients sur la base de 1$ pour 1$ de placement (au pair).  Conséquence : en quelques mois, au fur et à mesure du rapprochement de l'échéance prévue pour octobre, plus de mille milliards de dollars de capitaux ont massivement quitté le secteur des Prime Money Funds pour aller s'investir dans le secteur concurrent des Government Funds qui limitent leurs placements à des investissements en valeurs d'Etat. Or un tel déplacement est loin d'être anodin.[8]

Ces fonds monétaires comptent en effet parmi les principaux apporteurs de fonds internationaux au petit nombre de très grands groupes bancaires et financiers sur l'activité de broker/dealer desquels repose en définitive toute l'architecture du système mondial de finance de marché – c'est à dire le bon fonctionnement de l'ensemble des étapes d'intermédiation et de transformation qui, hors Etats-Unis, servent à fabriquer les dollars Made in World.[9] On en a vu le résultat avec la publicité qui a été donnée par la presse financière aux difficultés de groupes comme la Deutsche Bank, la Société de Banque Suisse, J.P Morgan, et même Goldman Sachs. Du fait de l'accumulation croissante de toutes ces réglementations et de leurs coûts, ces établissements se voient aujourd'hui obligés de réduire la voilure de leurs activités mondiales, en particulier dans le domaine de la tenue de marché (Market Making[10]) – cette fonction essentielle qui assure la liquidité des marchés obligataires et fait que les broker/dealers remplissent au niveau de la finance internationale, et de manière décentralisée, un rôle pilier d'assurance mutuelle en quelque sorte équivalent au lender-of-last-resort d'une banque centrale nationale. L'apparition depuis l'an dernier d'un certain nombre d'anomalies de marché (negative spreads sur le marché des swaps de taux d'intérêt, disparition de la covered interest rate parity  — parité des taux d'intérêt avec couverture) est un signe qui semble témoigner de l'intensité des stress qui tendent ainsi à se répandre sur les marchés.

Grégoire Canlorbe : Est-ce vraiment inquiétant ?

Henri Lepage : Ce qui m'inquiète sont évidemment les retombées économiques de cette actualité (le risque d'une nouvelle crise de liquidité internationale, l'absence d'un retour à la normale toujours retardé, la longue perpétuation d'une croissance molle), mais aussi les intentions que cela traduit.

J'entends par là la volonté des autorités américaines de mettre au pas l'eurodollar – c'est à dire de tuer de manière définitive cette sorte d'organisation spontanée de type Free Banking qui, depuis les années 2000, était en train de se positionner comme système bancaire et monétaire alternatif en dehors du maillage des systèmes nationaux soumis à la botte du cartel des banques centrales. De ce point de vue, la décision concernant les Money Funds est assez caractéristique car elle aboutit de fait à rapatrier vers le bilan de la Fed une large partie des ressources dont dépend précisément la finance de marché libre pour fonctionner. Ce n'est pas un hasard si les Government Money Funds figurent depuis peu dans la liste des institutions non bancaires nouvellement habilitées à disposer d'un compte à la Fed, et à bénéficier ainsi du nouveau mécanisme des Reverse Repos mis en place, nous a-t-on dit à l'époque, pour sortir de QE 3 et contribuer  à la normalisation de la politique monétaire US.

La finance de marché, pour la Fed, tel est l'ennemi ! En tant que partisan du Free Banking, je n'ai pas le sentiment que ce coup de force politique de la banque centrale américaine aidera à la solution des maux économiques et financiers du monde d'aujourd'hui. Bien au contraire. Nous ne devons pas perdre de vue que la réglementation bancaire participe elle aussi de la politique monétaire. Et, en l'occurrence, elle joue contre la normalisation de la croissance. C'est une autre façon de donner une explication au phénomène apparent de stagnation séculaire dont le concept semble séduire de plus en plus d'esprits.

A BAS LE PRIVILEGE DES TOO BIG TO FAIL

Grégoire Canlorbe : On entend parfois dire que l’élément moteur de la crise de 2008 tient, non directement dans la politique des banques centrales, mais dans l’existence de banques « too big to fail », trop grandes et trop interconnectées pour qu’on puisse laisser faillir une seule d’entre elles sans qu’il n’y ait réaction financière en chaîne, « bank run » puis affaissement économique. Que le secteur financier soit, par ailleurs, en proie à des réglementations trop étroites et à une manipulation aberrante des taux d’intérêt ne change rien à cette réalité sous-jacente. Quel regard portez-vous sur cette analyse ?

Henri Lepage : Personnellement je ne suis pas d'accord avec cette interprétation des origines de la crise de 2008. L'effet systémique induit par l'existence de ces TBTF (Too Big To Fail) n'est que l'un des symptômes, l'un des canaux de diffusion d'un processus de crise beaucoup plus complexe qui s'étend sur une très longue période.

Je doute même de la réalité de cet effet systémique prétendument déclenché par la faillite de Lehman. Les données dont on dispose aujourd'hui permettent d'affirmer que le processus de récession de l'économie US était enclenché depuis déjà plusieurs mois, et qu'il était en fait aggravé par l'appréciation erronée que la Fed avait  de la situation.[11] Celle-ci continuait de craindre en priorité une reprise de l'inflation, d'où une politique monétaire qui, dans de telles circonstances, s'est révélée pro-cyclique, et qui a continué jusqu'à la mi-octobre (réaction trop tardive sur les taux, stérilisation des opérations de soutien aux marchés affectés par la crise boursière, introduction du système de rémunération des réserves excédentaires des banques). Lehman a été la victime d'une double erreur de la Fed : le sauvetage de Bear Sterns (qui a consolidé les dirigeants de Lehman, mais aussi leurs clients, dans l'idée qu'ils ne risquaient rien, et qu'il n'y avait pas de raison pour eux de changer de comportement), et l'erreur d'appréciation conjoncturelle de la banque centrale au début de l'été 2008.

Par ailleurs, une étude attentive du calendrier des événements pendant cette période critique, complétée par une analyse rétroactive approfondie des comptes des entreprises concernées à ce moment-là, suggère que ce qui a déclenché le mouvement de domino financier cumulatif observé pendant les semaines qui ont suivi tient moins à la réalité objective de la situation comptable et financière tant de Lehman que d'AIG, qu'au mouvement de panique qui, en quelques heures, s'est emparé des milieux dirigeants de Washington, tant publics que privés, soudés par leur connivence dans un même schéma théorique d'interprétation de ce qui se déroulait sous leurs yeux.[12]

La manière dont votre question est rédigée laisse penser que vous reprenez pour argent comptant la théorie de l'effet systémique des entreprises financières dominantes. Mais cette théorie n'est qu'une théorie. Quelle est sa solidité scientifique ?

Il y a vingt ans, je me rappelle être tombé sur un article d'Anna Schwartz où la co-auteure de la célèbre étude de Milton Friedman contestait la vérité empirique du concept.

Tout repose sur la conviction, colportée dans les manuels, que les paniques bancaires (bank runs) sont le talon d'Achille des économies capitalistes et que si elles ont quasiment disparu depuis les années trente (jusqu'à ces jours funestes de 2008) c'est gràce à la mise en place du mécanisme public d'assurance des dépôts, ainsi qu'à la prise au sérieux par les banques centrales de leur rôle de prêteurs de dernier ressort. Autrement dit, si les Etats-Unis n'ont plus connu de grande panique bancaire depuis celles des années 1931-1933 (alors que jusque là ils étaient un peu les champions toutes catégories de ce genre d'accident), ils le doivent à la création de la Fed et aux économistes qui ont milité pour.

Il existe en fait deux types de bank runs. Le plus banal est celui où la crainte de l'insolvabilité d'un établissement incite les déposants à en retirer leurs dépôts pour les transférer vers d'autres banques dont la solidité financière n'est pas contestée. Le plus redouté par les économistes correspond à la situation où la défaillance d'une banque en particulier entraîne un mouvement de défiance, voire de retraits, étendu à toutes les banques et, par effet de domino, un arrêt généralisé des transactions financières dont seule l'intervention d'un prêteur de dernier ressort permet de sortir par injection massive de nouvelles liquidités. Le type même de schéma qui, nous dit-on, s'est produit à l'automne 2008 et a bloqué le fonctionnement des marchés interbancaires, faisant ainsi planer la menace d'un véritable effondrement systémique de toute l'économie mondiale.

Mais est-ce vraiment ce qui s'est passé ? Il y a deux ans une équipe de chercheurs français, parmi lesquels Guillaume Vuillemey,[13] a entrepris de dépouiller en détail les statistiques concernant le fonctionnement du marché des certificats de dépôts en euro pour la période 2008-2014 en vue de vérifier si ce qui s'est passé au moment de la crise, du moins en Europe, correspond bel et bien au narratif du schéma retenu par la pensée économique mainstream. Leur conclusion est négative. Ce qu'ils observent est un mouvement de redistribution des ressources monétaires des 'mauvaises' banques (celles qui sont financièrement les plus fragiles) vers les 'bonnes' banques (les plus solides, les mieux gérées). La crise n'a pas affecté tous les établissements au même degré, et l'idée que cela aurait entraîné un gel général du marché n'est qu'un mythe. Celui-ci a fait preuve d'une bien plus grande résilience qu'on nous le dit.

Grégoire Canlorbe : Une seule étude de ce type n'est pas en elle-même une preuve.

Henri Lepage : C'est vrai. Mais ce qui est intéressant est que ses conclusions rejoignent celles développées par d'autres recherches portant sur l'histoire bancaire d'avant la période de montée en puissance du pouvoir des banques centrales – c'est à dire au 19ème siècle, jusqu'au déclenchement de la première guerre mondiale. Celles-ci nous révèlent que, contrairement à la légende, on ne trouve quasiment pas trace, même au 19ème siècle, de paniques bancaires du second type, avec effet systémique à la clé – la seule exception notoire étant l'épisode de la Grande Dépression documenté par la thèse de Ben Bernanke publiée en 1979 (et peut-être celle de 1893[14]). Encore faut-il garder à l'esprit que, dans les années trente, ce mouvement de domino des faillites bancaires — on a compté cinq épisodes distincts de paniques — n'a alors principalement touché que l'univers des petites banques qui, à l'époque, constituaient encore l'essentiel du tissu bancaire américain en raison des particularités de la législation US qui, depuis le siècle précédent, reposait sur le principe anachronique, et pervers, « one bank, one branch ».

Il est incontestable qu'il y a un problème de concentration bancaire. Celle-ci s'est accrue dans des proportions considérables juste avant et pendant la crise. Ce degré élevé de concentration est même l'une des causes de l'extraordinaire succès des activités du secteur bancaire parallèle au cours de la décennie 2000. Lorsque l'on gère des flux de trésorerie portant sur des dizaines de millions de dollars ou d'euros, la première des prudences est de multiplier les comptes en banques et de ne pas tout déposer dans un même établissement afin de minimiser ses risques. D'où une méfiance croissante des grandes entreprises et institutions comme les fonds de pension ou les fonds communs de placement vis à vis des réseaux bancaires traditionnels et leur préférence pour  les shadow banks.

Sans aucun doute cela justifierait-il une politique de démantèlement afin de rétablir davantage de concurrence dans les services bancaires. Mais c'est un problème bien distinct du sujet des Too Big To Fail, usuellement définies comme des entreprises trop grandes et trop interconnectées pour qu'on puisse les laisser faire faillite sans mettre en péril l'ensemble du système financier, donc économique.

Dans votre question vous vous exprimez comme si l'existence de telles entreprises  relevait d'une réalité objective dont on ne saurait – à l'instar du réchauffement climatique – ni douter, ni même contester la vérité. Mais quels sont les critères concrets qui permettent de définir et cerner cette réalité ? Trop grandes, trop interterconnectées... par rapport à quoi ? A partir de quel seuil ? Tant les écrits universitaires qui traitent de cette question, que les textes réglementaires qui définissent les contraintes auxquelles cette sorte d'entreprise dite systémique est désormais soumise sont extrêmement imprécis, diffus, confus... En sorte qu'en fait les autorités publiques disposent de la plus grande latitude subjective pour décider qui rentre dans cette catégorie et à qui s'appliquent les nouvelles réglementations. C'est la porte ouverte à toutes les dérives, à tous les arbitraires et, bien sûr, au jeu de tous les copinages politiques. Comme pour l'effet systémique, la notion même de Too Big To Fail n'est en fait qu'une croyance, une perception de la réalité ancrée dans une théorie.[15]

A partir de quelle taille une grande banque se retrouve-t-elle dans une position Too Big To Fail ? On pourrait en discuter pendant des heures. Il est certain qu'en cas de défaut, plus une banque est grande plus l'effet de contagion et l'impact des retombées négatives sur l'ensemble des réseaux bancaires risquent d'être important. Mais là n'est pas l'essentiel.  Du point de vue de la politique économique, ce qui importe n'est pas le débat sur la taille, ou la position stratégique qu'une banque occupe dans le réseau complexe de la plomberie monétaire, mais le changement de régime qui, à partir des années 1970, s'impose dans la manière dont les responsables économiques, convaincus par le discours académique ambiant sur la réalité des dangers systémiques (dont je vous ai dit ce qu'il fallait en penser), réagissent aux risques collatéraux de contagion provoqués par les difficultés d'un grand établissement.

Avant la création de la Fed, ce risque se trouvait internalisé au sein de chambres de compensation (Clearinghouses) locales ou régionales qui faisaient en quelque sorte office d'associations professionnelles dotées de capacités d'autorégulation.[16] Il n'y avait pas de banque centrale mais en cas de bank runs les membres de ces associations pouvaient obtenir un soutien mutuel de leurs confrères afin de mettre fin à l'hémorragie qui les frappait. Dans les cas les plus sérieux le soutien pouvait prendre la forme d'une émission obligataire mise sur le marché sous la responsabilité collective de la Clearinghouse. Ces établissements remplissaient une fonction informelle de prêteur en dernier ressort, mais leurs règles étaient strictes : ne pouvaient prétendre à cette forme d'aide que les banques dont le bureau de l'association, après examen, avait acquis la certitude qu'elles souffraient d'un problème temporaire d'illliquidité, et en aucun cas de difficultés reflétant une situation d'insolvabilité. Lorsqu'en 1873 le célèbre Walter Bagehot définit ce que devraient être les lignes de conduite d'une banque centrale en cas de crise économique, il ne fait que reprendre des principes qui sont déjà ceux de ces associations privées. S'il reconnaît et rend légitime le rôle de prêteur en dernier ressort de la Banque centrale, il n'en précise pas moins que ces opérations d'intervention doivent remplir deux conditions : 1) les prêts de secours ne sont pas gratuits, ils doivent être facturés à un prix de pénalisation (taux élevé), et 2) il s'agit d'intervenir pour rétablir un flux de liquidités temporairement rompu et éviter que la firme concernée ne soit acculée au dépôt de bilan, mais en aucun cas de voler au secours d'une firme dont la solvabilité est compromise et dont il ne peut être démontré qu'elle détient encore un montant suffisant d'actifs de bonne qualité. Autrement dit, dans un tel cadre, il ne suffit pas qu'une entreprise soit très grande et très interconnectée pour prétendre à l'aide de l'Etat. Encore faut-il qu'il puisse être prouvé que cette aide ne sera pas gaspillée pour seulement maintenir en vie une firme dont la survie est déjà financièrement compromise (entreprise zombie).

Ce qui change à partir des années 1980 est que se répand progressivement, à l'occasion d'un certain nombre de grandes affaires financières (la faillite de la Franklin National Bank en 1974, à l'époque la plus grande faillite de l'histoire des Etats-Unis; Continental Illinois en 1984, LTCM en 1998) une nouvelle jurisprudence informelle au terme de laquelle il suffit de constater que l'on se trouve en présence d'établissements exceptionnellement jugés trop gros et trop interconnectés pour décider que l'on n'a pas d'autre choix que de leur venir en aide indépendamment de savoir si leur solvabilité est véritablement garantie. C'est là que se niche toute la différence.  Avant, être trop gros et trop interconnecté était peut-être un argument recevable, un argument théoriquement nécessaire (théoriquement, car de fait, pendant trente ans, le problème ne s'est pas posé), mais ce n'était jamais une condition suffisante. Depuis les années 1980, c'est devenu une condition suffisante. C'est alors que naît le concept de Too Big To Fail, l'expression apparaissant pour la première fois dans la bouche du député au Congrès US Stewart McKinney lors d'une audition parlementaire concernant le sauvetage (bail out) de la Continental Illinois. Auparavant personne n'en parlait.

Ces précisions sont importantes car elles montrent qu'être Too Big To Fail  est d'abord et avant tout un statut, d'abord virtuel, aujourd'hui légalement inscrit dans une loi de 2010 (Dodd-Frank) qui crée une catégorie particulière d'établissements systémiques  — les SIFI, Systematically Important Financial Institutions — auxquels sont imposées des contraintes prudentielles plus fortes qu'aux autres, mais qui bénéficient d'un privilège non négligeable : l'assurance qu'en cas de crise les autorités publiques ne les laisseront pas faire faillite.

Ce privilège est un puissant facteur d'abaissement des coûts et donc de renforcement de la position concurrentielle des entreprises concernées. Il leur est plus facile d'inspirer confiance à leurs clients, donc d'attirer les dépôts, et de tisser des liens d'interdépendance réciproques pour développer des opérations financières de plus en plus complexes requérant l'intervention d'un grand nombre de contreparties. Cette garantie les incite à prendre plus de risques, cependant qu'elle invite leurs concurrents à entrer à leur tour dans la course à la dimension pour bénéficier un jour des mêmes avantages. C'est ainsi que s'est enclenché un processus cumulatif, à la fois une course à la dimension (Mergers & Acquisitions) et à la prise de risque, qui a joué à plein pendant plus d'un quart de siècle, avant que n'interviennent les nouvelles contraintes de Dodd-Frank et Bâle III. Avec pour double résultat la concentration croissante du secteur bancaire — en 2013 moins d'une douzaine de méga banques US contrôlaient les deux tiers des actifs possédés par l'ensemble de la profession — et la généralisation chez ces mastodontes de comportements de prise de risque générateurs d'une économie de casino (à la source de tous les grands scandales à la Kerviel qui ont marqué ces années.).

Grégoire Canlorbe : Quelle politique préconiseriez-vous pour traiter ce problème des TBTF ?

Henri Lepage : Tous les privilèges ont vocation à être supprimés. Il en va de celui-là comme de tant d'autres. Il faut y mettre fin en revenant sur ce statut absurde. C'est à dire en faisant de ces entreprises à nouveau des firmes comme les autres, pouvant faire faillite. Quitte à commencer par les couper en morceaux, comme je viens de vous le dire.[17] Mais à condition d'accompagner cette politique d'une véritable réforme du régime des faillites qui permette d'accélérer de manière décisive la résolution juridique des fermetures d' établissements bancaires et financiers en liquidation. Il faut qu'une banque qui est en état de cessation de paiements puisse être en mesure de négocier rapidement la reprise de ses actifs et engagements par une ou plusieurs autres. C'est là le cœur du problème. Je serais notamment favorable à ce que ce nouveau droit des faillites intègre une généralisation des formules de bail in de manière à ce que les créditeurs s'intéressent d'un peu plus près à la qualité de la gestion de ceux auxquels ils prêtent leur argent (mais avec également le retour à des règles de responsabilité plus draconiennes pour les actionnaires).

N'étant pas un spécialiste de ces questions, je me garderai d'aller plus loin. En juin 2013, le président de la Réserve Fédérale de Dallas a présenté devant une Commission de la Chambre des Représentants un projet d'amendement au Dodd-Frank Act qui devrait en principe permettre de régler la question des Too Big To Fail.[18] Je me contenterai de vous y renvoyer. Sachez cependant que la Fed de Dallas a pour tradition d'être la plus libérale, voire la plus libertarienne des 12 Feds américaines.

Ceci étant, il n'est peut-être même pas nécessaire de mettre en route un ambitieux plan de découpage qui, vus les obstacles du marché politique, mettra sans aucun doute très longtemps avant de déboucher sur des solutions concrètes.

Ces mastodontes bancaires sont en réalité de faux géants économiques. Il s'agit d'entreprises constituées pour capter un privilège (celui lié au statut des TBTF), et non d'opérations économiques dont la finalité est l'exploitation de synergies industrielles et managériales (ce qui est normalement la raison d'être d'une fusion). Imaginez que votre entreprise fasse un chiffre d'affaires de X millions d'euros, et que receviez le message que si vous arrivez à faire 3 fois ce chiffre (3X) vous serez désormais hors d'atteinte, vous serez désormais protégé contre les aléas d'un retour de fortune trop brutal, je serais très surpris que vous ne fassiez pas tout ce qui est en votre pouvoir pour atteindre cette taille, même si cela suppose de vous entendre et de fusionner avec votre pire ennemi. Vos concurrents penseront comme vous, et vous vous retrouverez bientôt autour d'une table pour vous entendre sur la manière de constituer ce nouveau géant désormais too big too fail. Autrefois on appelait cela un cartel, aujourd'hui c'est une fusion, mais la nature du phénomène en cause n'est guère différente.

C'est important car cela signifie que ces opérations n'apportent avec elles que bien peu de gains d'efficacité et de productivité. Les nouveaux dirigeants se soucient moins de traquer les synergies exploitables à l'intérieur de leur nouvel empire que de consacrer leur temps à capitaliser sur la nouvelle puissance financière que leur apporte la concentration. Imaginez ensuite que la banque centrale s'engage à maintenir des taux d'intérêt très faibles pour les cinq années à venir (comme cela fut le cas avec la Fed), je ne doute pas un instant qu'ils concentreront toute leur attention sur la manière d'utiliser cette puissance financière pour faire jouer au maximum les effets de portage et de levier et obtenir par cette voie bien plus de profits que ne pourraient leur en rapporter de simples opérations de rationalisation interne. Avec l'incitation complémentaire des taux proches de zéro, je ne doute pas non plus que s'il vous fallait trois ans pour arriver à monter votre opération de concentration, vous arriverez néanmoins à la boucler en un an – tous vos partenaires partageant le même intérêt.

Vous serez plus riche, mais cela ne signifie pas que votre entreprise se trouvera plus forte, bien au contraire. Ces Mergers & Acquisitions sont en fait le plus souvent des opérations bidons. Elles donnent naissance à ce que l'on considère erronément comme de nouveaux empires. En réalité, ce ne sont que des confédérations d'entreprises dont le rapprochement est loin de donner naissance à une véritable nouvelle entreprise – comme c'était par exemple le cas d'AIG, la super société américaine d'assurance, au moment de l'affaire Lehman Brothers. Il s'agissait d'un groupe qui avait été constitué très rapidement à partir du rapprochement d'une constellation de petites et moyennes firmes d'assurance conservant leur autonomie de gestion.  

Ces empires sont en réalité extrêmement fragiles. Coupez-les de leurs privilèges, laissez remonter les taux, et vous verrez la plupart d'entre eux se disperser en très peu de temps.

LE SECRET CACHE DE LA FINANCE DE MARCHE

Grégoire Canlorbe : Aussi bien les contempteurs que les partisans des politiques monétaires non conventionnelles mises en œuvre depuis neuf ans s’accordent à tenir les crises pour une nuisance : un défaut du système qu’il convient de corriger dans l’intérêt de la stabilité des marchés et de la prospérité des peuples. Ce postulat ne faisait pas l’unanimité parmi les pionniers de la science économique.

 « S’il était possible d’empêcher absolument les crises, se demandait Vilfredo Pareto dans son Cours d’économie politique de 1897, serait-il utile de le faire? On serait tenté de répondre affirmativement, mais un examen un peu plus approfondi de la question fait surgir de nombreux doutes. Il n’est pas du tout sûr que le mouvement rythmique ne soit pas une des conditions du progrès économique. Au contraire, il paraît fort probable que ce mouvement n’est qu’une manifestation de la vitalité de l'organisme économique. Les alternatives de repos et d’excitation paraissent nécessaires à tous les organismes vivants supérieurs. L’horticulteur qui maintiendrait dans ses serres la même température, nuit et jour, ferait périr un grand nombre de plantes. Savons-nous si nous ne nuirions pas de même à la vie économique en prétendant la rendre absolument uniforme ? »

Reconnaissez-vous une certaine pertinence aux scrupules formulés par Pareto ? Quel éclairage spécifique sur ces considérations apporte, en particulier, la théorie autrichienne des fluctuations que vous présentez comme supérieure au mode de pensée mainstream en macroéconomie ?

Henri Lepage : De quoi voulez-vous me faire parler ? Des crises ? Parfait, alors parlons-en, sans avoir besoin de passer par un long bavardage sur une citation de Pareto que, personnellement, je ne trouve pas véritablement géniale. Je respecte la mémoire de cet homme, et salue la contribution qu'il a apportée à la science économique, mais sa métaphore des phases alternatives de repos et d'excitation ne me paraît pas relever d'un haut niveau de scientificité. Cela me fait un peu trop penser aux esprits animaux à quoi se ramène finalement la conception keynésienne des cycles – c'est-à-dire à rien, une explication de nature psychologique qui n'explique rien, rien de ce que précisément il faudrait expliciter.

Oui, les crises sont une nuisance, c'est incontestable. Elles sont source d'inconvénients, de déceptions, de souffrances pour de trop nombreux êtres humains. Inconvénients, déceptions, souffrances qu'il faudrait absolument s'employer à éviter, si l'on en a les moyens. Mais les a-t-on ? Tout dépend de ce que l'on entend par le terme crise. Mais aussi de la manière dont on entend agir, à quel moment, avec quels instruments.

Il est bien de dénoncer la tendance contemporaine à considérer que dès qu'il y a crise, tous les moyens seraient bon pour en neutraliser les effets. Ce qui est plus ou moins l'état d'esprit de nos dirigeants actuels. Les besoins de l'instant l'emportent au point de fausser ou même de supplanter toute réflexion utile sur les véritables sources du mal auquel on veut porter remède. Au point surtout que ne sont plus écoutées ni même entendues que les analyses ou les explications de pacotille qui laissent croire qu'il y aurait des solutions immédiates ou quasi-immédiates, disponibles sur l'instant. Et que les mettre en œuvre ne serait qu'une question de volonté – politique bien sûr. Ce qui est mieux est d'abord de chercher à comprendre quelle est la véritable source de ces fluctuations qui font que l'évolution économique alterne entre phases d'expansion et phases de récession, voire de crise, sur fond d'un trend moyen de croissance longue nourri par la démographie et les progrès de la productivité. 

Ces fluctuations sont le résultat d'une observation empirique portant maintenant sur plus deux siècles d'expérience. Elles ont capté l'attention des économistes pendant des décennies. Mais, paradoxalement, elles ont disparu de l'agenda des économistes modernes, à partir du moment où la mathématisation du paradigme économique a centré leurs réflexions sur les problèmes d'équilibre et d'optimum. Cette conversion de l'analyse économique aux contraintes de la formalisation mathématique a certainement apporté un supplément de rigueur scientifique à cette discipline qui, autrefois, à l'université, relevait plutôt de l'art littéraire et dépendait de l'enseignement des matières juridiques. (Je me rappelle mes premiers cours d'économie à Sc.Po à la fin des années cinquante, avant que Raymond Barre ne vienne y faire la révolution avec ses graphiques de courbes d'offre et de demande ; mais je n'étais plus là pour l'écouter). Elle a notamment  amené le développement des outils d'analyse économétrique qui enfin permettaient de soumettre des hypothèses à la contrainte de la vérification empirique via l'utilisation intensive de données statistiques. C'était un progrès incontestable. Mais point trop n'en faut. Les économistes en ont payé le prix, d'une part en tombant dans le travers de réduire la notion de coûts à des données objectives susceptibles d'être scientifiquement observées et mesurées, comme dans les sciences dures ; d'autre part,  en focalisant toute leur attention sur les nouvelles approches macroéconomiques dont la caractéristique était de reléguer au magasin des accessoires obsolètes tout ce que leurs prédécesseurs — les auteurs qu'on a pris l'habitude de classer dans la catégorie des économistes classiques — avaient accumulé concernant la connaissance des processus générateurs de cycles économiques. On parlait alors de mouvements économiques généraux, titre de l'opus magnum de Léon Dupriez (1901-1986), professeur à l'Université de Louvain.

Avec Keynes et ses disciples, on est passé à un système d'analyse dont le point de départ, comme le point d'arrivée étaient la fiction de l'optimum ; ce qui conduisait à aborder les mouvements de la conjoncture, et en particulier les récessions, moins comme une étape logique dans une suite de processus, que comme le produit de perturbations modifiant de manière exogène un état d'équilibre qu'il convenait donc de rétablir en identifiant leurs causes ainsi que les mécanismes et les canaux responsables de leur transmission. De là est venue cette obsession de la crise perçue comme une nuisance externe qu'il convient, comme vous le décrivez dans votre question, de « corriger dans l'intérêt de la stabilité des marchés et de la prospérité des peuples » (pour utiliser vos grands mots qui font plutôt penser à la langue de bois); puis tout l'art de la politique économique conçue comme le management au plus près de l'évolution économique grâce au maniement par les agents de l'Etat d'immenses modèles de prévision  dont la caractéristique est de représenter l'économie comme une énorme machine dont les éléments sont en mouvement permanent mais qui elle-même relève d'un ordre finalement essentiellement statique puisqu'il ne s'agit jamais que de réparer pour revenir à ce qui aurait dû être mais qui n'est plus.

L'ancienne vision des fluctuations économiques vues comme le produit d'un processus endogène d'évolution dynamique, et privilégiant l'étude de ces processus de long terme, n'a pas disparu pour autant. Mais elle s'est réfugiée aux marges de la science économique désormais parée des atours de l'orthodoxie, et qualifiée de mainstream. Ses héritiers sont précisément ces économistes de l'Ecole autrichienne que vous évoquez dans votre question et dont les maîtres à penser s'appellent Hayek, Mises ou Rothbard. L'un des faits qui mérite d'être souligné est que cette tradition, loin de disparaître, est au contraire en train non seulement de renaître (à travers la renommée grandissante de centres universitaires américains, comme la George Mason University à Fairfax, près de Washington), mais également d'étendre à nouveau son influence sur des lieux de recherches qu'on jugerait a priori comme les moins propices à un tel accueil. Je pense là aux travaux de l'équipe des économistes de la Banque des réglements internationaux, à Bâle, regroupée autour de Claudio Borio, dont j'ai déjà évoqué l'existence dans ma réponse à une précédente question.

Grégoire Canlorbe : Qu’est-ce que ces Bâlois ont en commun avec les « autrichiens » ?

Henri Lepage : Ce ne sont certes pas des 'autrichiens' au sens strict. L'un des défauts des économistes de l'Ecole autrichienne (pas tous heureusement, et cela évolue) est de souvent se comporter un peu comme une secte, à coups d'anathèmes et de refus de toute compromission avec les autres écoles de pensée qu'ils considèrent dans l'erreur, alors que eux détiendraient la vérité. Ce n'est pas le cas des chercheurs de la BRI. Il semble que ce soient des économistes plutôt mainstream, sachant manier tous les instruments de la recherche économétrique contemporaine, mais dont les idées sur la problématique des crises ont profondément évolué par rapport au corpus dominant de  l'orthodoxie de type néo-keynésienne. Or, de manière surprenante, on y retrouve nombre de thèmes et de problématiques qui, jusque-là, n'étaient présents que chez les autrichiens et assimilés.

Lors d'une conférence au Cato Institute, Claudio Borio a par exemple présenté ce que sont selon lui les trois grands sophismes de la pensée macroéconomique dominante.[19]

Le premier concerne les taux d'intérêt. Ceux-ci sont exceptionnellement bas. Ils n'ont jamais été aussi bas pendant aussi longtemps (même au moment de la Grande Dépression). L'explication qui en est donnée est soit que c'est à cause d'un excédent mondial d'épargne généré par les politiques mercantilistes et la sous-évaluation de leur monnaie par les grands pays émergents, au premier rang desquels la Chine, évidemment (l'explication de Ben Bernanke) ; soit une conséquence de changements structurels de long terme affectant la démographie (le vieillissement de nos populations mis en avant par Larry Summers dans son scénario de stagnation séculaire en même temps qu'il insiste sur les effets insidieux de l'accroissement des inégalités de revenu et de patrimoine) ainsi que l'innovation et la productivité ( cf. la critique de Robert Gordon qui considère que l'actuelle vague de progrès technologique ne débouchera jamais sur un effet d'entraînement économique aussi intense que les précédentes révolutions industrielles). Si l'économie éprouve encore tant de difficultés à repartir, nous dit-on, c'est parce que si les taux sont bas, il ne le sont pas encore assez, la barrière du taux zéro les empêchant de s'aligner sur le niveau, présumé négatif, de ce que nos grands économistes considèrent être le nouveau taux naturel dicté par le ralentissement du trend potentiel de croissance – la preuve de cette hypothèse nous étant donné par le fait que l'inflation reste elle aussi très basse, inférieure au rythme de hausse des prix de 2% considéré par les pouvoirs publics comme normal en période de croissance normale. D'où la tentation que l'on observe actuellement chez les banques centrales de recourir à des moyens d'action extraordinaires comme l'interdiction du cash (pour libérer les taux du plancher des taux zéro en empêchant les agents économiques d'échapper à la taxe sur les comptes bancaires que leur imposerait la présence de taux négatifs). A n'en pas douter, une telle interdiction constituerait une atteinte majeure aux libertés individuelles (on en voit actuellement les ravages économiques catastrophiques que cela déclenche en Inde). Mais qu'une telle hypothèse soit aujourd'hui examinée avec autant de sérieux en dit long sur la profonde perversion intellectuelle à laquelle conduit le système de pensée représentatif de l'actuelle orthodoxie économique.

La faille de cette orthodoxie est de n'appréhender le mouvement de l'économie que par le petit bout de la lorgnette – c'est à dire comme une succession d'états d'équilibre reliés entre eux par des processus d'ajustement de courte période, sans tenir compte de ce que ce chemin d'équilibre puisse entrer en conflit avec d'autres forces de déséquilibre exerçant cette fois-ci leurs effets dans la longue durée. Si c'est le cas, cela signifie que les taux d'intérêt alors observés ne sont pas des taux d'équilibre, mais des taux de déséquilibre dont les effets d'ajustement sont susceptibles d'interférer avec le chemin de croissance de l'économie réelle. Autrement dit, la monnaie n'est pas neutre, contrairement au postulat de neutralité à moyen/long terme si caractéristique de la pensée keynésienne. (On touche là au second sophisme de la liste de Borio). Et il n'est pas impossible que ce soit précisément dans l'étude dynamique des conséquences et propriétés de ce principe de non-neutralité que se trouve en réalité la réponse à toutes les questions que nous nous posons depuis bientôt neuf ans. Telle est en quelques lignes la feuille de route du groupe des économistes de la BRI.

Ceci les conduit à centrer leur attention sur la dynamique de long terme des déséquilibres financiers qui ne sont jamais pris en compte dans les modèles de prévision de l'économie mainstream puisque, par définition, le long terme n'y est jamais considéré que comme une addition de courts termes, sans effets spécifiques. C'est ainsi que le produit le plus remarquable de leurs recherches est la construction d'un modèle macroéconomique intégrant un certain nombre de variables financières comme les variations du prix relatif des actifs, l'évolution de l'endettement et des ratios d'endettement, tant privés que public, celle des ratios de levier et de liquidité, etc... Ce modèle vient de livrer ses premiers résultats, et il semble qu'en matière notamment de croissance, d'inflation et de taux il donne des prévisions de bien meilleures qualités que les modèles habituels, confirmant ainsi que l'intégration des variables financières permettrait de progresser dans l'appréhension des problèmes économiques contemporains.

Cette implication dans la recherche empirique n'est pas très conforme aux canons de l'économie autrichienne dont la philosophie est de faire davantage confiance à la force de la logique déductive fondée sur les axiomes de l'action humaine, comme l'enseigne Mises, qu'à la croyance que les progrès de la connaissance scientifique pourraient résulter de la simple découverte de relations et corrélations empiriques. Il y a sans doute beaucoup de vrai dans cette réticence des autrichiens à l'encontre des méthodes mainstream de la science économique. Mais il ne faut pas que cette attitude devienne trop systématique, car cela ne peut que les isoler encore plus définitivement de leurs collègues alors qu'en fait certains, comme les gens de Bâle, sont précisément en train de se rapprocher d'eux en plaçant l'étude des effets de taux d'intérêts bas sur l'état à court et long terme de l'économie réelle au centre de leur paradigme de recherche.

L'un des points les plus intéressants de leurs recherches est en effet l'analyse des conséquences que ces taux bas entraînent sur la dynamique d'allocation des ressources et ses répercussions sur l'efficacité productive des appareils de production. Or là on est en plein dans le domaine de prédilection de l'analyse autrichienne : comment le maintien de taux d'intérêt artificiellement bas fausse le calcul économique et conduit les entrepreneurs à prendre des décisions dans l'espérance de gains futurs qui en réalité n'auront jamais aucune chance de se matérialiser ; comment ces 'erreurs', en se multipliant, cassent l'équilibre des relations interindustrielles dont la fonction est d'assurer la coordination complexe de l'ensemble des activités économiques et financières dans le temps et dans l'espace ; comment cela entraîne une déformation progressive de l'appareil économique qui, dans un premier temps, favorise le passage à des rythmes de croissance plus élevés, mais insoutenables dans la durée en raison des dysfonctionnements qui résultent précisément des distorsions introduites dans l'appareil productif et dont la conséquence est de freiner la trajectoire des gains de productivité ; comment la persistance de taux d'intérêt bas incite les agents économiques à s'endetter toujours davantage, comment cette dette déstabilise l'équilibre des bilans des entreprises et des banques, et les incite à adopter des comportements de plus en plus risqués et spéculatifs, comment cette atmosphère de casino généralisé se termine immanquablement par une crise boursière et financière qui inverse le mouvement et provoque une processus de désendettement généralisé. Le boom cède alors la place au bust et à la crise.

Dans le détail les langages diffèrent, la méthodologie aussi. Mais on est bien sur des terrains convergents, et l'on débouche sur le même diagnostic : la responsabilité des banques centrales et du modèle de représentation  économique qui guide leurs responsables depuis qu'Alan Greenspan et ses confrères ont convaincu les dirigeants politiques qu'ils avaient désormais les savoirs et les connaissances pour piloter nos économies au plus près. Le comble de la prétention de savoir (The Pretence of Knowledge) comme aurait dit Hayek !

Les économistes de la BRI sont très explicites sur ce sujet. La crise financière, la Grande Récession et la faible croissance qui s'en suit pendant une période inhabituellement longue trouvent leur origine dans un mode de conduite de l'économie qui repose sur deux défauts majeurs :

  • un pilotage par l'inflation : si l'inflation progresse plus vite que la cible que je me suis donnée (2%), c'est que mes taux d'intérêt sont trop bas et qu'il faut que je les relève ; si elle est plus faible, c'est que mes taux sont trop élevés et qu'il faut que je les baisse – sans tenir compte de ce que d'autres données financières objectives comme la progression de l'endettement, la flambée du prix des actifs financiers (actions, obligations) ou le mouvement relatif des prix des matières premières et des grandes parités monétaires peuvent me donner des indications contraires à ce que je crois que le couple taux/inflation m'indique de faire.
  • une conduite asymétrique de la politique conjoncturelle. Les simulations menées sur le modèle de prévision incorporant les variables financières et monétaires font clairement apparaître que si les banques centrales ont tendance à réagir très vite au moindre signe de ralentissement économique, à l'inverse elles tardent trop longtemps avant d'ajuster leurs taux lorsque l'économie est en réalité prisonnière d'une accumulation insoutenable de déséquilibres financiers. Si elles avaient disposé d'outils et d'instruments leur permettant de surveiller de plus près la conjoncture financière, il est vraisemblable que le monde aurait pu faire l'économie d'une crise aussi grave que celle que nous venons, et continuons de connaître ; les conséquences du cycle financier auraient été moins dramatiques.

Pour être franc, je ne partage pas leur optimisme que disposer de tels outils permettrait aux responsables de la politique économique de remédier à cette coupable asymétrie et d'échapper ainsi au déterminisme d'un cycle financier de longue période dont  les travaux de la BRI évaluent la durée entre 16 et 20 ans avant que les choses ne se normalisent (ce qui nous annoncerait encore une dizaine d'années de difficultés, chiffre auquel arrivent d'autres économistes par des chemins très différents – comme par exemple ceux qui mettent en cause la pénurie structurelle de safe assets  liée aux mutations qu'entraîne l'essor international de la finance de marché). Il reste en effet toujours l'obstacle du cycle politique si bien mis en lumière par James Buchanan et Richard Wagner dans un petit livre qui date de 1977. Le jeu des débats et élections démocratiques fera que tout effort centralisé de régulation de la croissance économique et de l'inflation aura toujours un caractère asymétrique. Pour que cette asymétrique disparaisse il ne faudrait rien moins qu'enlever aux banques centrales leurs responsabilités économiques modernes, sinon les supprimer carrément. Personnellement je n'ai rien contre. Mais admettons que présentement cela relève encore du rêve pieux ! Ce n'est pas demain que l'on pourra faire passer le message.

Grégoire Canlorbe : Vous avez mentionné trois sophismes. Quel est le troisième ? Par ailleurs vous n'avez pas vraiment répondu à ma question concernant Pareto.

Henri Lepage : C'est vrai. Le troisième point cité par Borio concerne la peur panique que nos dirigeants économiques nourrissent à l'égard de la déflation. Dès que la hausse des prix s'approche de zéro, ils s'affolent au point d'être prêts à adopter les mesures les plus folles (comme l'interdiction du cash ou l'helicopter money) pour éviter que l'économie ne disparaisse dans l'abominable trou noir de la déflation. C'est un réflexe qui leur vient des souvenirs de la Grande dépression et surtout du scénario de déflation par la dette qu'Irving Fisher a définitivement ancré dans l'esprit des économistes contemporains en publiant son article « The Debt Deflation Theory of Great Depressions » de 1933.

A la fin des années 1990, j'ai sans doute été le premier à Paris à organiser, avec le concours de Pascal Salin, un petit colloque sur le thème « faut-il avoir peur de la déflation ? ». Le thème était qu'il existe en fait deux formes de déflation : une bonne et une mauvaise, la bonne étant celle qui apparaît lorsque la productivité progresse plus vite que la croissance et entraîne de ce fait une baisse des prix qui se traduit immédiatement par des gains de pouvoir d'achat. Dans ce cas il n'y a aucune raison de s'inquiéter. On peut même arguer que cela correspond, ou devrait correspondre au mouvement normal des prix en régime capitaliste. Il n'y a qu'à regarder ce qui se passait au 19ème siècle : les prix baissaient régulièrement d'environ 1 % par an. Alain Madelin est persuadé qu'avec les disciplines de la mondialisation et le progrès des nouvelles technologies le XXIième sera le siècle du retour à une croissance déflationniste. Je suis d'accord avec lui. Sauf que j'y ajouterais une condition : que le retour de la finance de marché se révèle durable (que les banques centrales n'aient pas sa peau).

C'est un plaisir de découvrir qu'aujourd'hui des économistes qui appartiennent au gratin de leur profession reconnaissent, et le clament publiquement, que cette crainte récurrente de la déflation n'est qu'un croque-mitaine. L'équipe de la BRI a passé au peigne fin les données de 38 pays sur plus de 140 années (1870-2013). Leurs résultats montrent que l'idée selon laquelle les déflations de prix sont nécessairement associées à de fortes pertes de croissance ou à de longues périodes de croissance négative est totalement surfaite. Plus encore : ils démontrent que rien ne vient étayer empiriquement le scénario pervers de l'enchaînement dette-déflation d'Irving Fischer. Bonnes gens, dormez tranquilles !

« S'il était possible d'empêcher absolument les crises, me demandez-vous en reprenant la phrase de Vilfredo Pareto, serait-il utile de le faire ? ». En fait, ce n'est pas du tout de cette façon que se pose le problème. Le terme 'absolument' ne correspond à rien. Pour le comprendre il faut revenir un instant à quelques principes de base de la circulation monétaire (qui malheureusement ne font plus partie des cours d'enseignement élémentaire de l'économie).

Nous vivons dans des économies à monnaies fiduciaires irriguées par des systèmes bancaires à réserves fractionnaires – c'est à dire des systèmes où les banques peuvent utiliser leur liberté commerciale (la liberté d'accorder des crédits à des tiers) pour créer de la monnaie ex nihilo (la monnaie de banque). Ces systèmes où la monnaie est principalement fondée sur le crédit s'opposent aux régimes 100% réserves où les banques ne peuvent pas prêter au-delà du montant global de dépôts préalablement accumulés.

Un système à réserves fractionnaires génère inévitablement de l'instabilité. Le surplus de monnaie bancaire fabriquée à partir de rien, sans contrepartie initiale en espèces matérielles, est en effet à l'origine de la création d'un pouvoir d'achat monétaire supplémentaire auquel ne correspond au moment où il s'exerce l'apport d'aucune ressource nouvelle. L'accroissement de la concurrence pour la distribution d'une production qui, pour l'instant, n'a pas encore augmenté provoque la montée de certains prix, donc l'intérêt des producteurs à répondre à l'augmentation de la demande par une offre accrue de produits, et ainsi de suite. On a le début d'un processus de type boom inflationniste qui va se développer et prendre de l'ampleur au fur et à mesure que les banques continueront, par le crédit, à accroître leur offre de monnaie à partir de rien. Cependant la caractéristique d'un infla-boom est que la croissance ne se fait jamais selon un processus parfaitement homothétique. La nouvelle monnaie ne se diffuse pas instantanément à tous les utilisateurs. Les premiers servis sont ceux que leur activité place au plus près de la source bancaire. De même pour les hausses de prix ainsi que les hausses de coûts induites. Elles ne touchent pas tout le monde au même moment. L'infla-croissance ne se développe donc jamais selon un schéma linéaire. Elle génère des inégalités et des déséquilibres sources de multiples distorsions qui viennent dérégler les rouages complexes de  la régulation intersectorielle. Ces déformations de la structure de production  s'amplifient jusqu'au jour où, quelque part, un rouage casse, et c'est le bust – plus précisément le défla-bust,  c'est à dire la crise. C'est ainsi que naissent les fluctuations économiques caractérisées par l'alternance de périodes de croissance et de récession. Les crises ne sont pas des accidents – il faut en finir avec cette manière de voir caractéristique de l'économie néo-classique contemporaine — mais le produit d'un processus endogène qui fait qu'arrive un moment où le système lui-même ne fait pas une pause, comme le suggère l'analogie de Pareto, mais éprouve la nécessité de procéder à un nettoyage, un lessivage de ses artères pour éliminer les corps parasites qui s'y accumulent, et remettre en quelque sorte les compteurs à zéro pour assurer un nouveau départ sur des bases assainies. Autrement dit, la virtualité de la récession-crise est d'ores et déjà toute entière contenue dans le phénomène premier qu'est l'infla-boom. Dès qu'il y a boom il y a nécessairement promesse de crise, et rien ne pourra jamais absolument l'empêcher. Imaginer que l'on puisse 'absolument' éviter les crises est un incongruité absolue. La crise n'est pas un mal absolu, mais l'équivalent d'une cure médicale imposée à un corps malade, une 'nuisance' malheureusement nécessaire pour remettre le patient en état de fonctionner. Cette description typiquement 'autrichienne' me va parfaitement.

Evidemment on peut imaginer un mécanisme réglementaire qui aurait pour effet d'inciter les banques à s'imposer un régime de crédit à 100% réserves. C'était l'idée que nourrissait notre seul prix Nobel d'économie, Maurice Allais. C'est la proposition que vient de réitérer Mervyn King, l'ancien Gouverneur de la Banque d'Angleterre de 2003 à 2013, dans un livre paru l'an dernier.[20] Mais, ainsi que je le démontre dans un article critique qui doit paraître à peu près en même temps que cet entretien, un tel mécanisme aboutirait inévitablement à recréer au sein de l'administration de la banque centrale un véritable Gosplan à la soviétique. Est-ce cela que nous désirons ?

Cette autorégulation systémique comporte inévitablement des coûts, coûts matériels en richesses non produites, coûts humains liés au chômage et à la régression momentanée du niveau de vie, coûts politiques résultant des troubles sociaux qui s'ensuivent. Autant faire en sorte que ces coûts soient les plus réduits possibles. C'est pour cela, nous dit-on, que l'on a créé les banques centrales. On leur a donné pour mission de lisser les booms et les crises et, peu à peu, on s'est mis dans la tête qu'elles avaient peut-être les moyens de faire disparaître les crises. Pendant quelques temps on a nourri l'illusion qu'on y était arrivé (la période dite de la Grande modération). Et puis est arrivée la crise financière. Fin des espoirs. Et plus personne ne comprend ce qui arrive.

Ce qui nous arrive est simple. Les banques centrales, en définitive, ont failli à leur mission. Plus rien, aujourd'hui, ne permet de dire qu'elles ont permis de réduire significativement l'instabilité foncière de nos économies capitalistes, si ce n'est même l'inverse (comme l'affirme George Selgin[21]). Pour s'en convaincre il n'est que de consulter le tableau dressé par Kenneth Rogoff et Christina Romer dans leur livre  de 2009 « This Time is Different ». Et s'il en est ainsi c'est parce que loin d'être la solution au problème de l'enchaînement des booms et des récessions, ELLES sont LE problème.

Pour saisir pourquoi, il nous faut une nouvelle fois faire le détour par le b.a.-ba de la production bancaire, c'est à dire la façon dont fonctionne concrètement le mécanisme de création de la monnaie bancaire.

Il est vrai qu’en régime de réserves fractionnaires, le mécanisme du crédit aboutit à la création de moyens de paiements ex nihilo. Ce n’est pas niable. Cependant, lorsque le bénéficaire d’un prêt en encaisse le montant, ce n’est vraisemblablement pas pour en garder le montant à son compte, mais pour payer des salariés ou des fournisseurs auxquels il fait des chèques qui, à leur tour, iront nourrir les comptes d’autres personnes domiciliées dans d’autres banques. Celles-ci vont porter les chèques à une chambre de compensation locale pour en demander le paiement par la banque émettrice. Pour régler sa dette, cette dernière puisera dans le cash qu’elle détient. Pour ne pas se retrouver en difficultés, elle devra avoir prévu par avance de détenir le cash nécessaire à cette opération. Mais d’où viendra cet argent ? Pour rendre les choses simples, nous dirons qu’il n’y a que deux sources possibles : il vient de la poche des propriétaires de la banque eux-mêmes (le capital), ou il vient de nouveaux dépôts que les commerciaux de la banque auront attirés au détriment des concurrents par un effort de marketing accru. Conséquence : la création monétaire qui résulte comptablement de l’ouverture d’un crédit dans une banque est annulée lorsque celle-ci s’organise pour couvrir, avant ou après, les besoins en cash qui y sont associés – sauf pour la part de chèques émis au profit de personnes tierces qui elles-mêmes possèdent un compte dans la même banque que celui qui a bénéficié du prêt. Ce qui signifie que – et c'est cela qui est important — globalement, la création nette de monnaie ex nihilo qui, au niveau de l’ensemble du système bancaire, résulte du mécanisme du crédit est intrinsèquement liée à l’état de la concurrence que les banques se livrent entre elles pour capter la clientèle des déposants. Plus la concurrence sera virulente, plus les clients auront le choix entre l’offre de banques rivales, plus le démarchage pour capter les clients sera intense, plus cette création de monnaie créatrice de «faux droits» sera proportionnellement contrainte. À l’inverse, moins la concurrence est forte, plus les banques seront protégées par leurs connivences avec l'appareil d'Etat, plus elles auront paradoxalement la liberté de créer de la 'fausse' monnaie (les 'faux droits' de Jacques Rueff), plus l'instabilité économique prévaudra, et plus il faudra craindre les crises.

Donc, attention aux réglementations d'Etat et aux interventions des banques centrales dont les seules recettes consistent à réduire toujours davantage l'intensité de la concurrence entre banques (prétendument au nom de l'intérêt général). Il n'est pas question de nier les conséquences potentiellement néfastes de ce que Mervyn King appelle l'alchimie bancaire – c’est-à-dire la transmutation, dans les bilans des banques, des dépôts courts en placements longs. Celle-ci est à l'origine d'un processus d'instabilité monétaire et économique de caractère quasiment congénital, intrinsèque au régime d'économie capitaliste tel qu'il a évolué depuis les débuts de la naissance de la banque moderne. Mais, paradoxalement, contrairement à ce que l'on nous enseigne, c'est précisément lorsque les banques sont les plus libres, et leurs activités les moins entravées par la réglementation, que l'on doit le moins en craindre les effets et les dangers. Il n'est absolument pas démontré qu'un régime de banques régulées par une banque centrale doté d'un monopole public doive nécessairement déboucher, dans le long terme, sur une dynamique de plus grande stabilité économique et monétaire.

Ainsi la réponse à la question que vous me posiez n'est pas de viser à supprimer les crises, ce qui ne veut rien dire, mais d'instaurer et de maintenir le maximum de concurrence de façon à ce que les banques se trouvent incitées à réduire d’elles-mêmes, autant que possible, l’importance de leurs pratiques alchimiques et donc l'amplitude des inévitables fluctuations qui en résultent, ainsi que les coûts qui y sont liés.

Pour conclure, et rebondir sur une des questions précédentes, j'ajouterai que ce que je viens d’expliquer est d'une importance capitale pour comprendre la gravité de ce qui est actuellement en jeu à travers la politique que la Fed et les banques centrales mènent pour étendre leur filet réglementaire aux réseaux de la finance mondiale de marché (voir question 3). Les principes de fonctionnement de ces marchés reposent en effet sur des mécanismes de régulation concurrentielle complexes mais d’essence analogue au schéma que je viens d’esquisser. Replacé dans cette optique l'essor du Global Money représentait donc un formidable espoir de voir enfin la logique du marché, des prix et de la concurrence reprendre le pas sur la démarche cartellisatrice des banques centrales. Contre toute attente on pouvait en espérer non pas nécessairement une croissance potentiellement plus rapide, mais un environnement plus stable et moins perturbé par une succession plus amortie de booms, de récessions et de crises moins violentes – ce qui est le plus que l’on puisse raisonnablement jamais attendre. Tel que cela se présente au jour d'aujourd'hui il est malheureusement à craindre que ce ne soit qu'un nouvel espoir déçu.

Grégoire Canlorbe : Merci pour votre temps. Aimeriez-vous ajouter quelque chose ?

Henri Lepage : Votre questionnaire comportait dix questions. J'ai répondu à cinq. Je vous propose que l'on reprenne langue plus tard pour répondre aux cinq suivantes.

 

Footnotes

  1. ^ Perry Mehrling, « Global Money, A work in Progress », Perry Mehrling personal blog,  12 juin 2016.
  2. ^ Lawrence Goodman, « Why CFS Divisia Money Matters, Now ! », Center for Financial Stability, 8 juillet 2016.
  3. ^ Zoltan Pozsar, « Shadow Banking : the Money View », Office of Financial Research Working papers, Washington, 2 juillet 2014. 
  4. ^ Henri Lepage, « Shadow banking et bulle financière : l'autre vision », Institut Turgot, 14 septembre 2015.
  5. ^ Jeffrey Snider, « Why Quantitative Easing Can Never Work », Alhambra Investment Partners, juin 2016.
  6. ^ Jaime Caruana, « What are capital markets telling us about the banking sector ? »? BIS, 17 novembre 2016.
  7. ^ Steve Hanke, intervention au colloque monétaire du Cato Institute, 17 novembre 2016
  8. ^ Zoltan Pozsar, « From Exhorbitant Privilege to Existential Trilemma », Global Money Notes n°8, Credit Suisse, 18 novembre 2016. 
  9. ^ Perry Mehrling, « The New Lombard Street : How the Fed Became the Dealer of Last Resort», Princeton University Press, 2011. 
  10. ^ Jeffrey Snider, « Shrinking Eurodollars, Eurobanks and Dark Leverage », David Stockman's Contra Corner, 1er mars 2016.
  11. ^ Voir Robert Hetzel, The Great Recession: Market Failure or Policy Failure? (Cambridge : Cambridge University Press, 2012).  David Beckworth montre que le même genre d’erreur commise par la BCE en 2011 est à l’origine de la grande crise de l’euro : David Beckworth, « The Monetary Policy Origins of the Eurozone Crisis », Mercatus Center Working Paper, juin 2016
  12. ^ David Stockman, The Great Deformation,  PublicAffairs New York, 2013, chapitre 2 « False Legends of Dark ATMS and Failing Banks »
  13. ^ Christophe Pérignon, David Thesmar, Guillaume Vuillemey, « Wholesale Funding Runs », 29 mars 2016.
  14. ^ Geeorge Kaufman, « Bank Runs : Causes, Benefits and Costs », Cato Journal 7, n°3, 1988, pages 589-94.
  15. ^ Louise Bennetts, « Too Big to Fail is Too Foolish to Continue », Investor's Business Daily, 26 Avril 2013
  16. ^ George Selgin, « Were Banks 'Too Big to Fail' Before the Fed ? », Alt-M, 22 Mars 2016
  17. ^ Ben Bernanke, « Ending 'too big to fail' : Where's the right approach ? », Brookings blog, 13 mai 2016.
  18. ^ Richard W.Fisher, « Correcting 'Dodd-Frank' to Actually End 'Too Big To Fail », Dallas Fed, June 2016.
  19. ^ Claudio Borio, « Revisiting thee intellectual pillars of monetary policy received wisdom », Bank of International Settlements, novembre 2015
  20. ^ Mervyn King, «The End of Alchemy : Money, Banking and the Future of the Global Economy », Norton&Company, 2016.
  21. ^ George Selgin, William Lastrapes, Lawrence H.White, « Has the Fed Been a Failure ? », Cato Institute, 9 novembre 2010. 
A propos de l’auteur Henri Lepage Henri Lepage est économiste, connu pour ses livres "Demain le Capitalisme" (1978), "Demain le libéralisme" (1980), "Pourquoi la propriété" (1985) et "La nouvelle économie industrielle" (1989) publiés chez Hachette, collection Pluriel. Le journaliste Grégoire Canlorbe a mené plusieurs interviews pour des journaux tels que la revue scientifique "Man and the Economy", fondée par le Prix Nobel d’économie Ronald Coase, et des think-tanks tels que le Gatestone Institute, gregoire.canlorbe@wanadoo.fr — Article à citer comme: Henri Lepage, "Le libéralisme aujourd'hui", Arguments — Revue européenne de science, vol. 1, n°2, hiver 2016, http://revue-arguments.com/articles/index.php?id=8.