Random phrase

dimanche 10 février 2019

#GiletJaunes: Gouverner, ou la stratégie du contournement

Que dire des gilets jaunes quand on veut parler d'économie ? Par manque de données et en cette période de fake news, il est difficile de se faire une opinion, et les commentateurs se permettent donc de projeter leurs explications fétiches sur le phénomène. Economiam ne va donc pas se priver d'ajouter son grain de sel.

 J'suis tout nu sous mon gilet jaune

Cerner un mouvement décentralisé comme les gilets jaunes est compliqué. Les journaux n'en capturent qu'un certain angle (d'outsider), avec, comme souvent, des portraits individuels qui ne donnent pas une vision d'ensemble, ou bien le sensationnalisme des mobylettes qui brûlent et des boxeurs qui boxent. Certains chercheurs ont décidé de braver la rigueur statistique et le biais de sélection pour enquêter auprès d'un nombre famélique de manifestants (ce qui n'a pas empêché Le Monde de republier ce qui n'est au final qu'un post de blog).

De ces bribes d'information, il semblerait que :

Ca a le mérite d'etre clair (c) @GillesKLEIN
  • Les manifestants ne sont pas des habitués des structures organisées ou des manifs bobo parisiennes (la preuve, ils manifestent dans le froid et sans pétard...). C'est aussi pour ça que politiquement, ça ne cadre vraiment avec personne, même si on a essayé de parler de chemises brunes, en dépit de l'absence de revendications identitaires.
  • En termes de catégories socio-professionnelles ou de niveau de revenus, il s'agirait de gens qui bossent, plutôt dans le secteur privé et plausiblement dans des PME, des gens proches de l'action plutôt que des cadres et managers. Ce sont aussi souvent des gens qui sont leur propre patron, des auto-entrepreneurs (qui nécessairement font un chiffre d'affaire limité) ou des gérants de petits commerces (ce qui, couplé à la révolte contre les impôts a fait renifler à certains des relents de poujadisme)
  • Ils sont plutôt d'âge moyen, plutôt blancs, et ils viennent de partout en France, et pas que de la France périphérique ou de la Rust belt à la française (Tombeau des anges et terrils du Nord)

Bref, toutes sortes de gens, ce profil fait penser à ceux qu'on retrouve dans Le Quai de Ouistreham de Florence Aubenas, ou bien à l'image d'Epinal des fan de Johnny, Mylène Farmer ou Francis Cabrel. Mais chez Economiam, pour extrapoler sur ce post de Stéphane Ménia d'éconoclaste, on se demande si ce ne serait pas la fameuse "majorité silencieuse" de Sarkozy qui finit par se l'ouvrir. Cette majorité silencieuse qui justement voulait (veut) travailler plus pour gagner plus

Les raisins de la grogne

Sur la blogosphère française, l'explication qui semble l'emporter est que les gilets jaunes sont les perdants de la mondialisation et du progrès technique. éconoclaste parle ainsi de la polarisation des emplois, autrement dit du changement de la composition de la force de travail en faveur des emplois très qualifiés d'une part et des emplois peu qualifiés mais difficilement automatisables ou délocalisables (serveurs, aide à la personne, etc.) d'autre part, et ce au détriment des professions intermédiaires (comptable, secrétaires médicales, ouvriers qualifiés...). Cette polarisation priverait les classes moyennes (qu'éconoclaste identifie aux gilets jaunes) de lendemain qui chantent, et partant, le mouvement ne serait que le juste résultat de ce mouvement de fond. Olivier Bouba-Olga, quant à lui, décline le thème, avec son concept de CAME (Compétitivité, Attractivité, Métropolisation, Excellence).

Chez Economiam, on est moyennement convaincu par cette interprétation, qui semble surtout plaquée des Etats-Unis. En effet, même s'il y a clairement eu une redistribution des types d'emplois sur les trente dernières années du milieu de la hiérarchie des salaires vers les extrémités, il faut bien voir que :

  1. Certaines personnes se sont mises à occuper des métiers traditionnellement mieux payés et à niveau de compétence plus élevée. En l'occurence en France, il y a eu autant voire plus d'emplois transférés vers le haut de la pyramide que vers le bas (voir ici, graphique 7)
  2. Ceci ne tient pas compte de l'évolution des revenus dans le temps, c'est-à-dire que les "petites professions" peuvent avoir vu leur salaire augmenter.
De fait, en regardant les données Insee de plus près, on voit que le problème est surtout la stagnation des revenus depuis 20 ans pour l'immense majorité de la population. Et en résumé, il n'est pas clair que la transformation de la structure de l'emploi sur fond de mondialisation et de progrès technique soit le cœur du problème.

Salve Salvini

On pense donc qu'il y a une autre explication, qui s'inscrit dans le contexte de la montée des populismes dans toutes les démocraties modernes lorsque la croissance ralentit : gouverner dans ce cadre devient essentiellement une stratégie de contournement. Comment cela se fait-il ? Il faut bien voir que la politique en temps de paix n'est pas vraiment une question de bien commun, mais plutôt de redistribution entre différents groupes (voir section 1.3 ici). On voit alors que le jeu consiste à faire passer ces transferts avec le moins d'opposition possible, typiquement en étalant le coût sur un maximum de personnes, pour qui la différence serait imperceptible, ou sur des groupes qui protesteraient moins. Ah, tiens et si c'était le cas des Gilets Jaunes, s'ils sont bel et bien cette "majorité silencieuse" ?

Les exemples abondent (dont on retrouve un certain nombre dans ces revendications "officielles", mais invérifiées, reprises par de nombreux médias) :

  • Désindexations diverses, notamment des retraites, du livret A (temporairement), des APL, qui font que les montants perçus, mêmes s'ils restent constants en terme d'euros présents, représentent un pouvoir d'achat qui diminue à cause de l'augmentation des prix due à l'inflation
  • Niches fiscales et régimes spéciaux de retraite, qui permettent de réduire les impôts ou d'augmenter les retraites de certains groupes (parfois certes car cela est efficace économiquement), mais ce nécessairement au détriment des autres 
  • Régulations et interdictions partielles (numerus clausus sur les taxis parisiens/notaires, taxation du carburant pour les automobilistes mais pas pour les compagnies aériennes ou maritimes, glyphosate interdit aux particuliers mais pas aux exploitants agricoles, plans d'urbanisme...) qui permettent à certains groupes de profiter de rentes de situation et empêchent les nouveaux entrants d'améliorer les produits et services (ou de baisser leur coût) 
  • Utilisation de taxes proportionnelles à la consommation (TVA, etc.) qui sont moins visibles que des taxes comme la taxe sur l'héritage qui serait très efficace pour réduire les inégalités, mais qui est détestée 
  • Endettement public ou ventes bâclées d'actifs publics, reportant le coût des dépenses de la génération actuelle sur la suivante 
  • Restrictions sur le libre-échange, qui permettent principalement à certaines entreprises moins efficaces de survivre ou à d'autres de faire du surprofit, sans résultat sur l'emploi et en renchérissant le coût de la vie

Ainsi, par ricochet, si le Référendum d'initiative populaire (RIC) peut être vu comme une façon pour les Gilets Jaunes de ne pas se disperser à cause de disputes factieuses, on peut aussi l'interpréter comme un jugement sincère mais désabusé sur fonctionnement démocratique dans une société en stagnation, l'envie de donner le ton plutôt que de se faire enfumer.

Cependant, malgré le mécontentement qui s'exprime en ce moment, l'inertie a des fortes de chances de perdurer. Pourquoi ? Une explication possible est comportementale : les politiciens exploiteraient les biais cognitifs dont nous souffrons sans nous en rendre compte. Comme par exemple l'illusion monétaire (voir Fluctuations et Crises, chap. 4.3.2), qui fait que nous avons tendance à réfléchir en termes nominaux plutôt que réel (ce qui expliquerait les désindexations) ou l'escompte hyperbolique qui fait que nous sous évaluons fortement les coûts futurs (ce qui expliquerait le recours facile à l'endettement souverain).

L'autre explication est une intuition qui n'a été que récemment modélisée par les économistes, l'inattention rationnelle, c'est-à-dire l'allocation optimale de notre temps de cerveau disponible, ô combien limité. En effet, il est difficile de suivre les programmes et les annonces de politiques publiques tant les sujets sont multiples, souvent techniques et pas franchement passionnants (sans parler du fait qu'en ces temps de fake news, il faut aussi démêler le vrai du faux). Par exemple, que penser du glyphosate quand on n'est pas ingénieur agronome ? Du libre-échange quand on est instit ? Les gens doivent donc choisir comment allouer leur temps, et vont naturellement se concentrer sur les aspects qui les influencent le plus (par exemple les effectifs par classe dans le cas de l'instit). D'autant que le retour sur un éventuel investissement éducatif est plutôt faible quand on n'appartient pas à un groupe organisé, vu qu'un vote individuel ne pèse absolument pas dans la balance.

Selon l'explication qui l'emporterait, les solutions sont différentes :

  • Dans le cas des biais cognitifs, tel Ulysse enchaîné à son mât pour résister au chant des sirènes, il faudrait plutôt avoir recours à l'écriture dans la constitution, ou à des obligations supranationales (UE, OMC, etc.) pour empêcher la désindexation, le surendettement de l'Etat ou les politiques protectionnistes...
  • Quant à l'inattention rationnelle, le problème n'est pas la disponibilité de l'information (après tout, les débats de l'Assemblée sont retransmis dans leur intégralité), mais la difficulté de traiter cette masse de données brute dans les vingt-quatre heures d'une journée. Ainsi, paradoxalement, plus d'information augmente le coût de son traitement et a ainsi un effet négatif sur l'attention qui lui est portée. On propose ici quelques solutions, parfois provocantes, mais malheureusement ardues à implémenter : 
    • Simplifier : On attribue à Einstein cet aphorisme : "Il faut simplifier le plus possible mais pas plus qu'il ne faut". Le monde dans lequel nous vivons est régi par des règles complexes, qu'il est difficile de naviguer (impôts, retraites, sécu, mille-feuille administratif...). Ainsi, différents Etats ont entrepris de simplifier leur structure et leurs régulations (choc de simplification en France, campaign for plain English au Royaume-Uni), et plus généralement, résumer l'information fait aussi partie de cet effort de simplification. Cela semble logique, mais comporte beaucoup de complications et se pose notamment la question de l'impartialité du système d'information car les faits peuvent être interprétés de plusieurs façons, et d'autant plus quand certains faits sont laissés de côté pour condenser les contenus. Par exemple, le site du gouvernement qui montre la répartition de €1 000 de dépenses publiques ne va probablement pas insister sur les inefficacités possibles
    • Réduire le bruit et la fureur : C'est une gageure certes, mais il s'agit ici de réduire les interférences dans le signal d'information reçu par les individus, en réduisant les flux inutiles ou perturbateurs (fake news, informations en continu, etc.). Les fake news évidemment font perdre du temps à voire réussissent à tromper leur cible, tandis que la valeur marginale d'une minute supplémentaire de BFM TV est probablement très faible, et ne fait qu'accaparer le temps de cerveau disponible pour lui inoculer plus de pub. Sur le même thème, il vaudrait mieux limiter les actions des politiques : c'est une des propositions légèrement provocatrices d'Alexandre Delaigue qui commence par observer que les choses ont souvent tendance à se résoudre d'elles-mêmes. La tentation de légiférer à tout va serait ainsi au mieux inutile et au pire néfaste. Une variante de ce thème est Why fix it if it ain't broke (pourquoi réparer ce qui n'est pas cassé), le pragmatisme américain à l'état pur, qui veut éviter de briser l'équilibre global à cause de tentatives d'amélioration à la marge.

 

Eux et nous ?

L'analyse proposée ici est nécessairement partielle, car écrite encore à chaud, sur des données éparses et des observations indirectes. Car oui, c'est malheureux à dire, mais Economiam ne connaît pas de membres du mouvement des Gilets Jaunes, et pas même sur les réseaux sociaux, où les posts et tweets n'en parlent qu'à la troisième personne. Au-delà de la politique, il y a vraiment une fracture entre différents groupes de populations, qui nous semble urgent de résoudre, en France et au-delà. C'est peut-être là l'unique bénéfice de ce mouvement, de créer le dialogue, à conditions que les différentes parties n'y restent pas sourdes...

dimanche 28 octobre 2018

DSGE III: Mon petit DSGE, connaît pas la crise

Une des critiques principales adressées aux modèles DSGE est qu'ils n'ont pas vu venir la crise de 2008 et la récession qui s'ensuivit. Comment peut-on alors leur faire confiance ? Dans ce post on se pose donc la question : comment savoir si notre modèle est représentatif du monde réel ?

Poppers

Il en connaît un rayon sur les crises...
Dans le post précédent, nous avons discuté d'arguments de cohérence interne pour valider les modèles de type DSGE. Ici, on attaque le problème sous un autre angle, celui de l'adéquation avec les données empiriques.

Bon évidemment on se heurte immédiatement au problème qui fait pousser des cris d'orfraie aux détracteurs de notre discipline préférée : la macroéconomie n'est pas une science car elle ne permet pas de faire des prédictions falsifiables au sens poppérien du terme (excusez du peu). Plus prosaïquement, on ne peut pas faire d'expérience en laboratoire comme en physique pour corroborer ou invalider notre théorie. On doit donc se contenter d'une analyse statistique, comparant les chiffres produits par le modèle aux données réelles sur le PIB, le chômage, etc.

Objectif subjectif

En conséquence, l'objectif du modèle est crucial ici. Pour comprendre ce point, imaginons qu'on soit Auto Magazine, et qu'on veuille noter une Jeep. Certes, qui peut le plus peut le moins, mais il ne semble pas raisonnable d'espérer une performance optimale sur tous les critères possibles. Ainsi la Jeep n'est peut-être pas très adaptée pour circuler en ville de façon économique, ou particulièrement maniable pour un créneau, mais ça n'est pas forcément très grave. En revanche, on est en droit d'attendre qu'une Jeep se débrouille bien en dehors des routes goudronnées, ce qui est son objectif affiché.

Revenons à nos modèles et au premier post de la série, dans lequel on avait cité trois types d'objectif :

  • Pédagogique : Ce genre de modèle ne vise pas à représenter précisément le monde réel, mais à transmettre des intuitions économiques de façon formalisée pour mieux en analyser les implications logiques. C'est le cas par exemple de la concurrence pure et parfaite ou des modèles d'offre et de demande, tels qu'ils sont présentés aux étudiants 
  • Prévision : De Nostradamus à Madame Soleil, en passant par Alain Gillot-Pétré, l'envie de prédire1 le futur est une constante. Certains se sont rendus compte que l'on pouvait utiliser des modèles pour prédire les phénomènes physiques, avec plus (l'astronomie) ou moins (la météorologie) de succès. Partant, l'économie aussi a commencé à s'y mettre, cherchant à prévoir les mouvements boursiers (l'appât du gain aidant) ou des variables d'intérêt pour la politique économique
  • Inférence : Les prévisions pures sont bien sûr utiles (va-t-il pleuvoir demain, et aurais-je donc besoin de mon parapluie?). Mais une autre volonté profonde de l'être humain est de modifier le passé pour changer le futur, tels le Terminator ou Marty McFly. Sauf qu'évidemment la DeLorean n'existe pas, donc il faut essayer d'anticiper les effets des différents scénarios avant leur réalisation. C'est là qu'interviennent les modèles, qui permettent de faire des expériences de pensée chiffrées sur des réalités alternatives

Système métrique

Comment alors mesurer la performance d'un modèle selon son objectif ? On laisse ici de côté l'objectif pédagogique qui est moins pertinent pour cette discussion et commençons plutôt par la prévision qui est d'une certaine façon l'objectif le plus simple à évaluer, car il suffit de comparer ce que produit le modèle avec la réalisation observée. Pour notre objet d'intérêt ici, une étude de 2010 montre que même les modèles DSGE de pointe (ici le Smets et Wouters) n'ont qu'une piètre performance en matière de prévision. Nous voyons cela sur le graphique ci-contre, qui montre la réalisation empirique du PIB aux Etats-Unis de 1992 à 2006, en fonction de la prédiction du modèle. Si la prévision du modèle était bonne, on devrait observer une droite partant de zéro, de pente 1 (la fonction identité quoi). Au lieu de cela, on observe un nuage de point, sans motif particulier.

Edge, Gurkaynak (2010)
On est donc assez loin de pouvoir prédire quoique ce soit de façon fiable avec ces modèles. Il faut quand même préciser que cette performance ne les rend pas pire qu'autre chose, vu que les autres modèles standards - et ceux qui les utilisent - sont passés à côté de la Crise, comme le montre les graphiques ci-dessous : la ligne verte est la moyenne des prévisions économiques professionnelles (en anglais, Survey of Professional Forecasters - SPF - chacune représentée par une ligne grise), tandis qu'une sélection de modèles de type DSGE sont représentés chacun par une ligne rouge. On voit clairement que les prévisionnistes se sont plantés dans les grande largeurs et que les modèles DSGE font un peu moins bien que la moyenne mais sans être complètement absurdes.

Wieland, Wolters (2012)

R2D2

Passons à l'inférence, qui suppose de comprendre les relations entre les différentes variables pour pouvoir analyser les scénarios éventuels, comme par exemple : l'inflation augmente-t-elle ou diminue-t-elle si la banque centrale augmente les taux ?

Par conséquent, au niveau le plus basique, le modèle doit être en mesure de répliquer les données disponibles, ce qu'on quantifie par sa qualité d'ajustement. Les métriques classiques sont par exemple le coefficient de détermination (plus connu sous le nom de R2) ou encore l'erreur quadratique moyenne. Une bonne vieille inspection visuelle peut aussi faire l'affaire. On montre par exemple ci-contre que le Smets et Wouters (ligne grise) se débrouille plutôt pas mal comparé aux données trimestrielles américaines de l'après-guerre (ligne noire).

Del Negro, Schorfheide, Smets, Wouters (2005)

De plus les modélisateurs DSGE rajoutent leur petit grain de sel aux mesures classiques : la réponse impulsionnelle. En effet, il est possible de simuler un monde virtuel "toutes choses égales par ailleurs" à l'aide de modèles statistiques avancés (dits vectoriels autoregressifs structurels). Le but du jeu étant de voir si le comportement du modèle DSGE est similaire à celui du modèle statistique lorsque se produit un choc (de technologie par exemple comme nous en avons mis en avant dans le premier post). C'est ce qu'utilisent notamment Christiano, Eichenbaum et Trabandt dans un article récent, défendant les modèles DSGE. On voit que la ligne pleine bleue suit très bien les contours esquissés par les modèles purement statistiques (lignes grises).


Il faut quand même noter que ce genre de comparaison suppose de valider aussi le modèle auquel on s'étalonne, donc ce genre d'argument est parfois un peu comme le serpent qui se mord la queue ! Nous rentrerons dans plus de details sur ce point, ainsi que d'autres aspects statistiques dans un post séparé.

Just missing the point

Malgré tout, il y a un aspect un peu embêtant dans la recherche actuelle sur les modèles DSGE : il y a eu très peu de recherche sur la modélisation de la Grande Dépression de 1929. Certes certains modèles de taille réduite ont été développés au tournant de ce siècle, mais plutôt dans un but d'histoire économique. Economiam n'a ainsi pas trouvé de traces de tentatives d'estimer des modèles néo-keynésiens (comme par exemple celui de Smets et Wouters) sur les données de cette époque, même après la Crise de 2008 (si quelqu'un connaît des papiers, on est preneurs).

Pourtant, il semble logique d'attendre de ces modèles qu'ils capturent la crise la plus marquante du XXe siècle, car c'est là la justification principale de leur existence. Rappelons en effet qu'ils prétendent se baser sur des invariants de comportements humains, ce qui les rendrait plus fiables que les modèles purement statistiques (qui ont du mal à capturer les réalités très différentes à la fois de 1929 et de maintenant). On pense donc chez Economiam qu'un DSGE qui connaîtrait la Crise (de 1929) aurait vu plus loin que le bout de son nez en 2008...

-------------------------------------------------------------------
1. Il semblerait que le lexique n'ait pas complètement convergé entre prédiction et prévision dans le monde de la data science francophone, à cause de l'anglicisme sur prediction (utilisé par exemple dans le très populaire Introduction to Statistical Learning) qui se distingue peu d'après le Oxford Dictionary de forecast. Ce dernier n'a cependant pas obtenu les mêmes galons de coolitude dans le cénacle des buzzwords du Big Data.

mardi 18 septembre 2018

DSGE II: Micromégas

Feu Philip Seymour Hoffman, l'acteur oscarisé pour son interprétation magistrale de Truman Capote dans le film éponyme aurait dit: "Je pense que les bons artistes, au risque d'être pédant, s'occupent du micro pour expliquer le macro". Au-delà du fait que l'origine de cette citation est invérifiable, on voit déja les mauvaises langues se délier pour dire que son addiction à la drogue l'a transformé en économiste néoclassique... Bref, plus que jamais, le monde des modèles DSGE se veut chimérique ! On s'intéresse ainsi maintenant aux fondations microéconomiques de ces modèles macroéconomiques.

Du bienfondé des microfondations

De SanG froid... E
Au sein des débats sur les modèles DSGE, les microfondations sont l'un des aspects les plus critiqués. De quoi parle-t-on là? Si l'on revient au post précédent, il s'agit du choix de représenter les consommateurs et les entreprises individuellement, et d'agréger leurs interactions microéconomiques (négociations salariales, maximisation des profits) pour expliquer les phénomènes macroéconomiques (variations du PIB, du chômage, etc.) plutôt que de chercher à modéliser ces derniers directement.

Faisons tout de suite une mise au point : nombre de discussions mélangent allègrement le choix de partir d'une modélisation microéconomique avec la façon de modéliser ces comportements individuels. Expliquons-nous : les individus de cette économie ne sont pas vraiment votre tata Monique ou papy Raymond, mais des représentations mathématiques simplifiées. Le choix des représentations peut être plus ou moins judicieux : on peut par exemple supposer que tout le monde se comporte de façon rigoureusement identique, ce qui est, on le verra dans un post séparé, une hypothèse très forte. En attendant, on se concentre ici sur le concept même de modéliser les comportements individuels plutôt que les quantités agrégées directement, comme le font par exemple IS-LM ou OG-DG (voir chapitre 3.1 de Fluctuations et Crises).

Microcosmos

Alors pourquoi se casser la tête à partir des individus pour représenter l'économie? Après tout, dans les sciences naturelles, cette approche n'est pas forcément suivie: il n'y a qu'à voir la mécanique classique, qui analyse la chute des corps et le mouvement des astres sans se préoccuper des interactions entre les atomes qui les composent.

La raison est notamment à trouver du côté des facultés d'adaptation de l'être humain : n'étant pas des rats de laboratoire, nos comportements, notamment grégaires, changent au cours du temps ou au gré des victoires (ou défaites) en coupe du monde. Les relations agrégées sont donc nécessairement de nature purement statistique, basées sur quelques dizaines ou au mieux centaines d'observations vu la faible fréquence des données macroéconomiques. On est très loin du big data, ce qui nous expose à des problèmes de validité statistique (on parlera dans un autre post des problèmes d'estimation dans le contexte des modèles DSGE). Et même avec de meilleures données, on n'est toujours pas à l'abri d'un changement de régime qui invaliderait le modèle pourtant plutôt représentatif jusque-là.

C'est l'essence de la critique de Lucas, qui postule de facto l'existence d'invariants dans nos comportements (individuels ou grégaires), qu'il convient donc d'isoler afin de rendre la modélisation aussi rigoureuse que possible. Prenons par exemple la courbe de Phillips, du nom de l'économiste britannique qui constata une forte régularité de la relation entre inflation et taux de chômage au Royaume-Uni entre 1860 et 1957. Pendant un temps, ceci avait aussi l'air de fonctionner pour les États-Unis : sur le graphique ci-contre, le taux d'inflation (en ordonnées) exprimé en fonction du taux de chômage (en abscisse) forme une jolie courbe bien régulière pour les années 50 et 60.

Les pouvoirs publics ont alors tenté d'utiliser cette observation pour réduire le chômage, au prix d'un peu d'inflation. Malheureusement, l'inflation commença à s'emballer dans les années 70, au fur et à mesure que les gens se sont mis à ajuster leurs attentes d'inflation, ce qui eut pour effet de casser cette relation empirique. On voit ceci dans le graphique, dans lequel il est impossible de tracer une courbe du même genre à partir de 1970 (voir aussi chapitre 4.3.2 de Fluctuations et Crises).

D'un point de vue mathématique, cette relation, vue des années 50 et 60, dit juste que :

π = f(U)

Où π est l'inflation, U le chômage (de l'anglais unemployment) et f une fonction (on pourrait ici choisir la fonction inverse f(U) = 1/U vu la forme des données). Cette relation marche donc plutôt bien dans un premier temps, puis est invalidée par les données sans crier gare.

C'est ici qu'on voit le potentiel des microfondations : baser la modélisation macroéconomique sur celles-ci a pour but de la rendre plus robuste, en y injectant les résultats (souvent probants) de la microéconomie. Objectif ambitieux d'un point de vue mathématique mais pas dénué de sens. Dans le cas de la courbe de Phillips, la modélisation microfondée (qu'on épargnera au lecteur, voir ici pour plus de détails) donne un résultat bien différent, et injecte notamment les anticipations d'inflation, conformément à l'intuition de Phelps et Friedman (et à l'observation empirique des années 70):


πt = β Et πt+1 + γ yt

Où πt est l'inflation aujourd'hui, Et πt+1 est l'anticipation d'inflation pour la prochaine période, β l'escompte, yt l'écart de production et γ un coefficient.

Alors, une panacée les microfondations? Le lecteur avisé aura flairé l'arnaque dans l'équation ci-dessus : on ne parle plus de chômage ! Et il y a une raison (pas si bonne) à ça : on ne sait pas quelle microfondation utiliser pour construire la relation macro voulue entre inflation et chômage. C'est juste que c'est compliqué mathématiquement et qu'il faut faire de la recherche ! Et puis ces invariants sont-ils si invariants que ça ? On se souviendra notamment de ce post qui rapporte les différences de comportement face au partage selon le contexte culturel de l'expérience microéconomique. Ca n'est pas nécessairement insurmontable mais ça mérite encore plus de recherche...



Suspicion of Mass Destruction

Pour clore ce post, et pour dissiper des idées préconçues erronées, il convient de mentionner le théorème dit de Sonnenschein Mantel Debreu (SMD), du nom des trois économistes qui se sont penchés sur le sujet. Ce théorème est fréquemment invoqué comme démontrant la vacuité des théories économiques néolibérales. Sans rentrer dans des débats gauche-droite un peu vaseux, on peut résumer l'argument comme suit : les microfondations sont une construction absurde à laquelle on peut faire dire ce qu'on veut, d'où le sobriquet de SMD: Anything goes theorem. Dit autrement, faux implique n'importe quoi.

Sauf que SMD ne dit pas vraiment ça... Voyons cela plus en détail : la fonction de demande nette agrégée, qui est la somme sur tous les marchés de la différence pondérée par son prix entre offre et demande pour le bien échangé sur le dit marché, caractérise complètement l'équilibre général. Dans ce cadre théorique assez précis, SMD nous apprend que la forme générale d'une fonction de demande nette agrégée n'est pas très contraignante. En particulier, il existe toutes sortes de fonctions respectant les propriétés génériques communes mais qui sont pathologiques au sens économique, car impliquant plusieurs (voire une infinité) d'équilibres possibles, des équilibres instables, etc. Ce que dit donc SMD, c'est que sans faire des hypothèses plus fortes sur notre économie que celles de base de la théorie de l'équilibre général, alors on ne peut pas écarter ces situations bizarroïdes de notre univers des possibles.



Mais cela n'invalide pourtant pas le principe de modélisation microfondée pour autant, car SMD ne dit pas que les microfondations vont systématiquement mener à un équilibre macroéconomique absurde. Et en pratique c'est même bien le contraire, car justement les choix particuliers amènent ce supplément de structure qui manque au cas général.

En conclusion, les microfondations sont un espèce de Graal de la modélisation, permettant d'apporter de la substance à des relations empiriques, l'économie ne bénéficiant pas de la même régularité observationnelle que les sciences naturelles. Elles sont cependant critiquées car malheureusement devenues l'Alpha et l'Omega de la macroéconomie, négligeant le fait que de trouver des microfondations solides est une gageure, et que cela se fait souvent au détriment du bon sens.

 
On se quitte sur l'énoncé du théor
ème, en essayant de rendre intelligible sa brutalité mathématique :
  • Soit N le nombre de biens (et de prix) observés dans notre économie.
  • Soit Pε l'ensemble des vecteurs de prix p qui peuvent exister (positifs et satisfaisant une condition mineure au bord) : c'est l'ensemble des configurations de prix que notre économie peut prendre
  • Soit f une fonction de ces prix, qui doit posséder les caractéristiques suivantes :
    • Etre continue (on peut la tracer sans lever le crayon)
    • Etre homogène de degré zéro, c'est-à-dire que si on multiplie tous les prix par un même nombre, alors les valeurs que prend f sont inchangées (les fonctions constantes sont par exemple de degré zéro).
    • Satisfaire à la loi de Walras, qui dit que p . f(p) = 0 (il s'agit d'un produit scalaire vu que l'on considere des vecteurs
  • Alors il existe une économie d'échange telle que f soit la fonction d'excès de demande, associant à chaque prix l'excès de demande correspondant, pour chaque marché. L'homogénéité de degré zéro est logiquement attendue d'une fonction de demande, car on s'attend à ce qu'elle ne change que lorsque les prix relatifs changent. Quant à la loi de Walras, ceci n'est autre que la contrainte de budget dans une économie d'échange : la valeur des dotations initiales doit être égale à la valeur des attributions finales.

mardi 10 juillet 2018

DSGE: Je monte, je valide !

Chez Economiam, on aime les débats, mais on n'aime pas quand ils sont stériles. Alors on s'attaque à du lourd aujourd'hui, le cœur de la modélisation macroéconomique standard, telle qu'on peut la trouver dans les banques centrales. Ne décrochez pas tout de suite! C'est en se basant sur ces modèles, les fameux DSGE, que Janet, Mario et les autres prennent leurs décisions, celles qui impactent directement votre vie. Et si vous fermez la page maintenant, vous n'aurez plus non plus le droit de vous plaindre que la discipline économique est trop mathématique ! Economiam vous emmène donc en douceur dans ce monde chimérique pour comprendre comment on valide un modèle.

Dans le cambouis

DS...
Dans les réseaux sociaux, comme dans les canaux institutionnels un peu plus conventionnels, on parle beaucoup de "ces modèles qui n'ont pas vu venir la crise". Les analyses, mêmes sérieuses, évitent soigneusement de rentrer dans les détails techniques, et résultat les gens ne savent pas trop ce qu'on critique. Chez Economiam, on pense que c'est une erreur, et que, comme une image, une équation vaut mille mots (enfin presque...). C'est juste qu'on en voit moins souvent dans le journal!

 


Prenons donc le modèle Dynamic Stochastic General Equilibrium (DSGE) de base, on le montre ici brut de décoffrage dans sa splendeur mathématique (si ça vous fait peur sautez directement jusqu'au texte qui suit):


Qu'est ce qu'il se passe là dedans? On postule que l'économie est régie par les principes suivants:

  • On considère les interactions entre ménages et entreprises, afin d'en déduire les quantités agrégées comme le PIB (au lieu de modéliser ce dernier directement par exemple)
  • Les ménages choisissent leurs dépenses (C) et leurs heures travaillées (H) à toutes périodes dans le futur de façon à refléter au mieux leurs préférences en terme de consommation et de loisirs
  • Les entreprises sont en situation de concurrence pure et parfaite. Elles choisissent leur niveau d'investissement (I), de façon à maximiser leur profit, en tenant compte de leurs besoins en heures travaillées et en capital (K qui se deprécie d'une période sur l'autre)
  • De plus, la consommation et l'investissement doivent égaler la production (il n'y a pas de valeur créée à partir de rien)
  • Il y a des chocs de productivité (z) qui sont aléatoires. Comme on l'explique dans Fluctuations et Crises, toute l'incertitude et par conséquent les crises économiques sont résumées au sein de ces chocs, qu'on peut interpréter comme des progrès ou régressions technologiques


Donnez moi un D! Donnez moi un S ! ...

Comme le fait Anton Korinek de l'université Johns Hopkins, il convient d'expliquer en quoi cette classe de modèle est Dynamique, Stochastique et à Equilibre Général:

  • S comme Stochastique : Comme on l'a vu, il y a une composante aléatoire (autrement appelée stochastique) via les chocs de productivité. Celle-ci est censée représenter la notion que les crises sont imprévisibles car logiquement, si les gens sont parfaitement rationnels, ils feraient tout pour les éviter et donc elles ne se matérialiseraient jamais
  • D comme Dynamique: Les ménages et les entreprises vont toujours chercher à faire au mieux (à optimiser comme on dit), et à s'adapter à toutes les situations, ce qui est utile quand on cherche à comprendre l'impact desdits chocs ci-dessus. En étendant la représentation pour y inclure une banque centrale ou un gouvernement, on peut par exemple s'atteler à comprendre les problèmes d'incohérence temporelle, en d'autres termes savoir si les décideurs économiques sont crédibles, ou s'ils vont renâcler à la moindre occasion (tel notre ami Boris Johnson)
  • GE comme Equilibre Général (enfin, on se comprend...) : Trouver la solution de ce système d'équations permet donc de déterminer la valeur des différents éléments (salaires, production, etc.) dans tous les scénarios possibles. Comme on considère que ces équations représentent l'économie dans son ensemble, cette solution est ce qu'on appelle un équilibre général (le GE de DSGE), par opposition à un équilibre partiel, où certains éléments seraient déterminés par ailleurs et injectés dans le système

Il y a un aspect supplémentaire qui fait beaucoup parler, les fondements microéconomiques (ou microfondations en bon franglais). C'est quoi ce truc? Et bien c'est la réponse que les modélisateurs ont trouvée pour pouvoir représenter proprement des réalités alternat
GE...
ives, le fameux ceteris paribus ou "toutes choses égales par ailleurs" appliqué à l'économie. La génération de modèles précédente n'en était pas vraiment capable, ce qui a poussé Robert Lucas (Prix Nobel d'économie 1995 et ancien président de l'Association des économistes américains) à les remettre en cause violemment, ce qu'on appelle la critique de Lucas. Les microfondations répondent donc à ce problème en essayant d'agréger les composantes économiques élémentaires (les ménages, les entreprises...), en s'appuyant sur les préférences à un niveau microéconomique. Ces préférences sont ainsi supposées invariantes avec la conjoncture (par exemple mon goût pour les glaces ne dépend pas de la situation économique globale). Ce sujet mérite un post à part entière, donc on en restera là pour le moment, mais on notera juste que passer du micro au macro est loin d'être évident.



Ah bah oui, forcément...

Revenons à ces magnifiques mathématiques: pour rendre le modèle plus facile à résoudre on fait notamment les hypothèses suivantes :

  • Les ménages sont agrégés en un seul agent, dit représentatif. On ne doit alors résoudre que pour un seul choix de consommation et d'heures travaillées 
  • De surcroît, cet agent représentatif est immortel, ce qui permet d'écrire une somme infinie et de s'abstraire des questions d'épargne et de transmission d'héritage 
  • Ces mêmes ménages sont dotés d'une capacité de calcul infinie (la chance !) qui leur permet d'optimiser leurs décisions économiques pour toute éternité. On appelle ça les anticipations rationnelles (ou Homo economicus avec une pointe d'ironie)
  • Il est possible de produire n'importe quelle quantité de biens et services, ainsi que d'emprunter autant que nécessaire, et ce dans tous les états du monde. Les marchés sont dits complets.

On notera aussi qu'il n'y a pas de monnaie, pas de rôle de l'Etat et pas de commerce international. Mais c'est plus un choix de présentation de ce post, car on considère ici le noyau dur des modèles DSGE, dit Real Business Cycle initialement développé par Kydland et Prescott (qui leur valu le prix Nobel en 2004). Cependant le modèle standard, dit Néo-keynésien, introduit bien la monnaie, et des extensions standards considèrent explicitement l'Etat ainsi que les économies ouvertes.

Bien évidemment, ces hypothèses en surprendront plus d'un, car on le sait bien :

  • Nos économies sont composées de dizaines ou centaines de millions d'individus, de tous âges, exerçant des métiers différents, certains riches, certains pauvres.
  • Les gens meurent !
  • Ce modèle est déjà difficile à résoudre pour des étudiants du supérieur équipés d'un ordinateur, alors imaginer que les gens résolvent ce programme d'optimisation dans leur tête, il faut être zinzin!

Mais on voit aussi que les civilisations extraterrestres ne sont pas représentées. Est-ce pour autant grave? Car il faut bien rappeler que les modèles sont une représentation schématique et simplifiée du monde. C'est Rodrik qui reprend l'image des cartographes de Borges, qui sont tellement obsédés par la précision que leur carte est à l'échelle 1:1 ! Toutes ces critiques ne se valent donc pas.

On va donc discuter dans une série d'articles du bien-fondé de ces hypothèses, ainsi que des techniques utilisées pour résoudre ces modèles en utilisant quelques principes de base de la validation de modèle:

  • L'objectif du modèle (prédiction, inférence, pédagogique...) est crucial dans son évaluation. Allez essayer de prédire la prochaine crise avec IS-LM! Mais son but avoué étant pédagogique, il serait injuste de le considérer à cette aune. C'est aussi ce que dit implicitement Olivier Blanchard au sujet des toy models dans un post de l'an dernier.
  • L'importance effective des hypothèses ne peut pas s'évaluer uniquement à l'aide de raisonnements de bon sens. Il faut relâcher les hypothèses en question, de préférence en partant de la même base, soit utiliser des modèles alternatifs, même s'il faut là encore faire attention à la spécification de ces alternatives
  • La cohérence interne est une nécessaire mais pas suffisante pour pouvoir donner une évaluation positive. Cette cohérence interne peut être de plusieurs ordres : tout d'abord purement mathématique, c'est à dire que si par exemple 1 + 1 ne font pas 2 dans le modèle, il y a clairement un problème. Elle peut aussi venir de la théorie économique : les équations présentées ci-dessus s'intègrent avec la comptabilité nationale et tiennent compte des facteurs de production.
  • Mais former un tout cohérent ne peut se substituer à la confrontation aux données réelles. C'est ici que les principaux reproches peuvent être adressés aux DSGE, et que l'économie de pointe montre à quel point elle a (eu) tendance à être juste une approche scientifique à défaut d'être une science. Notamment, historiquement ces modèles sont "calibrés", ce qui est une belle façon de dire qu'on regarde à la louche si le modèle reflète certains aspects des données, sélectionnés avec soin, en lieu et place d'une évaluation statistique rigoureuse (très complexe ici, il faut l'admettre). 

La conclusion de tout ça pour Economiam c'est qu'il faut plus de maths, pas moins! En ça je contredis assez frontalement Antoine Belgodère, mais j'espère pouvoir bien cimenter mon cas dans les prochains posts.

mercredi 3 janvier 2018

ISF, IFI... : Ah si j'étais riche !

Discussion de comptoir :
- Supprimer l'ISF, c'est juste faire un cadeau aux riches ! T'as vu les yachts et les jets privés !
- Mais non, l'ISF ne sert à rien à part faire fuir les plus gros contribuables : trop d'impôts tue l'impôt !
- De toute façon il faut fermer la bourse, les riches ont beaucoup trop, il faut taxer toutes les formes de capital, pas que l'immobilier, pour prendre aux riches et donner aux pauvres !
- L'ISF coûte plus cher qu'il ne rapporte !

Pas très constructif tout ça. Sauf que cette discussion se produit en ce moment par médias interposés, en lieu et place d'une analyse économique rationnelle concernant le remplacement de l'Impôt Sur la Fortune (ISF) par l'Impôt sur la Fortune Immobilière (IFI). Donc chez Economiam, on ne se fait pas prier pour pallier à ce manque !


Se méfier de l'eau qui dort

Est-il possible que certains aient trop d'argent...
Le candidat Macron proposait de réformer l'ISF en le concentrant uniquement sur la propriété immobilière, opposant l'investissement "productif" (dans les actions, etc.) à la pierre et la terre, masses inertes qui ne produisent selon lui que des rentes. L'idée globale est donc de booster la croissance française en favorisant les esprits créatifs (les "startupeurs" diraient ironiquement les partisans de la France Insoumise). Ca reste vague, et pour Economiam, ça passe complètement à côté des vraies problématiques de la possession du capital, tout en créant beaucoup de bruit pour rien.

Celles-ci sont :

  • L'ISF est-il un impôt néfaste ? Où l'on retrouvera les fameux paysans millionnaires de l'île de Ré.
  • Pourquoi la possession de capital est-elle aussi inégale ? Où l'on verra que c'est pas mal d'être l'héritier de Liliane Bettencourt.
  • C'est grave cette inégalité de richesse ? Et si oui, que faut-il y faire ? Où l'on retrouvera un peu Piketty et bien sûr l'IFI de Macron en application.

 

Il est l'or, mon seignor...

Alors, est-il néfaste cet ISF ? La réponse est malheureusement qu'on ne sait pas vraiment (pardon pour l'arnaque d'économiste à deux bras) ! On propose ici deux pistes de réflexion :
  • L'ISF est-il spécial ? Oui, mais il ne l'est pas tant parce qu'il vise les riches que par sa base de prélèvements. En effet, contrairement à l'impôt sur le revenu ou la TVA, il n'est pas calculé sur la base d'échanges monétaires (les flux) mais comme une fraction de la valeur de ce qu'on possède (autrement appelé le stock, ou capital). Il est donc par corollaire difficile à évaluer car il repose sur des estimations ("Que vaut cet appartement ? Ou ce Picasso ?") plutôt que sur des transactions réelles. Dans ce qui suit, pour être clair, on va référer de façon un peu abusive à l'ISF, pour parler en fait d'un impôt plus général sur le stock de capital. 
  • Est-ce un impôt distorsif ? La théorie économique de l'imposition repose sur un constat central : l'impôt implique de trouver l'équilibre entre lever des fonds pour assurer le bon fonctionnement des administrations publiques et ne pas trop décourager l'activité économique du secteur privé. Bizarrement, cette théorie est plutôt démunie face à l'imposition du stock de capital, les analyses classiques se concentrant uniquement sur les flux (voir Atkinson-Stiglitz et Chamley-Judd, en section 2 de cet article). Malgré cela, si l'on remarque que l'imposition du stock de capital est équivalente à substituer une taxe affine à une taxe purement linéaire sur les revenus du capital, cela vaut quand même le coup de regarder les résultats classiques de plus près. Retenons donc que l'imposition des revenus du capital a historiquement été considérée comme néfaste, mais que cela est en train de changer. L'idée est la suivante : l'épargne (qui n'est rien d'autre qu'une accumulation de capital) consiste à différer sa consommation d'aujourd'hui pour être en mesure de consommer plus dans le futur. Or taxer aujourd'hui un euro qui aurait sinon été consacré à de l'épargne se répercute alors pour très longtemps dans le futur (par effet de composition) et décourage l'épargne et réduit l'investissement en conséquence. Cette vision est cohérente avec la notion que l'ISF chasse les entrepreneurs de France. Ceci a cependant été remis en cause d'un point de vue empirique par Zucman, et d'un point de vue théorique par Piketty et Saez (prenant en compte l'héritage) ou Straub et Werning (plus sous l'angle de la validité mathématique de la théorie classique). Certains vont même plus loin en considérant que l'ISF serait pigouvien, c'est-à-dire qu'il incite à des comportements vertueux, car il pousse à faire fructifier son argent plutôt qu'à s'endormir dessus comme un vieux papy.

Exercice d'application : les "paysans de l'île de Ré", ces petits producteurs qui se retrouvent à payer plus d'ISF qu'ils n'ont de revenus à cause de la flambée du prix des terres agricoles qu'ils possèdent sur cette île très prisée des vacanciers.

Passons outre le fait que les articles de presse interviewent toujours le même couple de retraités (à se demander s'il y a bien un groupe de "paysans de l'île de Ré"...), on voit quand même bien qu'en pratique taxer le stock de capital est compliqué car on ne peut pas forcément vendre 2% de son bien tous les ans pour payer l'impôt.

En revanche, côté incitations, on se rend compte que ces personnes sont assises sur un sacré magot qu'elles pourraient monétiser du jour au lendemain. C'est triste de devoir quitter la maison familiale, mais le fait qu'elles y aient un attachement émotionnel ou qu'elles refusent de la faire fructifier n'y change rien. Ceci plaide plutôt en faveur d'un effet pigouvien de l'ISF, avec une fortune qui est ici héritée, dans le sens où ces personnes n'ont rien fait que d'être au bon endroit au bon moment (financièrement parlant). De plus, on constate que ces personnes choisissent de se battre sur place plutôt que de s'exiler fiscalement, ce qui va là encore à l'encontre de l'image d'Epinal de l'entrepreneur matraqué par l'impôt, et qui doit par conséquent fuir la France.

OK, cupide

A l'autre bout du spectre des personnes soumises à l'ISF, Liliane Bettencourt, l'héritière milliardaire de l'empire L'Oréal, vient de décéder, au grand dam des commentateurs qui en avaient fait l'égérie de la fortune oisive et des limites de l'ISF.

Ayons une petite pensée pour sa fille et ses petits-enfants : on se dit évidemment que ce n'est pas mal d'être son héritier parce qu'on devient milliardaire, et que c'est plutôt confortable comme vie. Mais c'est d'autant mieux lorsqu'on se rend compte que la fortune appelle la fortune. Et c'est ça qui est à la base de la répartition inégale de richesse.

En effet, la théorie traditionnelle des dynamiques des inégalités repose sur l'hypothèse de différences de compétences, qui mènent naturellement à des différences de revenus. On peut ensuite transformer cette différence de revenus en différence d'épargne et donc de fortune. Or la théorie suggère que pour générer les niveaux d'inégalité de patrimoine observés dans le monde réel, on ne peut pas juste se reposer sur ces différences de compétences/revenus. Deux ingrédients supplémentaires semblent fournir une explication solide : premièrement des taux de rendements du capital qui sont aléatoires, autrement dit des coups de bol massifs (trouver une mine d'or, investir dans Facebook à ses débuts ou encore... être un paysan de l'île de Ré !). Deuxièmement, une corrélation positive entre fortune et rendement, c'est-à-dire plus on est riche, meilleur est le taux auquel on peut placer son épargne. Piketty dans son livre Le Capital au XXIe siècle fournit des données validant cette hypothèse. Ce dernier point est particulièrement important, car il montre que les inégalités de patrimoine ont tendance à se perpétuer.



Iffy

Alors voilà, est-ce que c'est grave que certaines personnes soient plus riches que d'autres ? Au-delà de la simple jalousie ("pourquoi ils sont riches, eux, et pas moi ? Qu'on les taxe pour que j'en aie plus !"), le consensus s'établit de plus en plus parmi les économistes pour dire que les inégalités sont néfastes pour l'économie dans son ensemble (voir le post précédent par exemple, ou encore ce que dit Piketty).

On dirait pas comme ca,
mais cet homme ne vous veut pas du bien
Alors que faire ? L'approche anglo-saxonne consiste à accorder des abattements fiscaux pour certains types de dépenses caritatives. Mais il faut bien préciser que la capacité des ultra-riches à guider les politiques publiques par ce biais est une tendance très inquiétante. Aux États-Unis par exemple, Bill Gates s'est mis en tête d’utiliser ses milliards pour établir un curriculum commun pour les enfants américains : rien que de bien naturel me direz-vous, et puis Bill a une bonne bouille. Mais on trouvera sûrement plus inquiétants les frères Koch et leur programme scolaire créationniste ou Peter Thiel et ses projets de société ultra-libertaires. Bref, il y a quand même matière à s'inquiéter.

Restons donc dans le cadre de l'impôt direct, dont on a vu en première partie qu'il peut être un outil économiquement cohérent. La proposition (utopique) de Piketty est de créer un impôt mondial en se basant sur une définition du capital la plus large possible, ce qui au final n'est pas si loin de l'ISF en France, à ceci près que la dimension mondiale devrait permettre de réduire les possibilités d'arbitrage fiscal.

On peut envisager deux utilisations pour cette manne. Tout d'abord, dans un contexte de stagnation économique, l'Etat pourrait investir dans des projets à fort rendement social mais dont le rendement économique à court et moyen terme est très incertain (par exemple les énergies vertes, la rénovation des habitats ou, en poussant un peu, le nucléaire). Ceci serait tout particulièrement utile dans le cas où la stagnation est causée par une forte aversion au risque des investisseurs privés (suite à une crise financière globale, au hasard), car l'Etat a souvent les reins plus solides sur le long terme que la plupart des capitaux privés. Notons cependant qu'il s'agit de mettre cet argent entre les mains de gens comme Trump ou Hollande : punir les riches certes, mais à ce point-là !

Deuxièmement, l'Etat a la possibilité de redistribuer les revenus de l'impôt aux moins aisés. Mais chez Economiam, on a du mal à voir comment ce seul instrument permettrait de réduire efficacement et durablement les inégalités de patrimoine. En effet, il existe des barrières sociales/comportementales avérées (voir ici ou encore Esther Duflo), qui rendent difficile l'accumulation de patrimoine chez les plus pauvres. Cela nous amène à penser qu'en pratique l'imposition n'est pas une panacée et ne donc peut être qu'un instrument parmi d'autres pout parvenir à plus d'égalité économique. En corollaire, la réforme de l'ISF en IFI est un leurre : hormis l'aspect très symbolique de la forme que l'impôt sur la fortune prend en France, on argumente ici qu'il n'est ni aussi absurde, ni aussi efficace que d'aucuns prétendent (et certainement beaucoup plus neutre que les passions qu'il déchaîne !). Et puis il ne faut pas oublier le secteur immobilier est un secteur productif comme les autres (il sert à produire des logements...) donc l'investissement dans la pierre n'est pas plus oisif que celui dans Bitcoin ou Facebook. Pour reprendre Jean Peyrelevade et répondre à la discussion de comptoir sur l'ISF, cette réforme n'est "ni de gauche ni de droite mais maladroite".

Chez Economiam, on pense donc qu'il faut ouvrir un autre front, celui de la constitution d'épargne individuelle. Comme on l'a expliqué plus haut, il y a certaines barrières comportementales qu'il faut aider à franchir. Cela passe par une amélioration de l'éducation économique et financière en France. De plus, certains outils comme l'épargne salariale pourraient être des options par défaut pour les salariés (une solution de type "nudge"). Ensuite, pour profiter de la corrélation positive entre rendement et épargne, on pourrait inciter les particuliers à se regrouper pour la gestion de leurs actifs en vue de la retraite notamment, comme le font beaucoup les fonctionnaires ou enseignants nord-américains. Enfin, comme on l'a déjà dit par ailleurs, se fier à un instantané pour se prononcer sur les inégalités est trompeur : la mobilité est un paramètre essentiel aussi. Les deux propositions ci-dessus devraient faire beaucoup plus qu'un coup de rabot sur les grandes fortunes...

jeudi 14 septembre 2017

Pendant ce temps là... (09/17)

Deuxième édition d'une série (pour le moment très ponctuelle) qui regarde ce qu'il se passe ailleurs sur la toile. Aujourd'hui dans l'éconosphère américaine, les bloggeurs se demandent pourquoi les entreprises ont l'air de se faire autant d'argent aux Etats-Unis.

Une histoire belge

Ca plane pour moi !
Le débat part d'un papier tout frais par deux économistes belges, qui analysent l'évolution historique des taux de marge aux Etats-Unis (le taux de marge mesure dans quelle proportion un produit est vendu plus cher que ce qu'il a coûté à fabriquer - ceci sert ici de mesure du surprofit des entreprises). Ils montrent que ces marges ont explosé ces dernières années, passant de 18% à 67%. Selon des mesures similaires, cela correspondrait aujourd'hui à 1 500 milliards de dollars ! Un joli magot...

Les auteurs attribuent ce phénomène à l'accroissement de la capacité des entreprises à augmenter leurs prix sans perdre de clients, ce qu'on appelle leur pouvoir de marché. Une entreprise comme Apple par exemple a une telle image de marque qu'elle peut facturer ses téléphones relativement plus chers que ceux de ses concurrents malgré une technologie similaire. Ces prix plus élevés s'accompagnent en général d'un double effet Kiss Cool, car ils sont souvent obtenus en réduisant les volumes produits, ce qui crée un effet de rareté.

Pour nos amis d'outre-Quiévrain, le corollaire de cette hausse du pouvoir de marché des entreprises est une baisse de l'investissement (car les entreprises ont moins besoin de se forcer pour faire du profit), une baisse de la part du travail dans la valeur ajoutée, une croissance plus faible (à cause de la baisse des investissements) et in fine une hausse des inégalités (parce que la possession du capital est très concentrée). Bref, r > g le retour !



Un poil de mauvaise foi...

Sur internet, le débat tourne essentiellement autour de savoir si ce phénomène est aussi néfaste que présenté. Les plus libéraux argumentent que c'est simplement le revers de la médaille de l'augmentation du choix pour les consommateurs. En effet les modes de consommation sont de plus en plus personnalisés et le choix de produits toujours plus grand (ce qui est pour eux trivialement un bienfait même si on peut en douter). Cette segmentation a pour effet de permettre aux entreprises de réduire l'intensité de la concurrence en se positionnant sur des marchés similaires mais distincts au lieu de s'affronter directement sur des gammes identiques (ce que les économistes appellent la concurrence monopolistique). Bref, un bien pour un mal, match nul, balle au centre.

Pour The Economist, le débat est considéré sous l'angle des monopoles internet, argumentant que la fourniture de biens et services gratuits, ajoutée aux effets de réseaux ainsi obtenus, sont bénéfiques pour le consommateur, sans que les effets néfastes d'une concurrence réduite ne soient avérés. Chez Economiam on est moyennement convaincus, et on a déjà donné les objections à ce point de vue dans ce post sur les monopoles.



On prend cher

Dans ce débat, comme souvent, c'est Noah Smith du blog Noahpinion qui a l'argumentation la plus claire et la plus précise, en l'occurrence pour soutenir la position du papier à l'origine du débat. En réponse aux autres bloggeurs, il rappelle un résultat économique de base : la concurrence monopolistique est suboptimale pour le consommateur ! Puis il liste les éléments de la recherche récente qui pointent vers un changement de la structure compétitive aux Etats-Unis qui favoriserait les entreprises et leurs profits. En effet, on observe les faits suivants qui concordent avec cette interprétation :

  • Augmentation de la concentration : un nombre de plus en plus restreint d'entreprises contrôle une part de marché de plus en plus grande
  • Augmentation des marges et profits (comme décrit plus haut)
  • Réduction de l'investissement
  • Régulation antitrust moins effective 

En résumé, il semble bien se produire un changement profond aux Etats-Unis, au détriment du consommateur. A quand la même étude pour la France ?

vendredi 28 juillet 2017

La paresse de la lutte des classes

Le partage de la valeur ajoutée, ça parle aux gens : y'a qu'à voir les réseaux sociaux pendant les élections ! Ce qui rend ce débat si populaire est qu'il résume la lutte des classes en un seul chiffre. Chez Economiam on trouve que c'est un peu simpliste, donc c'est l'occasion d'un petit retour en question sur ce sujet, dont les termes sont rarement bien définis !

Ce qu'on sait vraiment et ce qu'on sait qu'on ne sait pas

  • Qu'est ce que la valeur ajoutée (VA), et qu'est-ce que la part du travail ?
Chacun sa part du gâteau !
Pour ce qui nous intéresse ici, la VA au niveau d'une entreprise peut se définir comme la somme des salaires et de l'excédent brut d'exploitation (EBE). Ce dernier représente approximativement le revenu de l'entreprise une fois ses coûts (salaires, consommation intermédiaire, intérêt de la dette, dépréciation d'actifs...) soustraits du chiffre d'affaire, mais avant impôts1.  La somme de toutes les valeurs ajoutées dans un pays forme le Produit Intérieur Brut (PIB).

On considère généralement que la VA est produite grâce à deux facteurs de productions, le travail (les gens quoi) et le capital (les machines, les brevets,...). Les salaires constituent bien sûr la rémunération du travail, tandis que le reste de la VA est considéré comme la rémunération du capital. On voit alors que la part du travail dans la valeur ajoutée est simplement le rapport entre la somme de tous les salaires divisée par la VA totale (le PIB donc).


Petite note sur la mesure de la VA

Ca a l'air simple présenté comme ça, mais selon ce qu'on met dans chacun des termes, on peut avoir des résultats très différents. D'une part, comme on l'a vu auparavant, le PIB a ses défauts, par exemple sur comment valoriser les services rendus par l'Etat, tandis que pour les comparaisons temporelles, la façon de mesurer l'inflation peut créer de grosses différences. D'autre part, la définition d'un salaire n'est pas non plus évidente. On y inclut généralement les cotisations sociales même si elles ne sont pas un revenu directement perçu, mais c'est clairement un choix conventionnel. Quant aux revenus d'un travailleur indépendant (un médecin généraliste par exemple), comment déterminer ce qui attribuable à son travail d'un côté et à ses outils de travail de l'autre? Moralité, pour dégager des vraies tendances sur l'évolution de la part du travail, il faut réussir à trouver plusieurs mesures concordantes, ce qu'on a essayé de faire pour cet article.

  •   La part du travail baisse-t-elle ?
Oui, selon plusieurs mesures concordantes (ici ou ici), le partage de la VA a eu tendance à évoluer en faveur de la rémunération du capital depuis les années 70 dans les pays occidentaux. Précisons tout de même qu'en France, la part du travail est restée relativement stable depuis la Deuxième Guerre à l'exception d'un pic vers le début des années 80 et que son niveau actuel est sensiblement similaire à celui du début du siècle2.


OK, mais alors quoi ?


  • Est-ce que ça veut dire que les salaires baissent ?
Pas forcément, et même non en pratique en France. Pour le comprendre, clarifions l'écriture du partage de la VA:

fL = w L / VA = w L / ( w L + r K )

Avec fL la part du travail, w le salaire moyen, L la population active, r le rendement moyen du capital et K le stock de capital.

D'un point de vue purement arithmétique, on voit qu'une baisse de la part du travail ne correspond pas nécessairement à une baisse des salaires, par exemple si cette baisse est causée par une augmentation du stock de capital (supposant toutes choses égales par ailleurs).

Alors, évidemment on parle d'économie ici, pas d'arithmétique donc les choses ont tendance à bouger ensemble plutôt qu'en isolation, mais la conclusion reste la même. Notamment, lors d'une crise économique, les salaires ayant une forte inertie à la baisse (voir par exemple Crises et Fluctuations, chap. 5), on voit que les revenus du capital diminuent plus vite que les revenus du travail, ce qui donc a tendance à entraîner une hausse de la part du travail, quand bien même les salaires diminuent.

En pratique, en France, depuis la fin de la Dernière guerre, les salaires réels n'ont cessé d'augmenter. Leur croissance s'est cependant ralentie après le choc pétrolier, avec une cassure nette en 1978 (voir graphique 2 ici). La part des salaires a, elle, cru jusqu'en 1982 lorsque se produit une forte chute au moment du tournant de la rigueur avant de se stabiliser avec une légère tendance à la hausse sans changement dans l'évolution moyenne des salaires (voir Annex B ici).

On voit donc qu'il n'y a donc pas d'équivalence entre baisse de la part du travail et baisse des salaires, ni d'un point de vue théorique, ni même en pratique.


  • Une baisse de la part du travail implique-t-elle une hausse des inégalités ?
Il y a bien un lien empirique entre baisse de la part du travail et augmentation des inégalités, l'OCDE estimant qu'un point de moins dans la part du travail correspond à une augmentation de 1,5 points du coefficient de Gini (voir graphique 6 ici), ce qui est beaucoup vu que le Gini varie entre 0% (égalité parfaite) et 100% (un seul individu s'accapare toutes les richesses). Ceci est notamment lié au fait que les inégalités de revenu du capital sont plus fortes que celles du travail, car la propriété du capital est très concentrée, plus en tout cas que la dispersion des niveaux de qualification 3.

En revanche, il n'y a pas de lien entre niveau des inégalités et part du travail, la Suède ayant par exemple une part du travail beaucoup plus faible qu'en France (60% contre 67% selon les mesures de Karabarbounis et Neiman par exemple) même si elle est plus égalitaire.

Enfin il faut garder en tête que la VA se calcule avant impôt et allocations. Son partage n'est donc que le début l'histoire. La France notamment est l'un des pays qui redressent le plus les inégalités de revenu selon l'OCDE.


Qui gagne quoi

L'opposition traditionnelle entre capital et travail, qui est l'une des raisons de l'intérêt pour le partage de la VA, est très réductrice, et la notion implicite de partage juste est illusoire. Par exemple, la part du travail en France a très fortement augmentée durant la Deuxième Guerre, à cause des très importantes destructions de capital. Est-ce pour autant une victoire du travail ? D'autre part, comme le rappellent Acemoglu et Robinson, cette opposition reflète une vision très occidentale du problème : le partage capital-travail sous l'apartheid en Afrique du Sud, par exemple, est le fruit d'une alliance entre certains travailleurs et certains capitalistes (les blancs et les producteurs de matières premières) contre d'autres catégories de travailleurs et de capitalistes (les noirs et les industriels). Rien de monolithique donc.

L'analyse en revanche est beaucoup plus riche si l'on se rend compte qu'un changement dans la répartition de la valeur ajoutée se traduit par un changement dans le niveau des inégalités, à cause de la répartition de la propriété du capital qui est beaucoup plus inégale que la distribution des revenus du travail.

Nous verrons dans un prochain article pourquoi cette situation existe et quelles solutions y apporter (selon deux axes principaux, l'imposition et l'incitation à l'épargne).


----------------------------------------------------------------------
1. La VA est définie de manière très précise par les impôts (qui prélèvent la Taxe sur la Valeur Ajoutée, la TVA). On se permet de s'abstraire de certaines technicalités pour rester concis.

2. On notera que le partage de la VA n'est pas constant dans le temps, contrairement aux principes énoncés par l'économiste britannique Nicholas Kaldor dans les années 50 ou encore aux hypothèses de modélisation de la fonction de production de Cobb-Douglas traditionnellement enseignée.
3. Si on suppose que ces derniers sont les principaux determinants des revenus du travail .